「TONEカメラ」は、裸やそれに近い服装など、不適切な画像の撮影を規制する「AIフィルター」を搭載したカメラアプリ。クラウドを用いず、端末自体でAI技術を利用しているため、サーバーなどへのデータ保存は行われない。
同アプリは、児童ポルノ事件のうち、近年深刻化している「自画撮り被害」を防ぐことを目的に提供される。警察庁の統計によると、児童ポルノによる被害の3~4割がSNSなどで知り合った相手にだまされ、児童が自身のスマートフォンで自分の裸を撮影し、相手に画像を送ってしまう「自画撮り被害」だったという。
スマホを利用した子どもの事件被害は増加しており、2019年には2000人を突破した。総務省の調査によると、年齢階層別のスマートフォンの利用状況のうち、20歳未満の利用状況がはじめて減少に転じた。トーンモバイルはこの利用状況の変化について、「シニア層の利用率は増加しているが、若年層の利用率は低下している。背景として昨今の児童ポルノ被害の増加が考えられる」と分析する。
「TONEカメラ」では、端末内のAIが被写体を分析し、裸写真などの不適切画像と判断された場合、端末上に撮影不可のアラートを表示し、撮影を制限する。不適切と判断された場合のデータは保存されずに破棄される。静止画だけでなく動画撮影にも対応し、動画撮影中はリアルタイムで判別する。
被写体の分析は端末内のみで行われるため、画像判別のためのクラウド上への送信および保存は行われない。「肌色の量が多いため不適切画像」といった単純な判別ではなく、実際の画像をもとに学習データを作成したという。
「TONEファミリー」の管理者向けアプリで設定することで、不適切画像が撮影された場合には保護者に撮影ログを通知できる。通知では撮影場所とモザイク処理された極小のサムネイル画像を確認できる。
https://k-tai.watch.impress.co.jp/docs/news/1235342.html
引用元: http://egg.5ch.net/test/read.cgi/bizplus/1581841865/