ニュース

インスタ、DMのヌード画像にぼかし ポルノ犯罪対策で

Metaは、InstagramのDM(ダイレクトメッセージ)において、ヌード画像を検出するとぼかして表示し注意喚起を行なう機能のテストを開始した。プライベートなDMで性的な画像を入手し金銭そのほかを要求するポルノ犯罪(セクストーション)が増加していることへの対策の一環。

テスト機能では、DMにおいて、ヌードが含まれていると検出された画像はぼかされた上で、送信前に再考を促すよう注意喚起のメッセージが表示されるようになる。この段階では送信の操作を中止することも可能。ヌード画像を送信する本人を被害から守るほか、詐欺師から人々を守る機能ともしている。

この機能は全世界を対象に、18歳未満のユーザーにはデフォルト(初期設定)でオンになる見込み。成人に対してもオンにするよう促す通知が表示される。

画像送信時の注意喚起

また、ヌード画像を受け取った人がヌード画像を転送しようとすると、再考を促すメッセージが表示されるようになる。

転送時の注意喚起

ヌード画像をDMで受け取った(送りつけられた)際は、ぼかされた画像の上に警告画面が表示され、ヌード画像を直接見ることなく、閲覧するかどうかを選択可能。送信者をブロックしたり、画像を受け取ったチャットを報告したりできるオプションが用意され、返信のプレッシャーを感じないように促すメッセージも表示される。

これらセンシティブな画像やヌード画像を送受信する際には、そうした行為の潜在的なリスクや安全のためのヒントをまとめたページへの誘導も行なわれる。

ヌード画像の検出は端末ローカルの機械学習を使用しており、端末上のみで解析処理が行なわれる。Metaに対して報告されない限り、Metaが画像にアクセスすることはないとしている。

Metaでは、こうしたポルノ犯罪のアカウントには厳重に対処していくとしており、関連する法執行機関に報告する体制も整えている。また、ポルノ犯罪行為の“シグナル”を捉える技術も開発中で、これらの疑わしいアカウントが10代の若者に接触するのを防ぐ予防措置を講じていく。