TOPアプリ/OS > Apple、iCloudに保存する写真の児童ポルノ検出機能を...

アプリ/OS

Apple、iCloudに保存する写真の児童ポルノ検出機能を導入へ

2021/08/16

Jason Cross Macworld

 米Appleは、ユーザーが「iCloud」に保存する写真が児童ポルノなどのCSAM(児童性的虐待コンテンツ)か否かをチェックする機能を導入する。子供たちにとって安全な製品やサービスを目指す取り組みの一環として、今秋登場の新バージョンのOSに実装する。

Credit: IDG

 クラウドサービスのほとんどは、利用規約や法令に違反するCSAMなどのコンテンツがないかどうか、写真のチェックを行っている。それが可能なのは、コンテンツを暗号化して保存しているとしても、事業者が暗号化鍵を持っているからだ。Appleの場合、写真は転送中も保存時も暗号化しているが、必要な場合に復号するための鍵を保持している。必要な場合とは、当局からの令状に応じてiCloud内のデータを提出する時や、iCloud内の写真をWebブラウザーで利用できるようにする時などが該当する。

 だが、Appleが今回発表したCSAMの検出機能は、ユーザーのプライバシーを守るために、NeuralHashという新たな技術を使う。iPhone、iPad、MacからiCloudに写真をアップロードする時に、写真のハッシュ値を求め、既知のCSAMから作成したハッシュのデータベースと照合することで、チェックを行う。通常のハッシュは、元のデータが少しでも違えば、異なるハッシュ値が得られるが、この技術では、写真の切り出しなどの編集が加わっていても、同じハッシュ値が得られるようになっている。

↑ページ先頭へ