AppleのNeuralHash技術について考えてみた! |
先日、Appleに関するニュースがIT界隈を騒然とさせました。新しいiPhoneやiPadが発表されたわけではありません。それは「AppleがiOS 15にiPhone内の画像を検閲する機能を導入する」といった内容でした。
ニュースタイトルを見た瞬間にはにわかに信じがたく「どうせセンセーショナルなタイトルでPVを稼ぎたいだけだろう」とライター特有の穿った気持ちで記事を読んでみれば、内容はほぼ上記のままで、Appleが米国内における子どもへの性的虐待などを防止する目的として、iPhoneなどの端末内の児童ポルノ画像を自動検出するAI技術「NeuralHash」を実用化するというものでした。
結論から言えばこれには若干の語弊があり、iPhone内の画像をiCloud上へアップロード(同期)しようとした際にチェック機能が働き、米国の全米行方不明・被搾取児童センター(NCMEC)が管理(確認)している児童ポルノ画像などと合致した場合にカウントされ、そのカウントが一定の閾値を越えた場合にApple内部の人間による確認を得た上でアカウントの停止やNCMECへの報告が成される、というものでした(詳細は後述)。
いわゆる「端末内のすべての画像を監視する」といった極端なシステムではなかったとは言え、これまでAppleは個人のプライバシーを最優先する方針を貫いてきただけに、このような手法を取ってきたことはかなりの衝撃でした。
Appleはなぜ多くの人々から非難されるほどに一歩踏み込んだ「検閲」を行うのでしょうか。そしてそれはテクノロジーの使い方として正しいのでしょうか。感性の原点からテクノロジーの特異点を俯瞰する連載コラム「Arcaic Singularity」。今回はAppleによるNeuralHash技術の実装とプライバシーの問題について考察します。
続きを読む