作成日: 2021-08-07
更新日: 2022-08-20
Apple が構築した監視インフラ
2021 年 9 月 6 日追記: 数日前、Apple は iOS 15 へのコンテンツスキャン技術の展開を延期した
2021 年 8 月 5 日、Apple は児童を保護するためとして CSAM (Child Sexual Abuse Material、児童の性的搾取に関連するコンテンツ) の拡散を制限する機能を Apple 製品に追加すると発表した。
EFF などは、Apple はシステムにバックドアを組み込もうとしていると指摘し、ユーザーのプライバシーとセキュリティが損なわれ、エンドツーエンド暗号化が破壊されると警鐘を鳴らし、Apple に対してバックドアを導入しないよう求めた。
問題点
これは監視インフラである
技術的仕様がどのようなものであっても、これは監視のためのインフラである。したがって、宗教的または政治的な弾圧や、性的マイノリティに対する攻撃に使用される危険性がある。
抑圧的な国家の政府は、Apple に対して弾圧したい宗教的または政治的なをコンテンツを検知して、当局に報告したり、検閲するよう求めるかもしれない。LGBTQ+ など性的マイノリティに批判的な国家の政府は、それらの人々を攻撃するためにこのバックドアを使用するよう Apple に求めるかもしれない。
エンドツーエンド暗号化が崩壊している
Apple は子どもが iMessage で性的なコンテンツを受信または送信しようとした場合に警告したり、保護者に通知する機能を使いするとしている。これは、iMessage におけるエンドツーエンド暗号化 (E2EE) の崩壊であると指摘されている。
またメッセージの宛先がこの監視の対象だった場合、送信元は送信したメッセージが宛先以外の人 (保護者など) に共有されることを知る手段がない。
技術的には異なるが WeChat も同じようなことをやっている
仕組みは異なるが、中国のメッセージアプリ WeChat もハッシュ値などを使用したメッセージの検閲を行なっている。
参考情報
- Apple’s Plan to “Think Different” About Encryption Opens a Backdoor to Your Private Life | Electronic Frontier Foundation
- Apple explains how iPhones will scan photos for child-sexual-abuse images | Ars Technica
- AppleがiPhoneの写真やメッセージをスキャンして児童の性的搾取を防ぐと発表、電子フロンティア財団などから「ユーザーのセキュリティとプライバシーを損なう」という抗議の声も – GIGAZINE
- アップル、児童虐待対策をiPhoneやMacに導入。iCloudに保存される写真を自動スキャン、当局に通報も – Engadget 日本版
- Apple、児童保護目的でユーザーの「メッセージ」とiCloudの「写真」の画像検出を実施へ – ITmedia NEWS