サイバーセキュリティの専門家グループが、アップルがiPhoneの内部の児童の性的虐待画像を検出しようとする計画に対し、異議を唱えている。アップルの試みは大規模な監視活動であり、禁止されるべきだと彼らは主張した。 今年8月にアップルは、個々のデバイスのiCloudフォトライブラリ内を検索して、児童の性的虐待に関わるコンテンツ(CSAM)を検出するシステムを導入する計画を発表した。同社はNeuralHash(ニューラルハッシュ)と呼ばれる技術を用いて画像をスキャンし、既知のCSAM素材のライブラリと比較した後、当局に通報すると述べていた。 この計画は9月に延期が発表されたが、アップルは、顧客や人権擁護団体、研究者などからのフィードバックを受けて、改善を検討していると述べていた。 しかし、セキュリティと暗号テクノロジーの専門家チームが、さらに厳しくアップルを批判する論文を公開した。「Bugs i