Apple、iCloudフォト向けCSAM検出ツールの計画を中止

Apple、iCloudフォト向けCSAM検出ツールの計画を中止

1分で読めます
| ニュース

CSAM検出スキャンツールの危険性

Appleは水曜日、以前提案していたiCloudフォト向けの児童性的虐待コンテンツ(CSAM)検出ツールの開発を中止すると発表した。この物議を醸したツールは、iPhone、iPad、そしてiCloudフォトにCSAMが含まれていないかAppleがチェックできるようにするものだった。しかし、プライバシーに深刻な影響を与えるとして、批判的な声が上がっていた。

Apple、iCloudフォト向けCSAM検出ツールの開発を進めず

AppleはWiredへの声明の中で、企業が個人データを精査する必要のない、子供を守るための他の方法があると述べました。Appleは、政府、児童擁護団体、そして他の企業と協力し、若者の保護とプライバシー権の擁護に引き続き取り組むことを確約しました。これにより、Appleはインターネットを子供だけでなくすべての人にとってより安全な場所にしたいと考えています。

Appleが2021年にiCloud写真向けのCSAMツールを初めて発表した当時を振り返ると、児童搾取の防止と安全性の向上に貢献することを目指していました。これらはテクノロジーコミュニティが切実に解決を望んでいた喫緊の課題でした。しかし、様々なプライバシー擁護団体から批判の声が相次いだため、AppleはiCloudへのCSAMツールの実装を中止せざるを得ませんでした。Appleによると、「今後数か月かけて意見を集め、改善を重ねた上で、これらの極めて重要な児童安全機能をリリースする」とのことです。

Appleは依然としてCSAMを懸念している

水曜日の発表は、少なくとも現時点ではAppleがこのツールの実装を断念することを示唆している。しかし、Appleが安全性の推進を完全に無視しているわけではない。CSAMツールの代わりに、Appleは2021年12月に初めて提供を開始した「コミュニケーション・セーフティ」機能に再び注力している。このコミュニケーション・セーフティ機能は、iMessageで送受信される添付ファイルに性的な内容が含まれている場合、未成年者とその保護者に警告する、オプトイン型のペアレンタルコントロール機能となる。もし含まれていた場合、Appleはそれらの添付ファイルをぼかすという。

Appleは最近、iCloud向けCSAMツールの配布を中止する計画を発表したが、同時に複数の新しいセキュリティ機能も発表した。具体的には、iCloudデータのエンドツーエンド暗号化を導入するとAppleは発表した。これには、バックアップ、写真、メモ、チャット履歴、その他のサービスが含まれる。「高度なデータ保護」と呼ばれるこの機能により、ユーザーはハッカー、政府、スパイから特定のデータを保護することができる。

しかし、Apple の高度なデータ保護機能は政府、特に FBI から否定的な反応も受け、FBI はこの新機能に対して深い懸念を表明した。

Knowledge Network