以下の内容はhttps://gigazine.net/news/20221208-apple-csam-scan-canceled/より取得しました。



Appleは、ユーザーがiCloudに保存している写真をスキャンして性的児童虐待のコンテンツ(CSAM)が含まれていないかを検出する計画を発表していましたが、これに対して反対の声が多く挙がりました。AppleがこのCSAM検出システムを導入する計画を破棄したと報じられています。

Apple Kills Its Plan to Scan Your Photos for CSAM. Here’s What’s Next | WIRED
https://www.wired.com/story/apple-photo-scanning-csam-communication-safety-messages/

Apple Abandons Controversial Plans to Detect Known CSAM in iCloud Photos - MacRumors
https://www.macrumors.com/2022/12/07/apple-abandons-icloud-csam-detection/

2021年8月、AppleはiCloudフォトに保存されているCSAMを検出するシステムを将来的に導入すると発表しました。

Appleが発表した児童の性的搾取を防ぐための「iPhoneの写真やメッセージをスキャンする取り組み」は国ごとの法律にのっとり行われる予定 - GIGAZINE


このCSAM検出システムは、既知のCSAMデータベースに登録されている画像ハッシュとiCloudフォトの画像のハッシュをチェックするというもので、ユーザーのプライバシーを損なうことなくCSAMの有無をチェックできるとAppleは述べていました。しかし、この方法は完全なものではないことが示され、電子フロンティア財団を初めとする組織や人権団体政治家Apple従業員など、多くの人から批判されました。

世界中から猛反発を受けるAppleの「iPhone内の児童ポルノ検知システム」には大きな穴があることが判明 - GIGAZINE


Appleは当初2021年末までにiOS 15・iPadOS 15にCSAM検出システムを実装すると述べていましたが、批判的な反応を受けて「『顧客、擁護団体、研究者などからのフィードバック』に基づいて実装を延期します」と発表しました。

「iPhone内の児童ポルノ画像を検知する機能」の延期をAppleが発表 - GIGAZINE


この延期発表から1年以上、AppleはCSAM検出システムについて語ってきませんでしたが、ニュースサイト・WIREDを通じて、「2021年に提案した児童保護に関する取り組みについて、専門家と幅広く協議してフィードバックを集めた結果、2021年12月に初めて提供したコミュニケーション・セーフティ機能への投資を深化させることになりました。さらに、以前提案したiCloudフォトのCSAM検出ツールは進めないことを決定しました」という声明を発表しました。

Appleは「私たちは、政府、児童擁護団体、その他の企業と協力し、若者を保護し、プライバシー権を守り、子どもたちと私たち全員にとってインターネットをより安全な場所にするための支援を続けていきます」と述べています。




以上の内容はhttps://gigazine.net/news/20221208-apple-csam-scan-canceled/より取得しました。
このページはhttp://font.textar.tv/のウェブフォントを使用してます

不具合報告/要望等はこちらへお願いします。
モバイルやる夫Viewer Ver0.14