以下の内容はhttps://gigazine.net/news/20210820-apple-photo-scanning-backlash-rights-groups/より取得しました。



iPhoneなどのApple製デバイスや、iCloudの写真やメッセージをスキャンして児童ポルノを通報するAppleの取り組みに対し、日本を含む世界各国の90の団体が反対を表明する書簡を公開しました。

International Coalition Calls on Apple to Abandon Plan to Build Surveillance Capabilities into iPhones, iPads, and other Products - Center for Democracy and Technology
https://cdt.org/insights/international-coalition-calls-on-apple-to-abandon-plan-to-build-surveillance-capabilities-into-iphones-ipads-and-other-products/

Apple photo-scanning plan faces global backlash from 90 rights groups | Ars Technica
https://arstechnica.com/tech-policy/2021/08/apple-photo-scanning-plan-faces-global-backlash-from-90-rights-groups/

Appleが2021年8月5日に発表した、iPhone端末やiCloud内の「Child Sexual Abuse Material(CSAM:児童の性的搾取に関連するデータ)」を検知する取り組みに対しては、監視や検閲の強化につながるとの危険性や誤検知のリスクが指摘されており、Appleの社内外から懸念の声が殺到しています。

世界中から猛反発を受けるAppleの「iPhone内の児童ポルノ検知システム」には大きな穴があることが判明 - GIGAZINE


2021年8月19日に、世界各国で活動する90の団体が共同で、Appleに対して画像やメッセージをスキャンする取り組みの実施計画を見送るよう求める(PDFファイル)公開書簡を発表しました。書簡にはアメリカ・カナダ・ドイツ・イギリス・香港・スペイン・アルゼンチン・ベルギー・ブラジル・コロンビア・ドミニカ・ガーナ・グアテマラ・ホンジュラス・インド・ケニア・メキシコ・ネパール・オランダ・ナイジェリア・パキスタン・パナマ・パラグアイ・ペルー・セネガル・タンザニアなどの団体が署名し、日本からは通信分野で活動するNGOのJCA-NETが参加しています。

書簡の内容は、データをスキャンする取り組みが言論の検閲に利用され、世界中のApple製品ユーザーのプライバシーやセキュリティが脅かされることを強く憂慮するもの。また、性的表現を検出するためのアルゴリズムの信頼性が低いことや、子どもを虐待している親やLGBT+に対する理解が欠如している親が子どものiPhoneのアカウントを管理している可能性があることなどを指摘した上で、「私たちは子どもたちを守るための取り組みを支援し、CSAMの拡散に断固として反対しています。しかし、Appleが発表した取り組みは、かえって子どもたちや他のユーザーを危険にさらすおそれのあるものです」と訴えています。


共同声明をとりまとめたアメリカの非営利組織・Center for Democracy & Technologyの共同責任者を務めるシャロン・ブラッドフォード・フランクリン氏は、発表声明の中で「私たちは、各国の政府がAppleのiPhone、iPadなどのデバイスに搭載されている監視機能を悪用するだろうと予想しています。そのような政府はAppleに対し、表現の自由として保護されるべきコンテンツをスキャンし、それらをブロックするよう要請するでしょう」と述べて、言論弾圧の懸念を指摘しました。




以上の内容はhttps://gigazine.net/news/20210820-apple-photo-scanning-backlash-rights-groups/より取得しました。
このページはhttp://font.textar.tv/のウェブフォントを使用してます

不具合報告/要望等はこちらへお願いします。
モバイルやる夫Viewer Ver0.14