アップルが児童の性的虐待防止のための機能をOSに導入実装も、プライバシーの侵害と批判的な声が殺到

今や、小学生でもスマートフォンを所持しているのは珍しいことではない。防犯面、両親との連絡用など所持させる目的は様々だが、例えばいじめ、性的搾取、詐欺被害などネット上や個人間でのやり取りでは、多くの危険と隣り合わせでもある。アップルは今回、子どもたちを性的搾取から守るための取り組みを発表。ところが、セキュリティ面やプライバシーの視点から見ると、批判的な声が殺到しているようだ。

安全機能導入に批判殺到、反対署名運動まで…

(Image:Cineberg / Shutterstock.com)

近年は子どもにスマホを持たせる時期が早まっている

 SNSを通してや、ネット上、メッセージ上での画像のやり取りはもはや当たり前。やり取りされた画像を巡って何かしらの問題やトラブルが起きないようにと、あらかじめネット規制など制限機能も存在しているが、規制を潜り抜けたり思わぬ形で危険が忍び寄って来たりする場合もある。

 アップルは8月5日、「子どものための拡張された保護」と題して「Child Sexual Abuse Material(CSAM:児童の性的搾取に関連するデータ)」を制限する3つの安全機能を導入すると発表した。3つの策は、12歳以下のユーザーに対して「メッセージアプリ上でやり取りされるCSAMと思しきコンテンツについては警告を表示する」「iCloud写真に保存されているデータを検査し、CSAMが検出できるようにする」「Siriと検索機能からCSAMに関する報告を可能にする」としている(アップル発表)。

 もちろん性的搾取に対しては効果的だろうが、これらの機能が「最近より重要視されているセキュリティ強化に反しているのでは?」というような批判的な声が寄せられている。特にメッセージでの警告とiCloudの写真での画像検知に対しては、機能追加を中止するよう署名運動まで行われているほどだ。

悪用や別のシステムに使用される可能性もゼロではない様子

アップルの発表に対して、電子フロンティア財団はプライバシー低下の警笛を鳴らしている

 メッセージでの警告とiCloudの画像検知の具体的な内容を少し見てみよう。メッセージアプリでの機能では、CSAMと思われる写真の送受信時に写真がぼやけ、子どもに警告が表示される。同時に役立つリソースが提示されるという。また、子どもの安全性を確認するため、保護者にメッセージが送信される。

 また、iCloudの画像検知機能では、iCloud写真に保存されているCSAMを検出した場合、アップルは全米行方不明・搾取児童センター(NCMEC)に報告できるようになり、報告を受けたNCMECはアメリカの法執行機関と協力して捜査に当たる場合もあるという。

 アップルはそれぞれの機能に対し、「メッセージは、デバイス上の機械学習を使用して画像の添付ファイルを分析。アップルは直接メッセージにはアクセスできないよう設計されている」「既知のCSAMを検出するアップルの方法は、ユーザーのプライバシーを念頭に置いて設計されている」としている。また、「国と地域の法律および規制に応じながらシステムを拡大していく」というが、本当に安全と言えるのだろうか。

 どれだけアップルがセキュリティ強化に力を入れようとも、悪用や別のシステムに使用しようと考える者も出てくることは否めない。

 あなたはこの機能についてどう思うだろうか?実際に導入されないことには効果や影響はわからないが、多くのユーザーが不安視しているとなれば、本当の意味で“子どもたちを守れる機能”とは言い切れないかもしれない。アップルが今後この機能に対してどのような判断を下していくのか。しっかりと見極めていきたい。

参照元:AppleがiPhoneの写真やメッセージをスキャンして児童の性的搾取を防ぐと発表、電子フロンティア財団などから「ユーザーのセキュリティとプライバシーを損なう」という抗議の声も【GIGAZINE

オトナライフ編集部
iPhone・Android・SNS・パソコン関連・キャッシュレス、QRコード決済など、さまざまな情報を独自の視点や切り口で発信するニュースサイト
X/Twitter:@otonalife
YouTube:OTONALIFE Ch

iPhone/Androidスマホやキャッシュレス決済、SNS、アプリに関する情報サイト[オトナライフ]

アップルが児童の性的虐待防止のための機能をOSに導入実装も、プライバシーの侵害と批判的な声が殺到のページです。オトナライフは、【iPhone&AndroidiPhoneApple個人情報情報漏洩】の最新ニュースをいち早くお届けします。