ブラジルで同意なくAIが性的画像を作成CEFR B2
2026年4月28日
原文: Fernanda Canofre, Global Voices • CC BY 3.0
写真: KOBU Agency, Unsplash
ブラジルでは人工知能(AI)を用いた同意のない性的画像の作成が社会問題となっています。具体例として、2023年11月にリオデジャネイロで保護者が高校生らによる同級生のAI合成ヌードの作成・共有を報告し、2024年9月にはバイーア州でティーンのグループが同級生のポルノ画像をAIで作成した疑いが持たれました。マト・グロッソ州では教師や生徒の画像がオンラインのポルノコミュニティで共有され、生徒が退学処分を受けています。
独立系研究機関Internetlabは2026年4月上旬に技術ノートを公表し、女性と少女に対するオンライン上の暴力を検討しました。同機関は、データベースや学習用データセットに偏りがあり、AIツールがジェンダーに基づく暴力を再生産・増幅する可能性があると指摘しています。引用された調査(Security Hero)では、性的に露骨なディープフェイクがディープフェイク動画の98パーセントを占め、ターゲットの99パーセントが女性であり、2022年から2023年にかけて性的ディープフェイクは464パーセント増加したと報告されています。
Internetlabは「安全設計(safety-by-design)」の導入や、同意のない性的ディープフェイクを「excessive risk(過度のリスク)」と見なして使用を禁じることを求めています。さらにデジタルリテラシーのカリキュラム指針や、プラットフォームの説明責任に関する明確な規則の整備も提案しました。公的議論では、連邦最高裁(STF)が2025年にMarco Civil da Internetの一部条項を無効としたこともあり、より強い規制を求める声が上がっています。
選挙シーズンを控え、Internetlabと同機関のディレクターClarice Tavaresは、Gemini、ChatGPT、ClaudeなどのAIツールやチャットボットがジェンダー偏見や女性に対する政治的暴力を再生産する形で利用されるおそれがあると警告しています。新たな法律やプラットフォーム規則が被害をどれほど速く止められるかは依然として不透明です。
難しい単語
- 同意 — ある行為を受け入れる側の承認や許可同意のない
- 性的ディープフェイク — 同意なしで作られた性的な偽の映像や画像
- 再生産 — あるものを再び生み出すこと
- 増幅 — 影響や効果をより強く広げること増幅する
- デジタルリテラシー — デジタル技術を理解し安全に使う能力
- 説明責任 — 行為について説明し責任を取る義務
- 整備 — 制度やルールを整えて準備すること
ヒント:記事中の強調表示された単語にマウスオーバー/フォーカス/タップすると、その場で簡単な意味が表示されます。
ディスカッション用の質問
- デジタルリテラシーの教育は、どのようにして同意のない画像作成の被害を減らせると思いますか?具体的な例を挙げて説明してください。
- プラットフォーム規則と政府の法律のどちらがこの問題に対して効果的だと思いますか?その理由を述べてください。
- AIツールが政治的暴力や偏見を再生産するリスクについて、開発者と利用者はどのような責任を負うべきだと思いますか?