香港で問われるAIと市民の信頼CEFR B2
2026年4月27日
原文: Nishant Shah, Global Voices • CC BY 3.0
写真: Markus Winkler, Unsplash
記事は、AIが市民生活の多くの場面に入り込み、信頼のあり方を変えていると指摘します。キャンパスや街では詐欺注意の情報があふれ、ポスターやメール、MTR駅の広告、新聞の見出しなどで注意喚起が続いています。実例として、従業員が財務責任者を装ったディープフェイクのビデオ通話にだまされ、数百万を振り込んだ事件が紹介され、当局は社会の備えが不十分だと述べています。
生成系AIは、明らかな虚偽ではない「もっともらしさ」を安価に大量に作ります。そのためデジタル空間には真偽がはっきりしないコンテンツが増え、認知的な疲労やあきらめを招いています。香港では詐欺を検知・遮断する技術システム(例:scameter+)が導入され、金融当局は「AIがAIと戦う新しい領域だ」と説明しています。
またAIは問い合わせシステムやサービスキオスク、行政申請や翻訳ツール、決済ゲートウェイや自動支援、都市管理のワークフローといった公共的インターフェースにも入っています。しかし効率が上がっても、市民が決定の過程や誤りの争い方、責任の所在を理解できなければ信頼は築けません。大埔の住宅火災に関する公聴会は、その点を示しました。
こうした課題に対し、Digital Narratives Studioは「AIがサービスをどう向上させるか」ではなく、「どのような市民関係をサービスが支えるべきか」を問い直しています。彼らは関係性に基づくインフラを少人数の集まりで作り、言語と実践を組み合わせてAIを説明責任があり変化可能なものにしようとしています。こうしたボトムアップの作業は遅く、規模拡大が難しいものの、単なる検証以上に共同で意味を作る条件を再構築することを目指しています。
難しい単語
- 注意喚起 — 危険や詐欺などを知らせる行為や表示
- ディープフェイク — 他人の声や映像を偽造する技術
- 生成系AI — テキストや画像を自動生成する人工知能
- もっともらしさ — 真実のように見えるが確実でない性質
- 認知的な疲労 — 情報を判断することで生じる精神的な疲れ
- 検知 — 問題や不正を見つけること
- インターフェース — 人とシステムがやり取りする接点や画面
- 説明責任 — 行為や決定の理由を説明する義務
- ボトムアップ — 現場や市民から段階的に変える方法
- 規模拡大 — 小さな取り組みを大きく広げること
ヒント:記事中の強調表示された単語にマウスオーバー/フォーカス/タップすると、その場で簡単な意味が表示されます。
ディスカッション用の質問
- あなたの地域や学校でAIに関する注意喚起はありますか。どのような形で行われていますか?具体例を挙げて説明してください。
- 本文にある『説明責任』を市民が理解できるようにするために、どんな情報や手続きが必要だと思いますか?理由も書いてください。
- ボトムアップの取り組みは遅く規模拡大が難しいとあります。小規模な共同作業と大規模な技術導入、それぞれの利点と課題を挙げ、どちらを重視すべきか議論してください。