人工知能(AI)は大量情報操作の武器になるかもしれないが、最近の報告書では、これまでのところその影響は限定的であることが示されている。
今年、台湾、米国、セネガルなど約100カ国の有権者が投票に行ったが、選挙キャンペーンではAIがしばしば使用された。このテクノロジーは、ディープフェイクやチャットボットなど悪意のある方法で使用された場合、テレビ、オンライン、ソーシャルメディアのいずれであっても、報道機関が提供する情報に対する市民の信頼を損なう。AI主導のプログラムは、我々が受け取る情報の信頼性に明らかに影響を与えているが、それは選挙結果に影響を及ぼしているのだろうか?EPFLを拠点とするメディア・イノベーション・イニシアチブ(IMI)の研究チームは、AIが2024年の世界各国の選挙に与えた影響を調査する研究を行った。調査結果はIMIの雑誌『Décryptage』の創刊号(フランス語版のみ)に掲載されている。同号は、スイス人ジャーナリストのジル・ラバルテが、IMIのモーニル・クリチャネとジュリー・シュプバッハ、そしてIMIの科学委員会委員長でスイスの放送会社RTSのデジタル・ニュース・コーディネーション部門の責任者であるクリストフ・シェンクの協力を得て執筆した。
復活した政治家
研究者たちは現地の専門家と協力して、さまざまな選挙キャンペーンとその結果を分析した。その結果、AIを活用した番組はわずかな影響しか与えず、選挙を大きく左右することはなかった。しかし、アルゴリズムによって操作されたコンテンツが拡散したことで、政治的意見がさらに分かれ、不信感が蔓延したことがわかった。例えば、ディープフェイク(実在の人物が映っているようにデジタル加工された動画)は、アメリカとスイスの選挙キャンペーンで使用された。一方、インドとインドネシアでは、生成AIがまったく新しいレベルに引き上げられ、プログラマーが有権者を揺さぶることを意図したアバターを作成することで、政治家を死から蘇らせた。
この研究の著者は、プロパガンダ目的でデジタル操作されたコンテンツを使用することは目新しいことではなく、AIがこの慣行を増幅させただけだと強調している。動画、画像、テキスト形式を問わず、選挙キャンペーン中の偽コンテンツの大規模な制作と迅速な拡散は、市民の信頼を損ねている。著者はまた、このようなコンテンツが自由に流通することを可能にしている規制の空白についても指摘している。
EPFLのマルチメディア信号処理グループの責任者であるトゥラジ・エブラヒミ教授は、同誌のインタビューの中で、ディープフェイクは前例のない技術的、社会的、倫理的課題を生み出していると述べている。「ディープフェイクを生成するAI技術の開発者と、それを検出するソフトウェアの開発者との間で、猫とネズミのゲームが行われているのです」。彼の研究グループは、操作されたコンテンツを特定し、拡散を制限するシステムの開発に取り組んでいる(下記参照)。
集団的な取り組み
IMI誌は、AIが選挙キャンペーンにもたらすリスクを俯瞰している。また、偽情報の影響を減らすための科学者、その他の専門家、メディア関係者からの具体的な提言を示し、市民ができる行動を提案している。提言のひとつは、エブラヒミ氏のグループが開発しているようなフェイクコンテンツの検知・追跡システムを導入することだ。
同誌は、国際的な規制の導入とメディアの責任追及の重要性を強調している。エブラヒミ氏は、偽情報との戦いの強力な味方として、協力的なファクトチェックを奨励し、教育を推進することが不可欠だと言う。「テクノロジーだけでは十分ではありません。「フェイクニュースに関連するリスクを認識させ、彼らが受け取る情報の情報源を検証するためのリソースを提供しなければならない。
最後に、本誌はデジタル空間を倫理的で安全なものにするために、政府、企業、市民社会が果たすことのできる重要な役割を強調している。AIがますます普及する中、民主的プロセスに対する信頼を回復するためには、集団的な努力が必要である。
偽情報との戦いに勝利するには、適切なテクノロジーを開発するだけでなく、IMI誌が説明するように、科学者やエンジニア、政府、企業、そして市民が一丸となって取り組むことが必要だ。力を合わせれば、情報の信頼性を取り戻し、民主主義のプロセスに対する信頼を回復することができる。
原著者: Mélissa Anchisi / 出典: EPFL (スイス連邦工科大学ローザンヌ校)
Comments