2024年11月22日(金)

デジタル時代の経営・安全保障学

2024年7月17日

 広告配信等では既に、オンライン上での個人の行動・操作履歴に基づく「マイクロターゲティング」が行われているが、これは影響工作にも波及する可能性がある。自然言語生成AIによって、1対1のコミュニケーションで影響工作が展開されるとすれば、LINEといった本来、「クローズド」な空間がさらに浸透される恐れがある。

 既に、ChatGPTには多くのプラグイン(拡張機能)が実装されている。簡単にいえば、ChatGPTが他のアプリケーションを利用できるということだ。多くのコミュニケーションアプリのプラグインが実装されれば、生成AIによる影響工作はより容易になるかもしれない。

生成AI影響工作にどう対応するか

 生成AIを用いた影響工作にどのように対処すべきか。

 一つの考え方は、AI影響工作の「キルチェーン対策」と呼ばれるものだ。OpenAIの最高経営責任者(CEO)サム・アルトマン(Samuel Altman)は米上院公聴会で、「コンテンツの生成は、ディスインフォメーションのライフサイクルのごく一部でしかない」ため、コンテンツの生成、流通・拡散、市民の受容といった各段階での重層的な対策が必要だと主張した。

 アルトマンが公聴会で言及し、ジョージタウン大学、スタンフォード大学、OpenAIの研究者らによる研究「生成言語モデルと自動化された影響工作」は4段階での各種対策を提唱する。それは、①言語モデルのデザインと構築、②言語モデルへのアクセス、③生成コンテンツの拡散、④影響を受けやすい聴衆、の各段階における介入等だ。

 各国の(生成)AI規制もこうした枠組みで理解することができる。例えば、欧州議会で6月14日に可決された生成AI規制(EU AI法案)は、AIがもたらすリスク(許容できないリスク、高リスク、限定的リスク、最小リスク)に応じてルールを整備する。EU AI法案は違法なコンテンツを生成するモデル構築を禁じ、AIによって生成されたコンテンツの明示を求めている。

 これとは異なる、「北京」式アプローチもある。4月11日に公開された中国の規制草案「生成AIサービス管理弁法」(スタンフォード大学英訳)である。規制草案によれば、生成 AI の使用を通じて生成されるコンテンツは、社会主義の核心的価値観を反映するものとし、国家転覆、分離主義やテロの教唆するもの、虚偽情報は認められない(第4条)。

 EU AI法案と同様に、中国の生成AI規制も生成コンテンツであることを明示するように義務付ける(19条)。最も重要な点は、生成AIサービスの提供者(API提供者やテキスト・画像・音声生成の補助サービスを含む)は、生成されたコンテンツの制作者としての責任を負う(5条)、としていることだ。

 この他、さまざまなステークホルダーがAI開発・利用に関する規範形成・ルールづくりに取り組む。G7広島サミットで合意された「広島AIプロセス」もその一つだ。

 生成AIを用いた影響工作への対処に決定打はない。影響工作全般への対策と同様に、万能薬もなければ、ゼロリスクもあり得ない。加えて、生成AI関連のイノベーションの速さは、長く議論され、慎重に練られた対策を一瞬で無用の長物にするかもしれない。

 この原稿も1ヵ月後、もしかすると1週間後には読むに堪えないものになるかもしれない。それでも生成AIがもたらすリスク、影響工作とその対応を考え続けなければいけない。

***

本稿に執筆にあたり、生成AIの技術的側面、特にLLMやTransformer技術については、小野崎純人氏より貴重なコメントを頂戴した。

ChatGPTをはじめとした生成AIに関する記事をまとめた「特集:ChatGPTと日本」の記事はこちら
Facebookでフォロー Xでフォロー メルマガに登録
▲「Wedge ONLINE」の新着記事などをお届けしています。

新着記事

»もっと見る