2023年9月24日(日)

デジタル時代の経営・安全保障学

2023年7月10日

»著者プロフィール
著者
閉じる

川口貴久 (かわぐち・たかひさ)

東京海上ディーアールビジネスリスク本部主席研究員

1985年福岡県生まれ。専門は国際政治・安全保障、リスク管理。2010年慶應義塾大学大学院政策・メディア研究科修了、08年横浜市立大学国際文化学部国際関係学科卒。最近の著作に『ネット世論操作とデジタル影響工作』(共著、原書房)、『ハックされる民主主義』(共編著、千倉書房)など多数。これまで一橋大学 大学院法学研究科 非常勤講師(2022年4~9月、2023年4~9月)、慶應義塾大学KGRI客員所員(2021年6月~2023年6月)等。

 対話型AI「ChatGPT」をはじめとする生成AI(generative AI)に世界の関心が集まっている。既にいくつかのリスクが指摘されているが、影響工作の分野でも過去のイノベーションとは異なる影響や結果を生み出す可能性が高い。

(Galeanu Mihai/gettyimages)

 自然言語、イメージ(画像、イラスト)、コードといった分野での生成AIおよび関連サービスの衝撃は国境を越え、その普及速度と影響度は過去のAI関連イノベーションとは一線を画す。特に自然言語生成、翻訳、数的処理などに対応可能な対話型AI「ChatGPT」は2022年11月末のリリースから、類を見ない速度で利用が拡大した。ChatGPTが100万ユーザーを獲得するのは僅か5日、月間1億ユーザーに達するのもたった2ヵ月だった。

 影響という点では、特定産業や単発のイノベーションを超えた次元の懸念があがっている。数百名のAI科学者や専門家らが署名したAI安全センターの公開書簡は僅か22ワードながら、各国の政策決定者の関心とリソースを引き付けるには十分である。

 それは「AIによる(人類)絶滅のリスクを低減することは、パンデミックや核戦争等のその他の社会的規模のリスクと並んで世界的な優先課題であるべきだ」というものだ。AIがもたらすリスクは、SF的未来から予見可能な将来・現在進行形のリスクとして語られている。

影響工作分野では実用段階

 「人類滅亡」とまではいわないまでも、実際、生成AIサービスに関する限界やリスクを体感した人は多いだろう。自然言語生成AIサービスでは、誤った文章を生成されることも少なくない。

 どれほど高度な大規模言語モデル(LLM)であっても、通常、学習データからは導かれないような「もっともらしい嘘」が生成されることがある。専門家が「幻覚・幻影(hallucination)」と呼ぶ現象である。

 この他にも、生成AIサービスには、著作権侵害、機密情報漏洩、倫理・差別等のリスクが常にある。また、事業化・実装にあたっては、業界や用途に応じたカスタマイズ(強化学習、チューニング等)が必要となる。そえゆえ、今後の開発競争の焦点は、LLMの大規模化ではなく、個別のカスタマイズであるとの見方も強い。

 しかし、既存の生成AIサービスが「実用段階」といえる分野がある。それは、正確性や著作権侵害等のリスクを度外視できる影響工作の分野だ。


新着記事

»もっと見る