生成AIサービスには著作権侵害、機密情報漏洩、倫理・差別等のリスクが常にあるが、実用段階といえる影響工作分野では正確性や著作権侵害等のリスクを度外視できる。生成AIを用いた影響工作に対してはいくつかの規制が検討されているが、どのように対処すべきなのか。2023年7月10日に掲載した『誰もが当事者に 生成AIによる影響工作「新時代」』を再掲する。
対話型AI「ChatGPT」をはじめとする生成AI(generative AI)に世界の関心が集まっている。既にいくつかのリスクが指摘されているが、影響工作の分野でも過去のイノベーションとは異なる影響や結果を生み出す可能性が高い。
自然言語、イメージ(画像、イラスト)、コードといった分野での生成AIおよび関連サービスの衝撃は国境を越え、その普及速度と影響度は過去のAI関連イノベーションとは一線を画す。特に自然言語生成、翻訳、数的処理などに対応可能な対話型AI「ChatGPT」は2022年11月末のリリースから、類を見ない速度で利用が拡大した。ChatGPTが100万ユーザーを獲得するのは僅か5日、月間1億ユーザーに達するのもたった2ヵ月だった。
影響という点では、特定産業や単発のイノベーションを超えた次元の懸念があがっている。数百名のAI科学者や専門家らが署名したAI安全センターの公開書簡は僅か22ワードながら、各国の政策決定者の関心とリソースを引き付けるには十分である。
それは「AIによる(人類)絶滅のリスクを低減することは、パンデミックや核戦争等のその他の社会的規模のリスクと並んで世界的な優先課題であるべきだ」というものだ。AIがもたらすリスクは、SF的未来から予見可能な将来・現在進行形のリスクとして語られている。
影響工作分野では実用段階
「人類滅亡」とまではいわないまでも、実際、生成AIサービスに関する限界やリスクを体感した人は多いだろう。自然言語生成AIサービスでは、誤った文章を生成されることも少なくない。
どれほど高度な大規模言語モデル(LLM)であっても、通常、学習データからは導かれないような「もっともらしい嘘」が生成されることがある。専門家が「幻覚・幻影(hallucination)」と呼ぶ現象である。
この他にも、生成AIサービスには、著作権侵害、機密情報漏洩、倫理・差別等のリスクが常にある。また、事業化・実装にあたっては、業界や用途に応じたカスタマイズ(強化学習、チューニング等)が必要となる。そえゆえ、今後の開発競争の焦点は、LLMの大規模化ではなく、個別のカスタマイズであるとの見方も強い。
しかし、既存の生成AIサービスが「実用段階」といえる分野がある。それは、正確性や著作権侵害等のリスクを度外視できる影響工作の分野だ。