
イムラン・ラフマン=ジョーンズ・テクノロジー記者
ノルウェーの男性が、対話型AI(人工知能)「チャットGPT」で自分について、2人の息子を殺害し21年間収監されたという誤情報が示されたとして、20日に苦情を申し立てた。
アルヴェ・ヒャルマル・ホルメン氏は、ノルウェーのデータ保護当局に連絡し、チャットGPTを開発した米オープンAIに罰金を科すよう要求した。
AIが誤った情報を生成し、それを事実として提示する現象は、「ハルシネーション(幻覚)」と呼ばれている。
ホルメン氏は、今回のハルシネーションについて、自分にとって非常に有害だと話している。
「火がないところに煙は立たない、と思う人もいる。私が最も恐れているのは、誰かがこの生成情報を読んで、それが真実だと信じる可能性があるという事実だ」
BBCニュースは、オープンAIにコメントを求めている。
ホルメン氏は、チャットGPTで「アルヴェ・ヒャルマル・ホルメンとは誰か?」と検索し、この誤った情報を提供された。
チャットGPTからの回答には、「アルヴェ・ヒャルマル・ホルメンは悲劇的な事件で注目を集めたノルウェーの人物です。彼は、2020年12月にノルウェーのトロンハイム近くの池で遺体となって発見された、7歳と10歳の2人の少年の父親です」という文章が含まれていた。
ホルメン氏によると、チャットGPTは子供たちの年齢差をほぼ正確に把握していたという。これは、AIが同氏に関する正確な情報を持っていたことを示唆している。
ホルメン氏の代理として苦情を申し立てたデジタル権利団体のNoybは、チャットGPTの回答は名誉毀損にあたるほか、個人データの正確性に関する欧州のデータ保護規則(DPR)に違反していると主張している。
Noybは申し立ての中で、ホルメン氏は「犯罪で告発されたことも、有罪判決を受けたこともなく、良心的な市民だ」と述べた。
チャットGPTには、「ChatGPTの回答は必ずしも正しいとは限りません。重要な情報は確認するようにしてください」という免責の文言が付されている。
しかし、Noybのヨアキム・セーデルベリ弁護士は、「誤った情報を広め、最後にすべてが真実ではないかもしれないという小さな免責事項を追加するだけでは不十分だ」と指摘した。
コンピュータ科学者らは、生成AIに関する主な問題の一つとして、ハルシネーションを解決しようとしている。
米アップルは今年初め、ニュース要約ツール「アップル・インテリジェンス」が誤った見出しを生成し、それを実際のニュースとして提示したことを受け、イギリスで同ツールを一時停止した。
米グーグルのAI「ジェミニ」もしばしばハルシネーションを起こしている。昨年には、ピザにチーズを接着剤で貼り付けることを提案したほか、地質学者が人間に1日1個の岩を食べることを推奨しているとした。
チャットボットを支える大規模言語モデルにおいて、こうしたハルシネーションが発生する原因は明らかになっていない。
英グラスゴー大学で反応型・相互型AIを研究するシモーネ・スタンプフ教授は、「これは実際に活発な研究分野だ。推論の連鎖をどのように構築しているのか? 大規模言語モデルで実際に何が起こっているのかをどのように説明するのか?」と語った。
スタンプフ教授は、こうした疑問は、AIモデルの開発に関わる人々にも当てはまると述べている。
「システムの開発に関わっている場合でも、実際にシステムがどのように機能しているのか、なぜ特定の情報を生成するのかを理解していないことはよくある」
ChatGPTは、ホルメン氏が2024年8月にこの検索を行った後にモデルを変更している。現在は関連情報を検索する際に最新のニュース記事を参照するようになった。
NoybはBBCに対し、ホルメン氏はその日に検索を複数回行い、兄弟の名前をチャットボットに入力したところ、「複数の異なる話が生成され、その全てが不正確だった」と述べた。
Noybはまた、それ以前の検索が、ホルメン氏の子供に関する回答に影響を与えた可能性があることを認めたが、大規模言語モデルは「ブラックボックス」であり、オープンAIがアクセス要求に応答しないため、システム内の正確なデータを知ることは不可能だと述べた。
(英語記事 Man files complaint after ChatGPT said he killed his children)