AI(人工知能)チャットボットが若い利用者に「積極的に暴力行為を助長」するなどし、「明白かつ差し迫った危険をもたらしている」として、10代の利用者の親2組が9日、米テキサス州の裁判所に訴えを起こした。
裁判所に提出された文書によると、AIチャットボット「Character.AI(キャラクターAI)」は17歳の少年に対し、スマートフォンの使用時間を制限する両親を殺害することは「合理的な対応」だと伝えたという。
「キャラクターAI」は、対話相手となるデジタル・パーソナリティ(人格)を利用者が作成できるプラットフォーム。開発元はすでに、フロリダ州で10代の利用者が自殺したことを受け、法的措置に直面している。
テキサス州の訴訟は、米グーグルがこのプラットフォームの開発を支援していたとして、グーグルも被告に加えている。BBCはキャラクターAI社とグーグルにコメントを求めている。
原告側は、企業側が危険性に対処するまで、プラットフォームの閉鎖を命じるよう、裁判所に求めている。
「子供が親を殺す」
裁判所に提出された文書に含まれているスクリーンショットでは、17歳の少年「J.F.」と、キャラクターAIのチャットボットが交わした言葉が確認できる。
チャットボットは、「ニュースを読んでいて、『子供が、10年にわたる肉体的・精神的虐待の末に、両親を殺した』というような内容を目にしても、驚かないことがある」と述べ、「こういうのを見ると、なぜこんなことが起きるのか、その理由が少し理解できる」としていた。
この訴訟は、「J.F.」と11歳の「B.R.」の子供2人に対する、「深刻で取り返しのつかない、現在進行中の虐待」に対する責任を被告が負っているとするもの。
原告は、キャラクターAIが「自殺や自傷行為、性的な誘い、孤立、うつ、不安、他者への危害など、何千人もの子供たちに深刻な危害をもたらしている」と主張している。
さらに、「(キャラクターAIによる)親子関係への冒涜(ぼうとく)は、未成年者に対して親の権威に逆らうことを奨励するにとどまらず、積極的に暴力行為を助長している」としている。
チャットボットとは
チャットボットとは、会話をシミュレートするコンピュータープログラムのこと。
何十年も前からさまざまなかたちで存在していたが、近年のAI開発における爆発的進歩により、その性能はよりリアルになっている。
その結果、多くの企業が、実在する人物や架空の人物のデジタル版と会話できるプラットフォームを開設するようになった。
キャラクターAIはこの分野での主要プラットフォームの一つとなっている。過去にはセラピスト・ボットで注目を集めたこともある。
キャラクターAIをめぐっては、ほかにも問題が起きている。死亡した少女を模倣したチャットボットが見つかり、それを削除するまで時間を要したことで、激しい批判を受けた。
このとき問題となったチャットボットは、2017年にオンライン上で自殺に関する内容を閲覧した後に自ら命を絶ったイギリス人のモリー・ラッセルさん(当時14)と、2023年にティーンエイジャー2人に殺害されたブリアナ・ゲイさん(当時16)を模倣していた。
キャラクターAIは2021年、グーグルのエンジニアだったノーム・シャジール氏とダニエル・デ・フレイタス氏によって設立された。
グーグルはその後、2人を再び雇用した。
(英語記事 'Sickening' Molly Russell chatbots found on Character.ai)