今でこそ、大変有名になった「対話型AI」サービスの「ChatGPT」だが、実用化されてまだ1年も経過していない。最初のパブリック・リリースは、2022年11月30日であり、それから1カ月経過した23年の1月末には、かなり広範な社会現象になっていた。
そんな中で、2月13日には「初期リリース」から「安定的リリース」にフェーズが進み、その後は、有料の「PLUS」を経て、3月には同じく有料の「GPT4」が公開されている。無料版も「GPT3.5」となった現在はかなり運用に安定が見られる。
このChatGPTは、インターネットの公開情報を大量に収集して統計処理を行うことで、必要な情報を生成する仕組みである。従って、データの量が増えることで正確性が増してゆく。
日本語の場合は、当初は事実関係を聞いても誤った出力しか得られない時期が続いたし、現在もまだまだ十分ではない。けれども、英語の場合は開発段階より巨大なデータ量を処理してきたことから、初期から相当程度の実用性を誇っていた。
突如、AIの利用が万人のものとなった米国では、社会に大きな混乱が生じている。まず問題となったのは、教育現場における不正利用で、実用化直後の段階からニューヨーク(NY)の教育委員会では中高生が宿題の答案に「AIの出力結果を丸写し」することを禁じ、学校貸与のコンピュータからChatGPTへの接続を遮断したことで話題になった。
模索の続く教育現場とは別に、より深刻な問題意識を持っているのはビジネスの現場だ。既に調査や文書作成の業務では、相当な比率でAIがツールとして使われているのは間違いないが、そんな中でいま議論されているのは「3段階の脅威」という問題だ。
思わぬ間違いを呼ぶことも
第一段階は、AIによる誤情報の生成という問題だ。AIの導入を急ぐ中で、管理者に十分なスキルがないまま、生成された情報を「実用」に供してしまうと大変なことになる。例えば、偶然に参照した文書を統計的に処理したところ、ヒトラーを好人物のように描く文章が生成されるとか、エリザベス女王の暗殺計画を正しいことのように生成した文章が出力されるなどの現象が報告されている。
現在は、AIの実用化が進んでいる英語圏でも、出力された文章をそのままノーチェックで実用に供する例はないと思われる。また、法務系であれば法律に関する文章表現や語彙に特化したデータベースを使用することで、間違いを減らすことはできるだろう。だが、このままの勢いでAIが職場の文書作成を担うようになり、便利さに甘えて、人間によるチェックを省略してゆくようだと、思わぬ間違いが起きる可能性が指摘されている。