致命的なことは、出典を示しながら答えるシステムになっていないことだ。医学、薬学、工学をはじめ、出典がないとチャットGPTが出した答えが正しいかどうか検証できない分野も多い。文化芸術分野においては出典を明示しても勝手に引用することはできないし、音楽分野も同様だ。
昔、高度情報化の技術革新を担う人たちはカリフォルニアのシリコン・バレーに集まった。そこでは異分野の専門家と直接対面で会話して閃きを得ることが大切だった。今でも、情報産業は多くの雇用を生んでいる。それぞれの情報システムを維持するために大勢の人間が関与している。
チャットGPTも所詮、道具である。ビジネスも学問も文化芸術も人間の感性や閃きを超える多様な感性をもたない。
必要なグローバルとローカルなルール
いずれは人間を超えてしまうという心配が必要となるかもしれないが、チャットGPTはまだその域には達しない。これを世の中の進歩にどう貢献させるかという発想が重要である。
チャットGPTは古い権威や、進化を阻害する固定観念を破壊するには役立つが、暴走を避けるルールはつくらなければならない。日本はチャットGPTをコントロールするための国際協議を積極的にリードすべきだ。
1873年にThe Intellectual Life『知的生活』(訳は渡部昇一・下谷和幸、講談社)を書いたフィリップ・ギルバート・ハマトンは、「知識や技術の収得はある水準を超えてはじめて役に立つ。中途半端では意味がない」と断じた。チャットGPTもまだ高度情報化の完成型ではない。
質問や検証はその都度、利用者が行う。著作権や人権尊重、ニセ情報の流布等についてもリスクが大きい。だからこそ国際的なルールづくりの議論が大切だ。
同時に会社や官公庁それぞれが的確なチャットGPT利用のローカルルールをつくることも必要だ。チャットGPTに質問することによって内部情報が流出するような事態もありうるからだ。