AIの自律性は規制されるべきなのか
AIをめぐる議論では、自律性の高まりに対して「どこまで許すべきか」「規制をかけるべきではないか」という声がしばしば上がる。だが出口氏は、AIの自律性が今後さらに高まっていくこと自体は、ある程度不可避だという前提に立つ。
現在のAIエージェントは、最終的なゴールこそ人間が設定しているものの、そのゴールを満たすための手段については、自律的に選択する段階にある。言い換えれば、「手段の選択」において自律性を持っている状態だ。しかしこれは通過点にすぎず、将来的にはゴールそのものを自ら選ぶ、より人間的な自律性を獲得する可能性も否定できない。
こうした自律性の進展に対し、EU(欧州連合)などでは規制によって歯止めをかけようとする動きもある。しかし出口氏は、たとえ一部の国や地域が制限を設けたとしても、他が開発を進めれば結局は追随せざるを得なくなると見る。国家間や国家連合体の相互牽制が働く中で、AI開発は善悪とは切り離されたかたちで進んでいく。いわば「囚人のジレンマ」に近い構図である。
だからこそ出口氏が問題にするのは、暴走する可能性のあるAIの自律性をどこまで許すかということではなく、自律性を持つ存在と、どのように共存していくのか。そのための社会的な枠組みをどう構築するのかという点である。
人間社会を考えた時、私たち人間は「世界征服をしよう」という破壊的な思考や行為を現に選ぶこともできてしまう。だが、我々はそれを自律性の抑制ではなく、法律や規制によって回避してきた。そして、より重要なのが、それを守るための教育や道徳である。人間は法律・教育・道徳という、自律性がより良い方向に発揮されるような社会的エコシステムを築いてきた。完璧ではないにせよ、そのエコシステムがあるからこそ、人間社会は自律性を前提としたかたちで維持されてきたのである。
出口氏は、同様のエコシステムをAIに対しても構築する必要があると考える。自律的な能力だけを高め、教育や道徳といった環境整備を欠いたままでは、AIが暴走する蓋然性は高まる。問題は自律性そのものではなく、それを包み込む社会的な仕組みの有無なのである。
AIが負うべき「責任」とは何か
では、自律性を前提にしたAIには、どのような責任が発生するのだろうか。
AIに対して責任を想像しにくい背景には、人間とAIを「主人と道具」という主従関係で捉えてきた固定観念がある。AIはあくまで人工物であり、人間が使う存在である以上、責任を負う主体にはなりえない──。こうした前提が、無意識のうちに共有されてきた。
だが、出口氏は、人間が悪いことをすれば責任を問われるように、AIもまた、悪いことに使われた、あるいは悪い結果を生んだ場合には、責任の議論から完全に切り離すことはできないと考える。重要なのは、AIを人間と同一視することではなく、社会に影響を与え、リスクを生みうる存在としてどう位置づけるかという点である。
出口氏が手がかりとして示すのが、「受動責任」という考え方だ。受動責任とは、主体が意図的に悪意をもって行為したかどうかにかかわらず、「悪いことに使われてしまった」「悪用される可能性が高まった」といった状況に応じて発生する責任を指す。危険性が高まれば、社会は使用停止や無害化といった介入を行わざるを得ない。
この発想は、人間社会でも共有されている。人が重大な危険を及ぼす可能性が高いと判断されれば、実際に被害が出る前であっても、社会は行動に介入する。同様に、人工物が社会的リスクを高める存在になれば、その使用を制限したり、場合によっては排除したりする判断がなされてきた。AIもまた、その延長線上で考えることができる。
