ここで問われていることは、人間がロボットに影響を与えていると同時に、ある程度自律的に動くことができるロボットは、その判断に責任を持つ存在であるかどうかにある。ただし現状ではロボットを利用した事故などでは、メーカーなどに求められる賠償金額が通常よりも低くなる、といった対応となることが予想される。ユーザーの意志がロボット(メーカー)の判断に影響を与えたから、ということだ。ただしロボットが自律的に行うであろう領域が増えれば増えるほど、「あのロボットが悪い」と感じるユーザーが増えることも考えられる。法的問題をこえて、人間と機械の関係が変化するのはこうした人間側の認識が変化するときに生じる。
ロボットに人間性を感じる人間
筆者はロボットの法的問題の一方で、「あのロボットが悪い」といったように、我々がロボットを道徳的存在だと感じてしまう我々の認識の問題もまた、近い招来大きな問題になると感じる。
ロボットと人間が相互に影響を与え合う社会では、ロボットにある程度の自律性を認めなければ有効に機能しない。そうした社会においてロボットは、「単なるプログラム」でないと感じられるだろう。問題は哲学や倫理学の領域に属するが、少なくとも私たちがロボットを「人間的」であると感じたとき、子供がスマートスピーカーに名前をつけるような事態が現実に生じている今、ロボットと道徳、というテーマは笑い話では済まされない。ロボットがより「人間的」であると感じることがあるのだとすれば、ただちにロボットによって引き起こされた事故を人は、「機械としてのロボット」ではなく、特定のモノ言う存在、「特定の私の友人としてのロボット」の責任であるかのように感じるだろう。その時私たちはロボットを責任主体、あるいは道徳的存在と認めていることになる。
ロボットだから仕方ない、ではなく、あのロボットが行ったことが憎い(愛しい)という感覚は、ソニーのアイボを失ったときに家族が葬式を行ったことに、その感覚の萌芽が認められる。ロボットの法的責任問題は、こうした観点からも議論が行われなければならない。つまり、ロボット法の問題は、企業の責任を問うといった視点だけから捉えられるのではなく、私たちがロボットとどのような関係の中で生きていくのか、という視点からも考えられなければならないのだ。故にスマートスピーカーなどの会話を可能とする人工知能の登場は、こうした人間とコンピュータ、そしてロボットとの関係を進めるための第一歩のようにも思われる。
EUやエストニアの議論は、法学や哲学、またサイバー法など幅広い知識が必要とされるもので、安易な視点から議論することはむしろ問題を困難にしてしまう可能性がある。それは人工知能を語る際に、10年先の話か50年先の話なのか、焦点を絞らなければさらなる困難を招くのと同じことだ。その意味で本稿が後半に論じたロボットの「人間性」や「道徳性」が、どの程度先の未来に顕在化するかについては、注意しなければならない。とはいえ、我々が漠然と不安に思うロボットや人工知能の問題について、問題の輪郭を描くこともまた、今求められているように思われる。人工知能やロボットの分野は技術発達が著しい。引き続き観察と考察を続けたい。
▲「WEDGE Infinity」の新着記事などをお届けしています。