第一の問題としては、AIが提示する結論については、それに至るプロセスの説明は、多くの場合言及がなく、判断の根拠となる情報も開示されず、利用する側は検証する機会を持たずにただ信用することを求められる。
第二に、AI を利用して得た結論の正否に関しては、たとえそれが間違っていたとしても、AI サービスを提供した側は何ら賠償を求められず、その提供した情報についての責任を負うことはない。提供される情報に依拠して利用者がとる行為が誤った場合でも、その責めは利用者自身が引き受けなければならないようだ。
そして第三に、そうした曖昧さに甘んじる社会に人々が次第に慣れていくにつれ、社会の規律が徐々に緩んでいかないかの懸念がある。
日本がすぐにでも開発すべき分野
上記の論文は、人工知能の活用を巡る国家安全保障の観点からの問題点を鋭く指摘している。AIを活用する数多の利点の中で、また既にその便益を安全保障の組織の多くが活用している現状に鑑み、背景に潜在する目に見えない深刻な危険に、この小論は切り込んでいる。
「認知戦」、「超限戦」という古くから存在する戦闘方法が現代のコミュニケーション手段の等比級数的拡大の波に乗って、その効用を急速に高めている昨今、そのために AI を無防備に活用しようとする勢いに警告を与えるこの論評は極めて時宜にあった指摘である。
その危険を認識すれば、日本は独自の人工頭脳のシステムを開発し、応用できるようにする技術開発と、それを実用化できる電力をはじめとするインフラの整備を迅速に進める政策は、経済安全保障の強化政策の重要な柱として急がれるべきであろう。
