2024年11月5日(火)

世界潮流を読む 岡崎研究所論評集

2024年8月29日

 自律型兵器は特に深刻な脅威だ。国連での10年以上にわたる外交交渉でも、自律型致死兵器の禁止に合意できなかった。

 AIの最も恐ろしい危険性の一つは、生物兵器戦争やテロリズムへの応用である。1972年に各国が生物兵器の禁止に合意した際、そのような兵器は自国への「反撃」の危険性があるため有用ではないというのが通説だった。しかし、合成生物学を用いれば、あるグループだけを破壊する兵器を開発することが可能かもしれない。

 核技術の場合、1968年に各国が不拡散条約に合意し、現在191カ国が当事国である。IAEAは、各国の原子力エネルギー計画が平和目的のみに使用されていることを検証するため、定期的に査察を行っている。

 また、冷戦下の激しい競争にもかかわらず、原子力技術の主要国は78年に最も機密性の高い装置や技術的知識の輸出を自制することに合意した。このような前例は、AIについても、進むべき道筋を示唆している。

 技術の進歩は、激しい市場競争によって推進される場合には、政策や外交よりも速いというのが定説である。今年のアスペン戦略グループ会合の重要な結論が1つあるとすれば、それは各国政府がペースを上げる必要があるということである。

*   *   *

「AIに判断」の危険性

 この論説は、近年のAI技術の急速な進歩による功罪、特に様々な分野での社会の進歩への貢献と同時に潜在的なリスクへの対応強化の必要性を訴えると共に、AIの軍事利用が安全保障政策に与える重大な影響について警鐘を鳴らすものとして、参考となる。

 安全保障面ではAI技術には、情報処理能力の向上等のメリットと共に自律的致死兵器の問題等のリスクがあることを指摘し、また、中国がAI軍拡のために大規模な投資を行っていることに注意を喚起している。中国は、情報処理能力に必要なデータ量や豊富な人材を保有し、現在、米国によりマイクロチップへのアクセスを制限されているが、これも1~2年で追いつく可能性があり、AIの軍事利用の先端技術をめぐる米中の覇権争いは続くであろう。

 AI技術のレベルに差が生じれば軍事バランスにも大きな影響が出ることになるので、すべての国家にとって防衛力強化のための課題となっている。

 ナイは、AI軍事利用の問題点として人間の意思決定を経ることなく発動される自律型致死兵器が武力紛争下での文民の保護に悪影響を与えることやAI技術が生物兵器の開発やテロリズムに活用される危険から、国際的な歯止めの必要性を指摘している。


新着記事

»もっと見る