2024年12月22日(日)

生成AI社会

2024年10月18日

AI自体のブラックボックス化

 正確性も大きなポイントです。AIは統計的確率にもとづいて出力しますので、必ずしも正しいとはかぎりません。

 新型コロナウイルスの接種券にあった数字の識別でも、誤認識(たとえば5を3と認識)から10万件ほどの誤りが出ました(*2)。確認が必要なデータも400万件以上にのぼりました。

 数字の自動認識は、かなり安定性があって普及した技術です。しかし、それでも誤りがゼロにはなることはありません。

 正確性は、AIの品質の問題ではありますが、それは倫理にも関わることがあります。

 公平性と関連する例でいうと、2015年にアフリカ系の人が写った写真をAIがゴリラとラベルづけしてしまう事件が起きました。AIの顔識別技術では、アフリカ系やアジア系の人たちの識別の正確性が低いことが複数の調査で指摘されています。

 AIは、機械なので正確であるというイメージがあるかもしれませんが、そのようなことはありません。

 前に挙げた再犯の確率を計算するソフトウェアは、6割ほどしか正しく予測していませんでした。驚きの低さです。このほか、AIに学習させるデータの正確性の問題もあります。

 透明性についてもよく話題になります。AIは、単純なルールを組みあわせたプログラムではありません。そのため、AI自体がブラックボックスとなっており透明性が低いといえます。

 AIの中身がわかるような技術も開発されていますが、単純なモデルに似せて説明することとなり限界が指摘されています。データやAIの中身をすべて公開するのもプライバシーや営業秘密のことを考えると困難です。

 ただしAIの中身をわかりやすくすべて説明するのは難しくとも、AIを使っているかどうか、どのようなデータを読み込んでいるか、AIの出力結果をどのように利用しているかなどは、できるかぎり説明するべきでしょう。

 特に人事等、人の人生を左右する場面でAIを使う場合、透明性は強く要請されます。

 アカウンタビリティは、日本語ではよく説明責任と訳されますが、この本ではカタカナ表記のままにしています。説明責任というと、説明さえしておけばよいと思われてしまうからです(*3)。

 アカウンタビリティは、単に説明すればよいというものではありません。トレーサビリティを確保し、なぜそのようなデータやAIを使ったのか、運営の体制はどのようにしていたのか。そして、それがどのような根拠にもとづいていたのかをステークホルダーに説明するのにくわえて、問題が生じた際には補償したり、問い合わせの窓口を作ったりまでを含みます。あらかじめ保険に入っておいて補償に備えておくことも含まれます。

*2 中島嘉克(2021)「接種記録 大量誤データなぜ」『朝日新聞』2021年12月29日朝刊、4ページ

*3 中川裕志(2020)「AI 倫理指針の動向とパーソナル AI エージェント」『情報通信政策研究』3(2)、I-1-23

Facebookでフォロー Xでフォロー メルマガに登録
▲「Wedge ONLINE」の新着記事などをお届けしています。

新着記事

»もっと見る