私たちは生成AI技術を通して、知らず知らずのうちに大規模な搾取に加担してしまっているのでしょうか。また、これからの社会で求められる倫理とはどのようなものなのでしょうか。本コラムでは生成AIが抱える問題点に触れながら、これからの社会に必要な「倫理的創造性」について迫ります。
*本記事は青山学院大学准教授の河島茂生氏の著書『生成AI社会 無秩序な創造性から倫理的創造性へ』(ウェッジ)の一部を抜粋・編集したものです。連載一覧はこちらから
情報倫理のなかでも、2010年代以降はAIの高度化と普及の勢いがすさまじく、AI倫理が強く求められるようになってきました。
AI倫理とは、一言でいうとAIが普及した社会の秩序を考えていくということです。どのようにしたらよい社会、よいビジネス、よい暮らしにつながるのか、そうしたことをともに追求するプロセスともいえます。
これまでのコンピュータ・プログラミングが演繹的にルールをすべて書いて作られていたのに対して、2010年代以降のAIは、データをもとに帰納的に対象の特徴量を抽出して動きます。
これによりソフトウェアの作り方が大きく変わりました。ソフトウェア1.0からソフトウェア2.0になったといわれ、新しいソフトウェア工学(機械学習工学、AIソフトウェア工学)が構築されてきています。
従来のソフトウェアでは扱えなかった対象でも扱えるようになった反面、きわめて制御が難しく、制御し続けるには膨大な労力を割かなければなりません。技術的な解決策だけでなく、AI倫理を含めた社会―技術的アプローチが求められています。
いかにして人や社会にとってよい方向になるようにAIを作っていくべきか、運営していくべきか。これに対して、各種ガイドラインや報告書、提言がつくられてきました。
AIの社会的な影響がかなり深いところまで、そして広範囲に及ぶため、世界でみると数百ものAIガイドライン・報告書・提言が出ています。欧州評議会によってAI条約も策定されました。
これだけの数のAIガイドライン等が出ているので、比較検討も行われており、どのような項目を重要視するかについてはガイドライン間で違いがあります。
とはいえ、国際的に大事だといわれていることはかなり共通しています。人類全体の幸福の増進、人間中心、人権尊重、個人の尊厳・自律、公平性、正確性、透明性、アカウンタビリティ、プライバシー保護、安全性、持続可能性などです。