ビジネスには男性を、家族には女性を関連づける生成AI
さらに差別的な社会構造の再生産についても懸念されています。AI倫理における公平性の問題です。生成AIは、補正しなければ、これまでのデータを読み込んで確率の高いコンテンツを生成します。
たとえば生成AIは「確率論的オウム」(*2)です。大学教授や社長は男性が圧倒的に多いため、生成AIに小説を作らせると、登場する大学教授や社長が男性に設定されてしまいます。
ユネスコの調査でも大規模言語モデルは、ビジネスには男性を、家族には女性を関連づけたり、ゲイに否定的であったり、ステレオタイプを助長するコンテンツを生成することが示されています(*3)。
この問題に対処するため、補正をかける生成AI(たとえばAdobe Firefly)も開発されていますが、すべてではありません。このほか、仕事への影響も憂慮されています。
生成AIは、AIエージェント(本連載の第5回を参照)にも組み込まれます。私たちは、言葉によってAIエージェントにいろいろな指示を出していくことになるでしょう。深津貴之 (*4) がいうようにOSのようになっていくかもしれません。
その場合、ロックイン──別のサービスに簡単に変われないこと──されてしまうことも生じるでしょう。いま使っているAIエージェントに自分のデータが大量に入力されており自分に最適化されているならば、またこれまでのデータを簡単に移行できないならば、他のAIエージェントに簡単に変えられなくなります。
他の人や組織も使っているので、あるいはAPIの都合上、自分だけ変えることができなかったりすることもあるでしょう。そのためAIエージェントの利用料が急に上がっても、対応しきれないといったことも想定されます。
*2 Bender, E. M., T. Gebru, A. McMillan-Major, and S. Shmitchell (2021) “On the Dangers of Stochastic Parrots” FAccT '21: Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, March 2021, 610–623(accessed 2024-05-31)
*3 UNESCO, IRCAI (2024) “Challenging systematic prejudices”(accessed 2024-05-31)
*4 深津貴之(2023)「オペレーティング・システムから、オペレーティング・エージェントへ」(2024年5月31日アクセス)