私たちは生成AI技術を通して、知らず知らずのうちに大規模な搾取に加担してしまっているのでしょうか。また、これからの社会で求められる倫理とはどのようなものなのでしょうか。本コラムでは生成AIが抱える問題点に触れながら、これからの社会に必要な「倫理的創造性」について迫ります。
*本記事は青山学院大学准教授の河島茂生氏の著書『生成AI社会 無秩序な創造性から倫理的創造性へ』(ウェッジ)の一部を抜粋・編集したものです。
連載一覧はこちらから
ほかの技術と同じく、生成AIも倫理的問題を引き起こしてきました。
ChatGPTを開発・運営しているOpenAIは、リスクやセキュリティ、安全性、経済、法、教育、健康、核リスク、公平性、誤情報・偽情報の専門家50人以上の協力を得て、有害なコンテンツの生成やハルシネーション (幻覚、つまりデタラメを出力すること) などについて議論して、リスクを抑えようとしています(*1)。
OpenAIにかぎらず、最近のテクニカル・レポートは、内容のほとんどがAIガバナンスの話になっており、生成AIの社会的影響の大きさやガバナンスの難しさがうかがえます。
いろいろな懸念があります。たとえば、生成AIに個人情報(特に要配慮個人情報および未成年の個人情報)や企業の社外秘の情報を入力すると、学習データに利用されたり誤って別の人に出力されたりする危険性があります。
他社と秘密保持契約を結んだ内容を生成AIに入力してしまうと、契約違反になってしまいますので、入力する場合は他社や生成AI開発企業との間で契約し直したり、新たに契約したりすることが必要になります。
ほかの技術でも同様に、機密情報は厳格に扱うべきなのですが、特に生成AIの場合は高い機密性のある情報を外部に「送信」しているという感覚をもちにくいため、より一層気をつける必要があります。
また、GDPR(General Data Protection Regulation:EU一般データ保護規則)で定められた消去する権利(忘れられる権利)のように、求めに応じて生成AIの学習データから指定のデータを削除してもらえるかについても心配する声があります。
*1 OpenAI (2023) “GPT-4 Technical Report”(accessed 2024-05-31)