2024年12月7日(土)

生成AI社会

2024年10月21日

有害コンテンツのラベルづけに伴う精神的負担

 このような有害なコンテンツを生成しないための対策は、技術だけではなく人が介在することによって、AIを社会に受け入れられるようにしていくアプローチです。

 こうしたアプローチは、一見するとよいことばかりのように思えます。けれども有害なコンテンツを排除するために、大きな犠牲が払われていたこともあります。

 『TIME』紙の報道によるとOpenAIは、有害なコンテンツのラベルづけをケニアの労働者に時給2ドル未満で行わせていました (*5)。

 大規模言語モデルの構築には大量のデータが必要であり、そのデータはインターネットから集めてきています。いうまでもなくインターネット上には、暴力・性差別・人種差別などの有害な表現が多くありますので、それらの表現を生成AIが出力しないようにしなければなりません。

 AIが有害なコンテンツを出力しないようにするためには、あらかじめ人によってラベルづけされたトレーニングデータが必要です。このトレーニングデータを作るために動員されたのが、ケニアの労働者でした。

 実際にはOpenAIが直接雇用したわけではなく、アウトソーシング先であるデータラベリング企業のSamaがケニアの労働者を雇っていました(*6)。AI開発のサプライチェーンが途上国にまで及んでいました。

 OpenAIは、Samaに時給12.50ドルを支払う契約を結んでいましたが、その金額にはインフラの費用やチームリーダの給与も含まれており、実際に有害データのラベルづけを行った労働者にはきわめて安い賃金しか支払われないようになっていました。

 有害コンテンツのラベルづけは時給が安かっただけではありません。児童への性的虐待、獣姦、殺人、自殺、拷問、自傷行為、近親相姦、ヘイトスピーチなどのコンテンツを実際に内容確認してラベルづけしなければなりません。

 そのため労働者は、精神的な傷を負ってしまいました。有害コンテンツのラベルづけの過酷さは、映画『見知らぬ人の痛み』(天野大地監督)で取り上げられています(*7)。

 なお私自身も似たような経験をしたことがあります。一時期、ネット炎上の研究をしたことがありました。コンピュータを使ってテキストマイニングを行ったとしても、実際の書き込みを自分で読んで、分析結果がおかしくないかを確認しなくてはなりません。

 そのため、膨大な量の罵詈雑言や誹謗中傷、個人の吊し上げを読むことになりました。相手を暴力的に傷つけるためだけの言葉や吐き捨てられた言葉があまりにも多く、私自身の心も落ち込み、負の感情に飲み込まれそうになり、ネット炎上の研究をやめてしまいました。

 私がみたのはテキストだけですが、いまの有害コンテンツをみつける作業は、凄惨な写真や動画を数多くみることになっているでしょう。その精神的ダメージは、私よりもはるかに大きいに違いありません。

 このように大きな犠牲を払いつつも、有害コンテンツの抑え込みが完全ではないことにも目を向けておくべきです。有害コンテンツのフィルタリングをかわすための闇プロンプトも次々と編み出されています。また、そもそも悪用するために開発された生成AIも登場しています。

*5 Perrigo, B. (2023) “OpenAI Used Kenyan Workers on Less Than $2 Per Hour to Make ChatGPT Less Toxic” TIME(accessed 2024-05-31)

*6 Samaは、Facebookのフィルタリングも担当しています。

*7 この映画のことは、メディア論・ジェンダー論の研究者である田中洋美に教えてもらいました。

Facebookでフォロー Xでフォロー メルマガに登録
▲「Wedge ONLINE」の新着記事などをお届けしています。

新着記事

»もっと見る