人工知能が就職試験の面接を?
ここでひとつ、より身近なアルゴリズムの問題を考えたい。近年、企業の採用人事に人工知能を用いたサービスが生まれ、実際に利用する企業も現れている。就職面接では、人間の面接官よりも人工知能の方が公平性を担保できるというメリットがある。
確かに人間よりもアルゴリズムに任せた方が、面接官の体調や機嫌に左右されなくて良い。また学歴といった経歴の他、やる気や人柄まで評価の対象であれば、総合的にその人が判断されることとなり、企業にとってもメリットを生むかもしれない。
その一方、アルゴリズムに偏見が混じっているとすれば、すべての就活生に影響を及ぼしてしまう。あるいはアルゴリズムでは検知し切れない、人間が対面した時に感じる何かがあったとしても、それらが考慮されないとするならば、公平である代わりに点数がより一層重要視され、就職のマニュアル化が加速する懸念もある(もちろん、そのような点も考慮したアルゴリズムが生じる可能性もある)。
またある調査では、面接を人工知能に判定されるのは嫌だと答えた就活生は7割近くに及んだ。調査した企業は、落選時の納得感が違うというのが否定の理由と推察しているが、アルゴリズムがデータやそれを扱う人間の影響を受ける以上、アルゴリズムによって判断される事象はどこまでが適切なのかについては、公平性とともに、人間の身体的感覚との関係においても論じられるべき問題である。
アルゴリズムの「透明化」は可能か
ここまでアルゴリズムの問題を論じてきたが、行政レベルで対応を検討している例もある。2017年12月、ニューヨーク市議会は差別的なアルゴリズムの使用を禁止するアメリカ初の条例を可決した。アルゴリズムによって差別的な扱いを受ける恐れがある場合、市がアルゴリズムを調査し、世間に報告するような方法を模索しているという。
この条例を実際にどのように実施するか、その詳しい規定はまだない。とはいえ、様々な人種や職業の人々が住むニューヨーク市がアルゴリズムの危険性を理解し、かつアルゴリズムを適切に利用することを求める背景には、それだけアルゴリズムの偏見が人々に重大な影響を及ぼすことを見越しているからだ。
アルゴリズムによって評価される社会は、人間による評価よりも適切なのか。アルゴリズムによる評価はあらゆる意味において「点数化」であり、その仕組みのほとんどを我々は知らない。本稿は最後に、アルゴリズムと密接に関わる問題について紹介したい。
中国ではスマホによる決済が進行しているが、それらの決済情報から個人の信用度を「社会信用システム(social credit system)」として点数化していることは、本連載でも議論した。
だがこの信用システムのアルゴリズムは、当然のことながら公開されていない。基本的には「善行」を行えば個人の評価は上がるが、経済格差が広がる社会において、最初の段階からデータに偏りがあると言えないだろうか。
アルゴリズムの偏見はデータの偏りから生じる。そもそも経済的格差が前提とされたデータの中から個人を格付けすることに、問題はないのだろうか。折しも中国政府は、テロについて誤った情報を流したり、フライトで問題を起こした人、また罰金を支払わなかった人などを対象に、列車や飛行機の利用を最長で一年間禁止する方針を発表した(この規則は2018年5月1日から実施される)。
この問題を論じるのは本稿の趣旨から少々ズレるため割愛するが、いずれにせよこれがアルゴリズムの問題であると同時に、アルゴリズムをプログラムする人間の問題であることは明白だ。
アルゴリズムは社会の利便性を向上させる一方、人々の点数化や、偏見が混じることで社会的不公正をもたらしかねない。故に人工知能の議論には、アルゴリズムをめぐる議論が不可欠なのである。
▲「WEDGE Infinity」の新着記事などをお届けしています。