【no.470】‏AIによる人物写真のラベリングは、どこまで適切なのか? ある実験が浮き彫りにした「偏見」の根深い問題

‏AIによる人物写真のラベリングは、どこまで適切なのか? ある実験が浮き彫りにした「偏見」の根深い問題

Twitterユーザーたちが9月、奇妙なラベル付けがされた自分の写真を投稿し始めた。そこには「顔」といった当たり前すぎてかえって当惑するようなラベルが貼られている一方で、なかなかつらい真実を再認識させられるラベルもあった。ちなみにわたしは「何の影響力もない人物」。とるに足らない、“誰でもない”人間であると宣告されたのである。

それはともかく、もっと問題のあるラベルもたくさんあった。「強姦の容疑者」や「債務者」といった表記、そして「黒人」だけでなく「ニグロ」や「ネグロイド」というラベリングまで見られたのだ。

これらはすべて、「ImageNet Roulette」というプロジェクトによるものだった。アーティストのトレヴァー・パグレンと研究者のケイト・クロフォードによる取り組みで、人工知能AI)に欠陥のあるデータを与えることの危うさを示すことが狙いである[編註:このプロジェクトはすでに終了している]

偏見が含まれる2,395ものラベリング

プロジェクトの“標的”は、AI分野における重要なリソースのひとつである「ImageNet」だった。ImageNetは1,400万件の画像が登録されたデータベースで、自律走行車から顔認識まであらゆるものに使われているディープラーニング(深層学習)の可能性を引き出すものとされている。

このほど話題になったImageNet Rouletteのラベリングのアルゴリズムは、ImageNetに登録された画像によって訓練されていた。ImageNetに登録されていた人物の写真は2,395ものカテゴリーによってラベリングされており、そのラベルは「だらしない女(slatterns)」から「ウズベク族(Uzbeks)」まで多岐にわたる。