モデルの公平性と説明可能性だけでは不十分な理由
人工知能テクノロジーが活用され始めて以来、ハイテク企業はその非倫理的な使用について多くの非難を受けてきた。
その一例として、Alphabet傘下のGoogleは、アフリカ系アメリカ人のスピーチに白人よりも高い「毒性スコア」を割り当てるヘイトスピーチ検出アルゴリズムを作成した、というものがある(※訳註1)。
ワシントン大学の研究者たちは、アルゴリズムによって「攻撃的」または「憎悪的」と判断された数千のツイートのデータベースを分析した結果、黒人向けの英語の方がヘイトスピーチとしてレッテルを貼られる可能性が高いことを発見した。
(※訳註1)ワシントン大学の研究チームが発表した黒人向けの英語に対するAIバイアスの詳細は、同チームによる論文『ヘイトスピーチ識別における人種的バイアスのリスク』を参照のこと。
以上の事例は、AIアルゴリズムから浮上するバイアスの無数の例のひとつだ。当然ながら、これらの問題は多くの注目を集めている。倫理やバイアスに関する会話は、最近のAIに関するトップテーマのひとつとなっている。
産業界のあらゆる組織や関係者たちは、公平性、説明責任、透明性、(運命的)倫理を通じてバイアスを排除するための研究に取り組んでいる。しかし、モデルのアーキテクチャやエンジニアリングだけに焦点を当てた研究では、限られた結果しか得られないことが予想される。では、どのようにしてこの問題に対処すればよいのだろうか?
AIバイアスに対抗するために誤解を解消する
画像出典:UnsplashのMarkus Spiske
AIバイアスの根本原因はモデルにあるわけではないので、それを修正するだけでは不十分である。AIバイアスの是正に関して、どんな対処法がより良い結果をもたらすかを知るためには、まず本当の理由を理解しなければならない。そして、こうしたバイアスに取り組むために現実の世界で何がなされているかについて研究することによって、潜在的な解決策を見つけることもできる。
AIモデルは、過去のデータからパターンを研究して洞察力を得ることによって、学習する。しかし、人間の歴史(と現在の私たち)は完璧とは程遠い。それゆえ、こうしたAIモデルが訓練に使われたデータに潜むバイアスを模倣し、増幅してしまうのは当然のことなのだ。
以上のAIバイアスのメカニズムは誰の目にも明らかだ。それでは私たちがいる現実世界では、このような内在的なバイアスをどのように処理しているのだろうか。
現実世界では、バイアスに対抗するためにバイアスを導入する必要がある。
あるコミュニティや一部の人々が不利益を被る可能性があると感じた場合、私たちは過去の事例だけに基づいて結論を出すことは避けようとする。時には、さらに一歩踏み込んで、そのような不利益を被っているセグメントに機会を提供して、そのセグメントを内包しようとする。こうした行動は、不利益を生む傾向を逆転させるための小さな一歩なのだ。
以上のようなバイアスの是正は、モデルを訓練しながら、まさに私たちが行わなければならないステップである。では、モデルに内在する「学習された」バイアスに対抗するために、人力で是正バイアスを注入するにはどうすればよいのだろうか?以下では、是正バイアスを導入するためのいくつかのステップを示す。