わずか1日で“嫌悪”を学習したAI、「イルダ」が韓国社会に投げかけた質問
人工知能(AI)チャットボット(自動会話プログラム)の「イルダ」の“ジェンダー嫌悪”が、社会的な議論として広がっている。20歳女性に設定されたチャットボットの「イルダ」は、セクハラの対象になったり、性的少数者への嫌悪の主体になったりした。AI技術で先行する米国などでは高まっている「AI倫理」に対する公論化が、「イルダ事件」を機に韓国国内でも始まった。 ■ 議論の中心になったイルダ スタートアップの「スキャッターラボ」が昨年12月22日に開始したAIチャットボット「イルダ」は、発売してわずか20日で議論に巻き込まれた。イルダが利用者との対話で差別的な女性性を再現し、性的少数者を嫌悪する応答を示したためだ。8日に一部の利用者がイルダに向けてセクハラ的な対話を試みた事実が明らかになり、議論が初めて広がった。翌日にはイルダがレズビアンやゲイについて「嫌いだ」「憎々しい」と答えた点が批判の対象になった。