【no.356】大丈夫? AIは、ただの「落書き」に呆気なくダマされる

大丈夫? AIは、ただの「落書き」に呆気なくダマされる

映画『ターミネーター』シリーズには、どんなに追い払おうとしても追いかけてくる、恐怖のロボットが登場する。ターゲットとなる人物の顔を認識し、どこに逃げ隠れしようが追跡し、その人物の命を奪おうとする――これはさすがに極端な例だが、人がAI(人工知能)に不安を抱くとき、こんなイメージを抱くのではないだろうか。絶対にミスを犯すことのない、神(あるいは悪魔)のような存在というわけだ。

ところがいま、むしろAIの方が簡単に撃退されてしまうのでないかという懸念が出てきている。しかもそのために、強力な武器も溶鉱炉も必要ない。ステッカーがあれば十分なのである。

2017年7月、ワシントン大学など4つの研究機関の研究者たちが、とある論文を発表した。その論文で示されていたのは、ごく簡単な手法によって、ロボットカー(自動運転車)に搭載されたAIが騙されてしまう可能性である。

彼らがテストした「騙し」のテクニックのひとつが、実際の道路標識に対して、落書きを模してステッカーを貼るというものだ。

上の画像は実際の論文から引用したものだが、実際に研究者たちが作成し、ロボットカーのAIに読み取らせた一時停止標識である。白と黒の四角形に見えるのは、何の変哲もないステッカーを貼り付けたもので、何か特殊な加工がしてあるわけではない。

しかし人間の目で見れば何の違和感もない、そして人間であれば何の苦労もせず「これは一時停止標識だ」と認識できるこの画像、実はロボットカーの「目」にはまったく違うものに映るよう計算されてつくられている。実際に実験を行ってみたところ、ロボットカーはこの標識を「制限速度45マイル(約72キロメートル)」と勘違いしたそうだ。

なぜロボットカーに搭載されたAIは、こんな簡単なトリックに騙されてしまったのだろうか。

この実験で騙す対象となったAIは、ディープラーニングという手法で構築されたものだ。簡単に言うと、ディープラーニングではAIに大量の学習用データを与え、AIはそれをもとに独自の「思考回路」を形成する。そしてその思考回路を使って、現実の世界から与えられるデータを処理し、適切な判断をしていくわけだ。

しかし人間の目にも錯覚という現象があるように、構築されたAIの思考回路も、与えられたデータから誤った判断をしてしまう場合がある。そうした誤った判断を引き出すようなデータを設計して、AIに与えることによって、意図的にミスを引き出すことができるのだ。そしてこのような、意図的にAIを混乱させる手法を、「敵対的攻撃(Adversarial Attack)」と呼ぶようになっている。