【no.603】AIの導入に立ちはだかる5つの壁と対応策

AIの導入に立ちはだかる5つの壁と対応策

21世紀以降に登場した、「企業のあらゆる問題を解決する万能薬」として喧伝された正体が曖昧なさまざまな技術と同じく、人工知能(AI)にも多くの期待が寄せられている(実際には、それらの期待を掲げているのは人工知能を売り込もうとする人々だが)。しかし、公共部門か民間部門かを問わず、AIの導入にはいくつかの大きな障害がある。それらの障害について理解することは、AIの限界と可能性、そして開拓期にあるエンタープライズソリューションにつきもののリスクを理解する上で重要だ。

AI
提供:Getty Images/iStockphoto
コンサルティング企業のBooz Allen Hamiltonには、予知保全のためにAIを導入した米陸軍や、オピオイド危機の分析と対処にAIを導入した米食品医薬局(FDA)の支援を行った実績があり、リスクを嫌う大組織が、AIを有意義な形で導入しようとした際に何が起きるかを熟知している。

この記事では、AIを導入する際にどこでつまずくのか、どんな障害があるのかを知るために、Booz AllenのAI戦略およびトレーニング担当ディレクターであるKathleen Featheringham氏から話を聞いた。同氏は、AIの導入には5つの大きな障害があり、これらは、公共部門と民間部門の両方に当てはまると述べている。

注:以下の内容は、インタビューで尋ねた質問に対する回答をまとめたものだが、この記事の形式に合わせて、順序や言い回しは多少修正されている。以下の記述は、すべてFeatheringham氏の発言に基づくものだ。鋭い洞察を披露してくれた同氏に感謝する。

1.ガバナンスと倫理
最初の問題は、AIのガバナンス(あるいはその欠如)だ。あらゆる有力技術に言えることだが、AIの導入にも、その機能と倫理原則に関するガバナンスの仕組みが必要になる。

AIを用いたソリューションを作っているのは、不完全な人間だ。これまでにも、もともと意図していたわけではないが、使用されたデータが偏っていたために、差別的な結果を出力するモデルの例がいくつも明らかになっている。そうした問題は、データセットの偏り(例えばデータの除外やサンプリングの過程で生じた偏り)や、人間が無意識に持っていた偏見によって発生する。そうした事例が出てくれば、当然ながらAIに対する信頼は損なわれ、導入は遅れる。

解決策は

自由、倫理、プライバシーと、効率やその他のAIがもたらすメリットのバランスを取る必要がある。これはAIの基礎であり、それを実現するには、組織のあらゆる階層の人々が、ガバナンス構造を作る上で自分が果たす役割を理解していなければならない。このガバナンスの仕組みには、設計と開発に関する倫理原則が含まれているべきであり、定期的に原則の見直しを行う「フィードバックループ」も備えていることが望ましい。

page: 2

AIのガバナンスフレームワークを構築する際には、以下の3つのポイントを考慮する必要がある。1.開発の初期段階から倫理を考慮に入れること。2.監査証跡をしっかりと残すことができる、堅牢で、透明性が高く、説明可能性を備えたシステムを構築すること。その際、学習が進んだモデルも修正可能であることを前提とする。3.ロールアウトは、明確に文書化されたプロセスに基づいて、健全なガバナンスと監督の下で、慎重に監視しながら進めること。