【no.344】グルメレビューアプリ「LINE CONOMI」がリリース AI技術でレシート撮影だけで投稿可能に

グルメレビューアプリ「LINE CONOMI」がリリース AI技術でレシート撮影だけで投稿可能に

LINEとLINE CONOMIはグルメレビューアプリ「LINE CONOMI」サービス開始した。“店舗選びの煩雑さ”や“食べたいものを見つける難しさ”をAI技術によって解決するグルメレビューアプリを目指す。

LINE独自のAIを使った画像認識技術により、テキストを入力しなくても“レシートを撮影するだけ”で、店名やメニューを自動入力できるほか、位置情報の活用により料理写真をアップするだけで店舗情報が候補一覧として自動表示されるなど、ユーザーが簡単にグルメ記録を投稿することができる機能を充実させている。

これにより、「投稿したいけどテキストを打つのが面倒」、「さっき食べた料理の詳細(メニュー名や金額)がわからない」といったことが解消され、より多くのユーザーが手軽に投稿できる環境を提供することが可能となる。

また、お店ではなく、フードやドリンクなどのメニュー単位で口コミできるので、メニュー単位で情報を入手することができるのも特徴だ。

さらに、ユーザーからの良質なレビュー投稿や投稿アクションには「LINE CONOMI coin」が付与される。未登録の店舗を新たに登録すると50 LINE CONOMI coin、お店のメニュー表の登録で100 LINE CONOMI coinが手に入る。報酬としてゲットできる「LINE CONOMI coin」は、「LINEポイント」に交換することができ、全国各所で利用可能な「LINE Pay」でLINEポイント1ポイント=1円として活用できるほか、LINEサービスでの購入・決済時に利用できる。

今後は、投稿されたグルメ記録をベースにAI機能を活用してユーザーに食の好みをオススメしてくれるレコメンド機能や、ユーザー同士のフォロー機能、地域・店舗ごとに人気のメニューがわかるメニュートレンドランキング機能、ユーザー同士で行きたいお店・食べたいメニューを共有できる機能、さらには予約機能も追加予定。

【no.343】AI規制を求め新法案、 米国議会の「本気度」

AI規制を求め新法案、米国議会の「本気度」

米国の連邦議員が4月10日、人工知能(AI)を規制する米国初の主要な取り組みの1つとなる新法案を発表した。こうした動きは今後も増えそうだ。

新法案は、今世紀の極めて強力なテクノロジーの1つ、AIに対する米国政府の立ち位置の劇的な変化を示している。ほんの数年前まで、議員らにAIを規制しようという意識は薄かった。だが、その影響がより具体的になりつつある現在、議会の一部はAIの手綱を握るための幅広い戦略の展開に動いている。

こうした動きは米国だけではない。最近になって、英国やフランス、オーストラリアをはじめとする国々でも、テック企業にアルゴリズムの責任を負わせる法案が提出されたり成立したりしている。だが、シリコンバレーを抱える米国には、AIの国際的な影響を形作るユニークなチャンスがある。「欧州の問題の1つは、欧州がAI開発の第一人者ではないことです」。欧州議会の元テクノロジー政策顧問で、現在はプリンストン大学テクノロジー政策センターの客員研究員であるベンダート・ゼーフェンベルゲンはそう話す。「欧州はある意味、多くの点でAIテクノロジーの受け手です。欧州は間違いなく二番手集団です。一番手は米国と中国ですから」。

新法案「アルゴリズム説明責任法(Algorithmic Accountability Act)」は、大企業に対して、自社の機械学習システムのバイアスと差別に関する監査を実施し、問題が見つかった場合には適切な対応を求めるものだ。また、機械学習だけでなく、センシティブなデータ(たとえば、個人を特定できる情報、指紋や声紋などの生体識別情報、遺伝子情報など)が関連するすべてのプロセスにおいて、プライバシーとセキュリティのリスクについての監査も求める法案となっている。法案が成立すれば、消費者保護と反トラスト規制に責任を持つ米国連邦取引委員会(FTC)が監督権限を持つことになる。

【no.342】先物取引に蔓延するAI運用の増加がとまらない

先物取引に蔓延するAI運用の増加がとまらない

AI運用にボット売買。

そんな用語がトレンドのようです。先物取引もすっかりAIが人気なんですね。人間の頭脳とアルゴリズムを組み合わせて、機械でしか実現できないような「ナノ秒」といったごく短い時間で投資のチャンスを見逃さない、そんな未来派の投機スタイルが先物市場を席巻しつつあるようです。

投機には興味はあるけど、ボット売買や自動トレードってどうなんでしょう。米GizmodoのBrian Merchantの報告です。


世界の先物市場にオートメーションが蔓延してるって知ってました?

ミリ秒やナノ秒といった高頻度・超高速取引はまだしも、一部には理解に窮するようなはちゃめちゃな取引もはびこっているよう。 米商品先物取引委員会のレポートによれば、先物市場の取引の自動化の増加が止まらない勢いのようです。まず、家畜先物取引の三分の一以上がボットなどの自動化で行われているとのこと。通貨先物にいたっては91パーセントがボット取引で、人間が介入しない取引の方が多くなっているというありさまです。

  • 映画『アベンジャーズ/エンドゲーム』を見る前に知っておくべき5つの知識

Financial Times(有料のレポートです)が見出しにしているように「先物市場の未来は自動化がにぎっている」のかもしれません。

米商品先物取引委員会の市場監視局市場諜報部が行なった調査です。この調査は8つの市場にわたり、世界最大のオプション取引会社CMEグループが監修しています。この調査によれば、先物取引には自動化が大きくかかわっていることがわかっています。

2
自動化された先物・オプション取引のトランザクション増加率

先物取引とは、石油、とうもろこし、金など、未来の日付で一定の価格と数量の物品を売買する取引です。金属商品、エネルギー商品、金融先物、エクイティ(株主資本)、穀物、大豆油など、いずれの市場にも自動化が台頭しています。

家畜先物の自動化率は実はこの中でももっとも低く、取引の70パーセント以下しか自動化されていない唯一の市場となっています。 この報告書の作成者はこの6年間で自動化は「一定の勢いで増加してきている」としています。

1秒以下というスピードで取引が自動的に行われることの何が問題なのでしょうか。もっとも大きな懸念は市場のボラティリティ(金融商品価格の予想変動率)が高まってしまうことと、市場のトレンドが変わることに対し巨大な結果がもたらされる可能性です。高頻度取引のアルゴリズムが過剰に解釈されることで、金融不況が悪化してしまう可能性があるのです。

高頻度取引のプログラムの不具合で大損失を招いた例は少なくありません(2012年8月のBBCの記事によれば、プログラムの不具合が元でボットの高頻度取引が不具合を引き起こし、あっという間に損失が4億4千万ドルまで拡大)。オートパイロットで動作しているシステムが多くなれば、ひとつを引き金に次々と不具合で生じた間違いに導かれ、大きな破滅と混乱を引き起こす可能性があるのです。その結果、経済は大打撃を受けるでしょう。

先物取引の報告書のケースでは、規制当局は「終値のヒストリカルボラティリティは1日の平均価格変動数と正の相関がある」ことを認めていますが、自動売買とボラティリティの間に同じ相関関係があるかどうかは決定的ではありません。先物市場における取引で自動化が台頭する一方で、人間が介入しなくなることにより市場がどう変わっていくのか、実はまだよくわかっていないのです

【no.341】蒸留所がMicrosoftと提携して世界初の「AIウイスキー」が爆誕、人工知能がフレーバーなどのレシピを考案

蒸留所がMicrosoftと提携して世界初の「AIウイスキー」が爆誕、人工知能がフレーバーなどのレシピを考案

人工知能(AI)は医療・金融・セキュリティなど、さまざまな分野で活躍する技術です。2019年5月12日、スウェーデンのウイスキーメーカー「Mackmyra」はMicrosoftとフィンランドの人工知能を活用したコンサルタント企業Fourkindと提携し、既存のフレーバーやタルの組み合わせや、販売数、顧客の好みなどを機械学習したAIによって考案される「AIウイスキー」の製作を開始したと発表しました。

Mackmyra AI whisky
https://ai-whisky.com/

Here Comes the World’s First AI-Generated Whisky
https://www.popularmechanics.com/home/food-drink/a27434076/artificial-intelligence-whisky/

ウイスキーの歴史は古く、15世紀にはラテン語で「命の水(aqua vitae)」と呼ばれてアイルランドやスコットランドで愛飲されていました。ものづくりの分野にも広がるAIの躍進によって、人類が製造し飲んできたウイスキーの長い歴史にも変革が訪れたといえます。

2019年の秋から生産が開始されるAIウイスキーは、香りは「トフィーとクリームバニラ、上質なオロロソ風で、シトラス・洋梨・リンゴ・アニス・ジンジャー・ホワイトペッパーにオーク樽」に、味は「オーク材の風味のバニラ、かんきつ類と洋梨、ハーブにわずかにタバコの葉のよう」で、フルーティーでオークの風味とわずかな塩気が感じられるドライな飲み口のウイスキーとなるそうです。

By Mackmyra

AIをウイスキー作りに活用する利点として、AIは人間よりもレシピの考案や改善の速度が速いという点と、人間では考えられなかった新しい革新的組み合わせを提示してくれるという点が挙げられています。ウイスキーの製造法では、「何をフレーバーとして入れるか」など多数の選択肢があり、今回AIが考案したレシピの総数は7000万件以上にものぼったとのこと。

その7000万件以上のレシピから最適なウイスキーを作り出すために、人間の専門家も活躍しています。Mackmyraでウイスキーの味付けを担当するAngela D’Orazioさんは「今回、ウイスキーのレシピを考案したのはAIですが、どのレシピにするのかを決定したのは人間です。まだまだ人間の役割は重要です」とコメントしています。

By Mackmyra

また、Fourkindは「ウイスキーは始まりにすぎません。お菓子・香水・飲料、果てはスニーカーなど、AIが活躍できる分野はさまざまに考えられます。AIは企業のブランドイメージや精神を損なうことなく、新しくユニークな製品を考案してくれます」と語っています。

【no.340】人間VSアレクサ:AIに頼むより自分でやったほうが早い3つのこと

人間VSアレクサ:AIに頼むより自分でやったほうが早い3つのこと

「アレクサ、音楽かけて」「アレクサ、今日の天気は?」など、音声に反応していろいろと私たちの生活をサポートしてくれるAIアシスタント。でも、AIに頼むより自分でやった方が早いことってあるんじゃない?

というわけで、米GIZMODOのヴィクトリア・ソンが米Lifehackerのアブ・ザファーに協力してもらってAI vs DIYをしてくれましたよ。

果たして結果はどうなったのでしょうか?

一概にこう、とは言えませんが、アレクサはタイマーをセットしたりライトをつけたりするのは大得意な反面、新聞を読むことをはじめとする「読み上げ行為」は冗長になりがちみたい。

ではまとめです。

【アレクサを使うと早い】

1)タイマー

2)スマートホーム

3)インターカム

【自分でやった方が早い】

1)時間チェック

2)ニュースを読む

3)算数

マルチタスクの時や、待つのが気にならない人はアレクサを使うと良いのでしょう。朝食準備中なら、アレクサのスローなニュース読み上げだって助かりますよね(テレビつけてニュースを流すという選択肢が無い場合ならね)。

【no.339】グーグルがAIと音声認識で進める「アクセシビリティ」向上の取り組み

グーグルがAIと音声認識で進める「アクセシビリティ」向上の取り組み

Googleは、人工知能(AI)と音声認識の最先端の技術を利用して、障害のある人々の生活を楽にする新しい製品やアプリを開発している。同社は米国時間5月7日、年次開発者会議「Google I/O」で、そうした取り組みの一部を発表した。

Googleの最高経営責任者(CEO)のSundar Pichai氏は基調講演で、「Android Q」によって実現される新しい「Live Caption」機能のデモを披露した。これは、スマートフォンで再生中の動画や音声をリアルタイムで文字に起こす機能だ。Live Captionは、ユーザーがYouTubeを視聴したり、ポッドキャストを聴いたり、Skypeでビデオチャットをしたりしているときに、バックグラウンドで動作させることができる。録音した音声や動画にも対応する。

Pichai氏は、障害のある人々のアクセシビリティー問題の解決を目指す3つの新しい取り組みも発表した。「Project Euphonia」は、AIを利用して、発話障害のある人々を支援する。「Live Relay」は、聴覚障害者や難聴の人も電話をかけることができるようにするプロジェクトだ。「Project Diva」は、音声起動アシスタントを発話障害者にも使いやすいものにする。

GoogleはAIを活用して、発話障害のある人々のコミュニケーションを容易にしようとしている
GoogleはAIを活用して、発話障害のある人々のコミュニケーションを容易にしようとしている
提供:Google

Googleはかなり前からアクセシビリティー問題に取り組んできた。例えば、同社の「Googleマップ」チームには、車椅子の人のためのスロープや入り口がある場所を探し出す地元のガイドがいる。2018年のGoogle I/Oでは、「Android」用アプリ「Lookout」を発表した。このアプリは、周囲にある物体や文字、人について音声で情報を伝えることで、視覚障害者を支援する。

Pichai氏は基調講演で、「あらゆる人を想定して開発された製品ということは、あらゆる人が当社の製品にアクセスできるということだ。テクノロジーは私たちのインクルーシブ性(包括性)を高める助けになるとわれわれは考えている。そして、AIは障害のある人々の体験を劇的に改善する新しいツール群を私たちに提供してくれている」と語った。

【no.338】メルカリから学ぶ、事業にAIを導入する術

メルカリから学ぶ、事業にAIを導入する術

2019年3月28日、「メルカリAI技術説明会」が行われた。AI(人工知能)時代に向け、テックカンパニーを目指すメルカリの技術に関する取り組みが紹介された。

登壇したのは、メルカリ取締役兼最高製品責任者(CPO)の濱田 優貴氏、AI Engineeringチームディレクター 木村 俊也氏、AI Engineeringチームマネージャー 山口 拓真氏だ。メルカリの技術面を担うメンバーが、世界のAIトレンドやテックカンパニーとしてメルカリが目指す世界、メルカリを支える最新のAI技術について説明した。

売ることを空気にする「AI出品の進化」

メルカリで商品を売るためには「出品」という作業が必要になる。しかし、出品したいモノを撮影し、カテゴリを選び……という作業はユーザーにとっては負担になる。

そこでメルカリが進めるのが「AI出品の進化」だ。売ることを空気にするというビジョンのもと、AIを活用した出品機能を開発中だという。

今回はそのプロトタイプ段階のものが紹介された。

撮影した物体を解析し、「商品」「価格」を特定する

紹介されたのは、物体を動画撮影するだけで、瞬時に「物体名」を特定し、それが現在いくらで取引されているか、「価格」が表示される機能だ。

ユーザー自身がカテゴリの入力や価格を調査するのは面倒だ。そういった面倒を物体認識の技術などで解決していくという。

ほしい商品を物体認識で見つける

メルカリは、出品に限らず購入体験も進化させていく。

ほしい商品があっても、名前がわからいケースがある。写真をアップロードするだけで写っている物体を特定し、購入ができる機能だ。

スマホをかざすだけで売れる世界観

AIを活用したしたメルカリのアップデートは、さきに紹介した機能にとどまらない。

――濱田
「今後は、『セリングAI』という機能の実装も考えています。ユーザーは、商品を売るために価格を下げたり、あるいは市場の動きにあわせて価格を上げたりします。そういった価格をユーザーではなくAIが自動的に交渉してくれる機能が『セリングAI』です。物の価値は日々変わります」

――木村
「メルカリは、テクノロジーを通じて『売る』という体験を進化させます。『売る』ことを圧倒的に簡単にし、まるで『空気』のようにあたりまえにする。目指すのは、『スマホをかざすだけで売れる世界観』です」

【no.337】フェイスブックのAIにも「認知バイアス」による偏見が潜んでいた

フェイスブックのAIにも「認知バイアス」による偏見が潜んでいた

被写体を自動認識するフェイスブックAIカメラが、黒人女性を“素通り”してしまった──。そんな事実が、同社の開発者カンファレンスで明らかになった。グーグルのAIによる「ゴリラ問題」などで、かねて課題となってきたAIの認知バイアス。フェイスブックはこの重要な問題を、いかに解決しようと考えているのか。

TEXT BY TOM SIMONITE
TRANSLATION BY CHIHIRO OKA

WIRED(US)

Mike Schroepfer

フェイスブックの最高技術責任者(CTO)マイク・シュレーファーは、最悪の事態を避けるためには人工知能AI)は不可欠だと話す。PHOTO: PEDRO FIÚZA/NURPHOTO/GETTY IMAGES

昨年のある日、フェイスブックのプログラムマネージャーであるレイド・オバメヒンティは、自社のアルゴリズムが黒人に対して差別的であることを発見した。

オバメヒンティはそのとき、開発中のヴィデオチャット端末「Portal」のプロトタイプをテストしていた。このデヴァイスは話している人を自動で探し、そこにカメラがズームインするようになっている。

しかし、オバメヒンティが朝食のフレンチトーストについて話していたとき、デヴァイスは彼女を無視して、代わりに同僚の白人男性を画面の中心にもってきた。オバメヒンティは黒人だった。

彼女は年次開発者向けイヴェント「F8」の2日目に、この体験について語った。初日となる前日には、最高経営責任者(CEO)のマーク・ザッカーバーグが基調講演でプライヴェート重視路線を強化すると力説したばかりだった。

ただ、最高技術責任者(CTO)であるマイク・シュレーファーの話は、CEOのそれより現実的だった。イヴェントの2日目に壇上に立ったシュレーファーとオバメヒンティなど技術チームの面々は、プラットフォームを守るためにテクノロジーを利用することの難しさをよく理解していた。

特に人工知能(AI)の場合、「認知バイアス」が大きな課題となっている。シュレーファーは「簡単な答えはありません」と語った。

AIカメラが黒人女性エンジニアを“無視”した理由

ザッカーバーグもシュレーファーも、Facebookのような巨大プラットフォームではAIが必要不可欠であるとの認識では一致している。人間関係のデジタル化の結果として予期せぬ事態が起こらないようにするには、テクノロジーに頼るしかない。

ただ、これまでの常識を覆すようなテクノロジーの常として、AIそのものが予期せぬ事態を引き起こしているのだ。機械学習応用部門を率いるホアキン・カンデラは「何が起きるか予測することは不可能です」と言う。

オバメヒンティの体験によって、フェイスブックがAIの認知バイアスを避けるためのツールを見つけ、その開発過程も見直さなければならないことが改めて確認された。AIに無視されたことで「多様性に対応できるAI」をつくり出していくことの重要性を強く感じたと、彼女は話している。

そのためには、Portalのプロトタイプの動作だけでなく、コンピューターヴィジョンを支えるシステムを訓練するために使われているデータセットに内在する、人種や性別の偏りを調べるところから始めなければならなかった。オバメヒンティは、データセットには女性や浅黒い肌の人の画像が少なかったことを発見した。結果として、プロトタイプもこうしたグループをうまく見分けられなかったのだ。

潜在的な認知バイアスという問題

AIシステムの普及に伴い、潜在的な認知バイアスについて警鐘を鳴らす研究者が増えている。2015年には、グーグルの画像認識システムが黒人を「ゴリラ」とタグ付けしていたことが明らかになる事件があった。ただ、グーグルがとった対応策は、タグ用の単語の一覧からゴリラやチンパジーといった大型霊長類を外すことだけだった。

オバメヒンティの対策はこれよりは建設的で、最終的にはシステムの改良に成功したという。F8でのプレゼンテーションによると、訓練をやり直した新しいシステムでは、男性でも女性でも3種類の異なる肌の色について90パーセント以上の確率で認識できた。90パーセントはフェイスブックが設けている目標ラインだ。ただ、それでもまだ黒人女性の認識率は、ほかと比べて低くなっている。

フェイスブックは拡張現実(AR)カメラのフィルターについても、人種や性別にかかわらず誰でも認識されるように同様の方法で変更を加えている。機械学習のアルゴリズムはより強力になっているが、訓練の際には慎重さが必要だ。オバメヒンティは「AIを現場にもってくると、そこに内在する除外というリスクが明らかになります」と話す。

フェイクニュース判定にも認知バイアス

一方、フェイスブックはプラットフォームから偽情報を駆逐するためにAIシステムを導入しているが、カンデラはこれについて、不公正にならないよう注意しなければならないと強調した。例えば、インドでは現在、各地で総選挙の投票が行われているが、フェイスブックはここで誤った情報が拡散されないようコンテンツフィルターを使っている。

このコンテンツフィルターは数あるインドの主要言語のうちのいくつかに対応し、人間のレヴューが必要と思われる投稿を拾い出していく。カンデラはどの言語でもフィルタリングが正確であるかどうかを細かく確認していると話した。

また、フェイクニュース対策にユーザーの力を借りるというやり方にも課題が見えてきている。フェイスブックは昨年、特定の投稿がフェイクニュースかを見極めるために、ユーザーからのフィードバックを取り入れる方針を明らかにした。カンデラはこれについて、AIの認知バイアスに取り組むチームは同時に、こうしたヴォランティアのユーザーのコミュニティーに人種や地域的な偏りがないようにしなければならないと指摘する。

テクノロジーの進化だけでは解決できない

一方で、テクノロジーの進化によってこうした問題は解決されていくとの見方もある。CTOのシュレーファーは、画像やテキスト認識において、少ないデータセットで訓練されたAIがより正確な結果を出せるようになっているという研究結果を紹介した。ただ、Facebookでの利用規約違反のコンテンツの発見率については最新のデータは示さず、昨年11月に発表した数字を繰り返すにとどめている。

カンデラは、テクノロジーの進歩とシステムのバイアスを検知するツールの開発だけでは、フェイスブックの問題を解決することはできないと認める。経営陣とエンジニアが一丸となってやるべきことをやっていかなければならないのだ。

【no.336】AIが犯罪を予測、是か非か 揺れるアメリカ社会

AIが犯罪を予測、是か非か 揺れるアメリカ社会

「マイノリティ・リポート」の現実味

顔認識よりもさらに深刻なバイアスも指摘されている。人々の「未来」についての、AIのバイアスだ。

その深刻さが知られるようになる、大きなきっかけとなったのが、米国で導入されている「再犯予測プログラム」のバイアスだ。

刑事事件の被告が将来、再び罪を犯す危険性を、データに基づいてプログラムで自動判定し、評価点を出す。そしてそれをもとに、裁判官が判決を言い渡す─。

スティーブン・スピルバーグ監督、トム・クルーズ主演のSF映画「マイノリティ・リポート」(2002年公開)を思い起こさせる「再犯予測プログラム」。その問題がクローズアップされたのは、一件の銃撃事件の裁判だった。

2013年2月11日の午前2時17分、ウィスコンシン州西部の街、ラクロスで、住宅に向け、車両から2発の銃弾が撃ち込まれる事件が発生。間もなく、2人の容疑者が逮捕される。

このうち運転手役だったとされるのが、当時31歳の男性被告。盗難車両の運転や逃亡などの罪で、一審で6年の有罪判決を受ける。

判決に使われたのが「再犯予測プログラム」だった。

このプログラムには、AIの技術である機械学習が使われていると見られているが、詳細は明らかになっていない。

被告はこれに対し、「再犯予測プログラム」はアルゴリズムが明らかでなく、信頼性を検証できないため、法の適正手続き(デュープロセス)を受けるべき被告の権利を侵害している、と主張。判決を不服として控訴した。

控訴審は、「再犯予測プログラム」の判決への導入についての可否の判断を、州最高裁に委ねた。

一審判決で使われた「再犯予測プログラム」は、米ノースポイント社(現エキバント)が開発した「COMPAS」と呼ばれるものだった。

「COMPAS」とは、被告に137問の質問に答えさせ、過去の犯罪データとの照合により、再び罪を犯す危険性を10段階の点数として割り出すシステムだ。

この質問には、犯罪、保釈の履歴や年齢、雇用状況、暮らしぶり、教育レベル、地域とのつながり、薬物使用、信条、さらには家族の犯罪歴、薬物使用歴なども含まれる。

今回の男性被告の場合、過去に性的暴行の前科があり、性犯罪者データベースに登録されている人物だったという。

このため、「COMPAS」による再犯危険度の点数も高かったようだ。

「COMPAS」は州政府の矯正局が使用し、そのデータが裁判官に提供されている。

2016年7月16日に州最高裁が出した判決では、「COMPAS」の危険度評価を判決で使うことについては、被告が適正手続きを受ける権利を侵害してはいない、とした。

ただし、「判決を、このプログラムに依存することまで認めるわけではない」と指摘。プログラムの使用には前提条件が必要になる、と判断を示した。

まず、「再犯予測」のデータを裁判官に提供する場合には、予測プログラムが非公開のアルゴリズムによること、データにはバイアス(偏り)があり、白人よりも黒人に高い危険性評価が出ることなどの注意書きを明記するように、と指摘。

さらに、量刑の軽重、実刑か猶予かを、このプログラムのみに依拠して判断すべきでない、とした。判決はこう述べる。

「 危険度評価のツールを、量刑の長さや軽重を判断するために使うことは、不適切である。」

再犯予測プログラムをめぐっては、2010年にもインディアナ州最高裁が「量刑判断に取って代わるものではなく、その参考データとして使用すること」とする判決を出している。ウィスコンシン州最高裁の判断も、その流れの中にあるようだ。

被告は連邦最高裁に上訴したが、2017年6月26日に退けられている。

「再犯予測」の精度とは?

ウィスコンシン州では、「COMPAS」は今回のような判決の場面だけでなく、仮釈放の判断など、犯罪者矯正の幅広い場面で使われている。

このような「再犯予測」プログラムは、このほかにも、アリゾナ、コロラド、デラウェア、ケンタッキー、ルイジアナ、オクラホマ、ヴァージニア、ワシントンの各州で、刑事裁判の判決に導入されているという。

ウィスコンシン州最高裁の判決では、「COMPAS」のアルゴリズムが非公開であるとしながらも、バイアスの存在について言及していた。

その判決に先立つ2016年5月、米調査報道メディア「プロパブリカ」が独自に「COMPAS」の精度を検証し、そのバイアスについて報じていたのだ。

「プロパブリカ」の検証では、白人よりも黒人の再犯危険度が高く示される傾向があった、という。

「プロパブリカ」は、「COMPAS」を導入しているフロリダ州の情報公開法を使って、同州ブロワード郡で2013~2014年に「再犯予測」の評価を受けた1万人を超すデータを請求し、独自に検証した。

フロリダは「COMPAS」の予測を、判決ではなく、主に公判前の保釈の判断に使っているという。

「プロパブリカ」の検証によると、「COMPAS」の再犯予測の精度、すなわち危険度が高いと評価した人物が実際に再犯をした割合は、白人59%、黒人63%とさほどの違いはなかった。

だが、細かく見ていくと、黒人の方がより危険度が高く出る傾向が顕著だった、という。

例えば「再犯予測」後、実際には2年間、再犯のなかった人物が、高い危険度評価を受けていた割合は、黒人が44・9%に対して、白人は23・5%と、2倍近い違いがあった。

逆に、「再犯予測」後、2年以内に再犯があった人物が、低い危険度評価を受けていた割合は、白人が47・7%と高く、黒人は28・0%と、こちらも2倍近い違いがあった、という。

この検証結果は大きな反響を呼び、「COMPAS」はアルゴリズムによるバイアスの代表的な事例として取り上げられるようになる。

ただこの検証結果に対しては、ノースポイントが異議を申し立て、さらに「プロパブリカ」が反論するという応酬が続いた。

また、この議論には専門家らも加わり、黒人の再犯率が実際に高いことから、再犯予測が高く出てしまうのはやむを得ない面がある、との指摘もなされている。

犯罪発生地域を予測する

犯罪に関するシステムとしては、このほかにもAIを使って犯罪発生地域を予測する「プレッドポル」が知られている。

過去の犯罪発生データの解析によって、犯罪発生率の高い地域を予測し、パトロールの効率的人員配置を行うというものだ。

「プレッドポル」はカリフォルニア大学ロサンゼルス校(UCLA)とロサンゼルス市警察(LAPD)による、データを使った犯罪発生予測の実験がきっかけになっている。 もとになったのは、地震の余震を予測するアルゴリズム。

「それを活用することで、犯罪発生を阻止する効果は倍増した」─「プレッドポル」の共同創業者でUCLAの人類学の教授でもあるジェフ・ブランティンガム氏は、BBCの取材にそう語っている。

「プレッドポル」では、過去数年間に発生した犯罪の種別、場所、時間のデータを解析し、具体的な犯罪の発生を予測する。

予測結果は地図上に500平方フィート(46平方メートル)の色つきの四角いエリアで表示。赤の四角は、発生危険度が高いことを示しており、警察官は勤務時間の1割を、そのエリアの警戒にあてなければならない。

米国内で50を超す警察が「プレッドポル」を導入しており、英国でも導入され始めているという。

だが、「プレッドポル」の導入によって、かえって特定地域の犯罪・発生率・が上がり、住民への差別や偏見を助長することにつながる─そんな皮肉な問題点も指摘されている。

サンフランシスコの人権団体「ヒューマン・ライツ・データ・アナリシス・グループ(HRDAG)」は2016年10月、「プレッドポル」の予測精度に関する調査結果を公開した。

同グループは、カリフォルニア州オークランド市警察の麻薬摘発データをもとにして、「プレッドポル」に麻薬取引の発生予測を行わせた。さらに、公開されている統計データから、オークランド市内の各地域での麻薬使用者の分布を推計した。

「プレッドポル」の予測は特定地域に集中していたが、居住地近くで取引をするはずの麻薬使用者は、市内の広範囲に分布していた、という。

同グループは、「プレッドポル」の予測のもとになるデータは、犯罪発生そのもののデータではなくて、警察が犯罪発生を覚知したデータであることが、この食い違いの理由だ、と指摘する。

つまり、警察官が集中的に監視する地域は犯罪の覚知率が高くなり、発生予測も高くなる。するとより監視が強まり、さらに犯罪の覚知率は高くなる、という繰り返しになっているのだと。

そのような地域は、大半が低所得層や人種的マイノリティの居住地域だという。警戒の重点化と犯罪覚知率の上昇は、結果として地域住民へのバイアスを固定化することになってしまう、という指摘だ。

ユタ大学などの研究チームは、2017年6月に発表した論文で、この傾向を数理モデルによって証明。警察官が集中的に見回ることによって、特定地域の犯罪発生率の上昇と巡回の重点化が無限に繰り返される「暴走フィードバックループ」が起きる、と指摘している。

AIによる犯罪予測は、日本でも導入が進められている。

京都府警は2016年から、NECと共同開発した「予測型犯罪防御システム」を導入した。過去10年間に府内で起きた犯罪の、種類、場所、時間帯といったデータを分析。犯罪が起こりやすいエリアを数百メートル四方で予測し、警察署や交番のパトロールの重点地域としている。

神奈川県警は2018年2月、東京五輪・パラリンピックが開かれる2020年の試験運用開始を目指して、犯罪・交通事故発生予測システムの導入に乗り出す、と発表した。

また、警視庁も同年7月の隅田川花火大会で、AIを使った人数計測や移動予測の実証実験を行うなどの取り組みを進めている。

ただ米国の警察では、犯罪予測によるバイアスの固定化への懸念から、「プレッドポル」の採用を終了したり、見送ったりしたケースもある。

メディアサイト「マザーボード」によると、カリフォルニア州サンフランシスコ湾岸地域南部のミルピタス市警察は、2014年に「プレッドポル」との契約を解除。北部のリッチモンド市警察は2016年初めにやはり契約を解除している。また、サンフランシスコの対岸、オークランド市警察も2015年の予算で導入を検討したが、最終的に取りやめたという。

犯罪多発地域については、現状でも警察現場は把握している。一方、すでに紹介したように、AIによる犯罪予測は特定の住民への差別や偏見を助長する危険が指摘される。オークランド市警察などでは、それによる地域との信頼関係の悪化というデメリットを懸念したという。

犯罪防止と地域との信頼関係の悪化。そのトレードオフは、米国に限らず、日本でもついて回る課題だろう。

【no.335】「生成系AI」が業務の効率性を上げる–文書生成の自動化で創造力を拡張

「生成系AI」が業務の効率性を上げる–文書生成の自動化で創造力を拡張

オフィスでの文書作成は、IT化によってだいぶ楽になったものの、いまだに業務の中で負荷の大きい作業の一つかもしれない。その作業の全てをなくそうとしても無理な話だ。“言語化”は暗黙知を形式知に変化させるのに非常に有効な方法だし、コミュニケーションの基本は言語であるが故に、他人に情報を伝えるためにはやはり文書にする必要がある。それでもなお、文書作成の負荷軽減は重要な課題となっている。

そうした背景から、「生成系」と呼ばれる人工知能(AI)が注目を浴びている。文章、音楽、画像、動画など、何らかのメディアコンテンツを自動で生成するのが特徴。これを文書作成に応用する事例が増えてきている。

今後、生成系AIが業務に導入されるに従って、文書作成の負荷を大きく軽減し、創造的な業務により多くの時間を割けるようになるだろう。ここでは、生成系AIが業務に導入される未来を描きたいと思う。

認識系AIから生成系AIへ

現在のAIブームで最初に注目されたのが画像認識技術ではないだろうか。入力された画像に写っているものが何かを「認識」する技術だ。その後、顔認識や音声認識などの認識技術が注目されてきた。これらのAIを「認識系AI」と呼ぶことにする。

認識系AIが活躍するのは、大量のデータが生成され、それらのデータを瞬時に判別しなければならないような現場が多い。例えばIoTの領域では、現実世界の状況をデータで取得する際に、その意味を判断する機能として非常に重要なエンジンと位置付けられる。スマートファクトリーなどのインダストリー4.0の流れも、IoTと認識系AIの組み合わせが基本となっている。

近年それとは別に、データやコンテンツを自動で生成するAIが注目されている。面白い事例としては、まるで実在するようなアイドルの顔画像を自動生成するAIが記憶に新しい。このようなAIを「生成系AI」と呼ぶことにする。

今では、画像だけでなく、音楽や動画の生成系AIも生まれている。ちなみに筆者は、音楽を対象とした生成系AI、具体的には楽曲を自動で生成するAIの研究を進めている。

生成系AIは人間が詳細を指定しなくても、現実にあり得そうなコンテンツを自動生成することから、創造性を生かす現場においてパラダイムシフトになる可能性がある。今後は、生成系AIが生み出すものを選択・編集しながら、より高次の創造性を発揮して作品を仕上げていく必要があるだろう。また、人間の創造力を生かすためには、生成系AIと協調していかなくてはならない。

ニュース記事を生み出す生成系AI

さらに、ここ数年で記事執筆に生成系AIを利用する事例が生まれてきている。The Washington Postは、2016年のリオデジャネイロ五輪において、報道の一部に「Heliograf」と呼ばれるAIを使っていたことを明らかにしている。試合の結果や日程を伝える短文記事を自動で生成していたのだ。

こうした生成系AIの利用は、人間の記者や編集者を置き換えるものではない。結果速報や試合日程といった定型の記事を公開する手間を省くことで、詳細な解説や分析のある記事を執筆する時間を作り出し、その創造性を生かすことを目的としている。

日本でも、例えば、日本経済新聞社、言語理解研究所、東京大学松尾研究室が共同研究を進め、完全自動の「決算サマリー」をリリースしている。これは、上場企業が発表する決算データを記事化し、配信するサービスである。「日本経済新聞 電子版」や「日経テレコン」などでコンテンツを公開している。

また中部経済新聞は、2016年に創刊70周年を迎えるに当たり、AIが生成した記念記事を掲載している。このAIはデータセクションが技術提供を行っている。

こうした流れの中で、生成系AIの精度が飛躍的に向上してきたという話もある。AIを研究する非営利団体のOpenAIが「GPT2」と呼ばれる文章自動生成システムを開発した。ところが、GPT2は非常に優れているため、悪用された場合のリスクを鑑みて、技術的な詳細の論文公開を延期している。実際の性能はこちらの動画で公開されている。Brexitに関する記事を作成するに当たり、人間が最初の数行を入力するだけで、あとはGPT2が文章を自動生成してくれるのだ。

もちろん、こうした技術が悪用されればフェイクニュースや情報操作のまん延など、社会に大きなダメージを与えるものになるかもしれない。一方で、これらの技術を日常の業務や生活に応用することができれば、非常に効果的なツールになっていくだろう。