【no.232】動画ニュース伝える「AIキャスター」登場 中国新華社通信

動画ニュース伝える「AIキャスター」登場 中国新華社通信

香港(CNN Business) 中国の国営新華社通信がこのほど、人工知能(AI)技術を生かした、世界で初めてとするバーチャルの「ニュースキャスター」を披露した。

中国東部の烏鎮市で開いたインターネットの会議で紹介した。異なるキャスターが中国語と英語で対応するもので、1日24時間、ニュース原稿を読み上げることが可能としている。

新華社は、人間のプロのキャスターのような状態で原稿を読み上げることが可能と誇示している。英語版のキャスターはスーツにネクタイ姿で登場。冒頭部分では、「こんにちは。英語ニュースです。私は北京のAIキャスターです」とロボットを思わせる声で自己紹介した。

容姿は新華社に実在するキャスターに似せている。「最新ニュースを届けるため疲れ知らずで働くことが出来る。原稿は途切れることなく私のシステムに送り込まれる」などとも述べた。

同じく新華社に実在するキャスターを想定した中国版担当の別のAIキャスターも披露された。

AIキャスターは新華社と中国のインターネット検索大手「Sogou(捜狗)」が開発。人間に似た声、顔の表情やしぐさを表現出来るとしている。

AIキャスターによる動画ニュースは、新華社の公式サイトやソーシャルメディア上で視聴が可能。ニュース報道に要する経費削減や効率性の向上につながると期待している。

ただ、中国の国営テレビ局が将来的な利用に備えAIキャスターの導入に関心を抱いているのかどうかには触れなかった。

中国のツイッター「微博(ウェイボー)」での反応を見た限り、AIキャスターの能力を評価するものばかりではない。「声が非常に堅苦しいし、間合いに難点がある」などの書き込みがあった。

いきなり評価が高いわけではなさそうですが、インパクトがすごいですね。
これからの活躍に期待です。
次回の更新も楽しみにしていただけますと幸いです!

【no.231】「使いたい時にない」改善へ ドコモ、シェア自転車再配置にAI活用 都内で実験

「使いたい時にない」改善へ ドコモ、シェア自転車再配置にAI活用 都内で実験

NTTドコモと子会社のドコモ・バイクシェアは11月8日、ディープラーニング(深層学習)など人工知能(AI)技術を活用した需要予測データを基に、バイクシェアで提供する自転車の最適な再配置を行う実証実験を、26日から都内(千代田区・港区・新宿区)で行うと発表した。自転車の利用実績データや気象データなどを解析した上で需要予測に基づいた再配置を行い、「ユーザーが自転車を利用したいときにサイクルポートに自転車がない」といった状況の改善を目指す。

ドコモの携帯電話ネットワークを活用して作られた人口統計情報や、利用実績データ、気象データ、周辺施設データなどを組み合わせ、深層学習などのAI技術を適用することで、自転車の貸出・返却需要を予測する「シェアリング交通需要予測モデル」を作成。各サイクルポートで利用可能な自転車の台数を、12時間後までの1時間ごとに予測する。

その上で、自転車が必要以上に残っているサイクルポートと、自転車が足りないサイクルポートの数を最小限に抑えるための再配置計画を生成。再配置の作業を行う人にタブレット端末などで伝える。

同技術を実用化することにより、使いたい時にサイクルポートに自転車がないという状況の改善を目指す。また将来は、他の地域での実績データを追加することで、さまざまなエリアでのサービス提供を目指すとしている。

ドコモ・バイクシェアのサービスの利用回数は、2011年度の開始時点では年間4万回程度だったが、17年度には470万回と急増している。都内のサイクルポートは18年10月末で約580カ所、自転車台数は約5900台にまで増えており、自転車の配置数を適正な状態に維持するためのノウハウを持った再配置作業者の不足が課題になっているという。

急増したニーズに応えるため、適切な配置が実現されるとユーザも企業側もありがたいですね。
次回の更新も楽しみにしていただけますと幸いです!

 

【no.230】だいこう証券ビジネス、AIで「見せ玉」検知

だいこう証券ビジネス、AIで「見せ玉」検知

だいこう証券ビジネスは人工知能(AI)を活用した株式の売買審査について、東京大学と特許出願した。売買を成約させるつもりがないのに大量の注文を出す「見せ玉」を効率的に検出できるという。新たなサービスとして将来的に証券会社への納入を目指す。

現在のAIを使った株式の売買審査では、東証などが定める数値基準で絞り込まれた案件について、AIが不正かどうかを判断する。

同社がAI活用のノウハウを持つ東大の松尾豊研究室と共同研究してきたAI技術は、市場の取引データそのものから不正を自動で検知する。このため「不正の疑いのある取引の検出漏れ」や「疑いのない取引の混入」を防ぎ、全体として審査の効率化につながるという。

検知系のサービスは教師データが大量に用意できる背景からか
新しいものがどんどん出てきますね。あらゆる業界で浸透していきそうです。
次回の更新も楽しみにしていただけますと幸いです!

 

【no.229】偽の盗難届を80%以上の精度で見破るAIシステム「VeriPol」–スペインの警察が導入

偽の盗難届を80%以上の精度で見破るAIシステム「VeriPol」–スペインの警察が導入

スペイン全土の法執行機関に、偽の被害届や盗難届を見つけることができる人工知能(AI)システムが導入された。

イギリスのカーディフ大学とスペインのマドリード・カルロス3世大学の研究者が共同開発したAIシステムは「VeriPol」という名称で、自動テキスト解析と機械学習を用いて、虚偽の申告を判別する。
コンピュータ科学者によると、VeriPolは虚偽の盗難届を「80%以上の精度で」判別できるという。

虚偽の申告を行うこと自体が刑事犯罪になる場合があるが、盗難などの問題に関して言えば、盗難保険業者から保険契約に則って不正に利益を得るために届け出が出されることがある。

法執行機関は予算と人員に限りがある場合が多く、疑わしい申告を虚偽だと証明するのは困難だ。その作業にかかる時間とリソースを見つけることも同様に難しい。

VeriPolは書面による申告書を解析し、偽の申告と最も多く関連しているパターンを見極めるという。例えば、盗まれたと申告されている物の種類、攻撃者と思われる人物に関する記述、事件の「細かな点」などのパターンを見極めると、研究者チームは述べている。

虚偽の申告を示す根拠になり得るものとして、事件そのものよりも盗まれた物に焦点が当てられていること、詳細が不足しているため本当の記憶に基づいた申告ではないと示唆されること、犯人に関する詳細が限られていること、目撃者がいないこと、申告者が警察や医療機関にすぐに出向かないことなどが挙げられる。

「iPhone」やサムスン電子のスマートフォンなどのハイエンドテクノロジ製品は虚偽の被害届に関連する場合が多い一方で、宝飾品類や自転車は本当の盗難事件と関連がある場合が多いという。

VeriPolには、自然言語処理と呼ばれる、人工システムが人間の言語の自然な使い方を理解し解釈する機械学習テクノロジの要素が用いられている。 VeriPolは自然言語処理のアルゴリズムを用いて人間の言語を解読し、システムに供給された警察の過去の調書に基づいて事象を判別する。

このツールは、警察補助員がリソースを割くのに最も良い場所やさらなる捜査を行う時期を決断するうえで役立つ可能性があると、研究者は考えている。同様に、VeriPolは一般市民が偽の申告をするのをはなから思いとどまらせ、警察が時間と資金を節約できるようになる可能性もある。

VeriPolはスペインの法執行機関で展開されている。スペイン国家警察がVeriPolの試用を行った際、1000を超える調書が精査され、虚偽の届け出を10件中8件の割合で見つけることができたという。

「この研究は、どのように人々が警察に嘘をつくかということに対する興味深い洞察を提供してくれた。さらに今後そういったことをする人たちを思いとどまらせるのに使用できるツールを開発することができた」と、この研究の共著者であるCamacho-Collados博士は述べた。「結局のところ、われわれは自動判別が可能だと示すことによって、人々が警察にうそをつくのをはなから思いとどまるようになることを望んでいる」(同博士)。

予算と人員リソースの確保に活躍してくれそうですね。文章の判断については色んな業界で活用できそうです。
次回の更新も楽しみにして頂けますと幸いです!

【no.228】AI作の絵画、4800万円で落札

AI作の絵画、4800万円で落札

米競売大手クリスティーズは、人工知能(AI)技術で描かれた絵画が43万2500ドル(約4800万円)で落札されたと発表した。同社によると、「アルゴリズム」(計算手法)と呼ばれるAIの関連技術で制作された芸術作品の競売は世界初。競売は9月25日に実施され、予想価格の約45倍の高額落札という。

黒いコートを着た男性像で、表情はぼやけている。絵の右下には、署名の代わりに数式が記してある。

手掛けたのはパリ拠点の芸術集団「オブビアス」。コンピューターに14~20世紀に描かれた1万5000枚の肖像画を取り込み分析したところ、自動的に絵を描くことができるようになったという。(共同)

人工知能が描いた絵画がこうして高額で取引される時代がきたんですね。。
次回の更新も楽しみにしていただけますと幸いです!

【no.227】企業内のコミュニケーションにVRやAIを活用する実証実験を実施

企業内のコミュニケーションにVRやAIを活用する実証実験を実施

NECとNECマネジメントパートナーは2018年10月24日、企業内のコミュニケーションにVR(仮想現実)やAI(人工知能)を活用する実証実験を2018年10月~2019年3月に実施すると発表した。

今回の実証実験では、VRやAIを活用した会議を通じて、企業内におけるコミュニケーションおよび新たな会議スタイルを検証する。その後、「法人VRソリューション」における新コンテンツとして、2019年度の提供を目指す。

具体的には、NECマネジメントパートナーのリモート会議、プロモーション企画会議、現場革新ワークショップ、サービス審議会など、さまざまな業務において本ソリューションを活用する。

VRを活用した会議では、展示会のレイアウト設計や現場説明などを360度画像を使って仮想的に体験でき、臨場感を持ったプレゼンテーションと議論が可能になる。また、AIやチャットボットをアバターとして会議に参加させ、アシスタントとして活用。事務的な作業をAIに依頼し、人とAIが対話をしながら協働することが可能だ。さらに、VR会議空間内で話した内容をテキストに変換し、キャプションとして表示。ONとOFFを切り替え、難聴者でも同じ情報量で公平なコミュニケーションができる。

どのような実験になるのか楽しみですね。事務的な仕事をAIが会議中にサクサクやってくれるというのは議論に集中できていいですね。

次回の更新も楽しみにして頂けますと幸いです!

【no.226】女子高生AI「りんな」とLINEで音声通話可能に ハロウィーン限定の「怖い体験」も

女子高生AI「りんな」とLINEで音声通話可能に ハロウィーン限定の「怖い体験」も

日本マイクロソフトは10月31日、女子高生AI「りんな」と音声通話できるサービス「りんなと音声通話」の提供を始めた。りんなの公式LINEアカウントと「友だち」になると、音声でりんなと恋愛相談や雑談を楽しめる。

りんなは、日本マイクロソフトが開発したソーシャルチャットbot。LINEやTwitterの公式アカウントに話し掛けると“女子高生っぽい”答えを返してくれる。一般的なチャットbotと違い、ユーザーとの会話を踏まえた返答をリアルタイムで生成し、より長く会話を続けられるという。機械学習を使った合成音声で歌ったりしゃべったりすることも可能だ。

LINEのトークルームで「恋愛相談」「通話しよう」などと送り、返ってきた画像をタップすると、りんな宛に通話を発信できる。10月31日限定で「ハロウィーン仕様のちょっと怖い体験」も用意。「ハロウィンの話が聞きたいな」などと送れば体験できる。

日本マイクロソフトは2月にも、Webサイト「りんなライブ」で、りんなと音声会話できるサービスを公開していた。

AIのチャットサービスの中では国内で有名な立ち位置になったりんな、さらなる進化が楽しみですね。
次回の更新も楽しみにしていただけますと幸いです!

 

【no.225】ザトウクジラの生態把握のためAIでクジラの「声」を聴くGoogleの取り組みが進行中

ザトウクジラの生態把握のためAIでクジラの「声」を聴くGoogleの取り組みが進行中

YouTubeを字幕付きで再生していると「拍手」や「歓声」といったキャプションが表示されることに気付くことも多いはず。これは、人間のスタッフが人力で入力しているのではなく、ムービーに含まれる音声を畳み込みニューラルネットワークを使ったAIに解析させることで何の音なのかを判断させているものです。Googleが開発を進めているAIは音声ではない環境音の中身を判断できるようになってきているのですが、今この技術は、ザトウクジラなど自然動物の保護のためにも役立てられるようになっています。

「AIを社会のために」というターゲットを掲げるGoogleのAI関連プログラム「AI for Social Good」の一環としてGoogleは、アメリカ海洋大気庁(NOAA)の一機関である「Pacific Islands Fisheries Science Center (PIFSC:太平洋諸島漁業科学センター)」とのパートナー関係を結び、ザトウクジラの生態把握のために畳み込みニューラルネットワークを利用する取り組みを進めています。

NOAAは太平洋の12カ所にパッシブ音響モニタリング装置(ハイドロフォン)を設置して、海中の音を記録しています。ハイドロフォンは、太平洋のサイパンやハワイのコナなど、特定のザトウクジラの繁殖地および越冬地となる地点に設置されており、繁殖イベントなどの際に交わされるザトウクジラの「声」を収録するようになっています。

音声データは、高サンプリング周波数で音声を高品質に記録するHARP(高周波音響記録パッケージ)と呼ばれる装置で記録されています。ザトウクジラの声の主な要素は100Hzから2kHzに集中しているため、解析にあたってはサンプリング周波数を200kHzから10kHzにまで落とす処理が行われたとのこと。しかしそれでもなお、データの総容量は9.2テラバイト(TB)にも達したそうです。

音声データを周波数の高さに分けて表示するスペクトログラムに変換すると、データの中にはザトウクジラの音声(左)に加えて正体不明のノイズ(中)や、HARPのHDDから発されるノイズ(右)などが含まれていたとのこと。解析の際には、画像クラシフィケーション用の畳み込みニューラルネットワークであるResNet-50を用い、各種ノイズを除去して目的のザトウクジラの音声を抜き出す処理が行われます。

音の周波数が一定だった場合、その音はザトウクジラのものではなく、何らかの機械や近くを通る船などから出るノイズであると推測されます。Googleは、元の音声(下図上部)に対してper-channel energy normalization(PCEN)と呼ばれる手法を用いることでノイズ除去処理を行い、ザトウクジラの声だけを高精度に抜き出しすことに成功したとのこと(下図下部)。

PCENに並行して、より長い時間軸のデータを解析することでザトウクジラの音声をより正確に抽出することにも成功しているとのこと。これらの手法を用いることで、Googleは音声データの中にザトウクジラの声が含まれているかどうかを90%の確率で判定することが可能になったそうです。複数のコーパス(データセット)を用い、それぞれのHARPで記録されたデータの位置関係をもとにザトウクジラの位置を高精度で予測することが可能になったとのこと。

このようにして、チームではザトウクジラがどの時期にどのエリアで多く活動しているのかを精細に把握することを可能にしました。以下のグラフはその例の一つで、縦軸が年、横軸が月で、円の大きさが検出回数、青がコナでの検知、赤がサイパンでの検知を示しています。円の大きさは一定のパターンを示しているようにも見え、1年のどの時期にどのエリアで多くザトウクジラの音声を収録していたのかが示されています。

15年分に及ぶ膨大なデータを人力で解析することは事実上不可能といえ、その処理を畳み込みニューラルネットワークを使ったAIが担うことで自然動物の生態把握の手助けをできるようになるという例が示されました。今後も、AIを使ったビッグデータの解析とデータマイニングはさらに加速していくことが予想されます。

音声認識が発達していき、動物の声が判別できるようになっていくというのは
興味深い内容ですね。。次回の更新も楽しみにしていただけますと幸いです!

【no.224】日常会話から「うつ病を見抜くAI」が登場 精度は80%超え

日常会話から「うつ病を見抜くAI」が登場 精度は80%超え

うつ病の兆候を日常会話の中からでも検出できる人工知能(AI)が開発された。

米マサチューセッツ工科大学(MIT)の研究チームは、人々の会話テキストと音声データを分析し、うつ病の兆候がある言語パターンを発見するニューラルネットワークモデルを開発した発表した。

これまで、うつ病の兆候を発見するためには医師が患者をインタビューする過程が必要だった。医師は来院した人々に、「過去に精神疾患を患ったことがあるか」「生活習慣はどうか」など複数の質問を投げかけ、それに対する回答で症状を診断してきた。

そのような作業を代替、もしくは効率化するための人工知能はこれまでも開発されてきたが、予め決められた質問に対する反応で分析を行うパターンがほとんどで、想定外の質問だと診断精度が落ちてしまうという課題があった。

一方、今回開発されたモデルは、全く新しいトピックおよび質問、また回答でも、患者がうつ病の兆候があるか否か正確に予測できるという。質問と回答の種類に制約がない、つまり自然な日常会話から、うつ病の兆候を検出することができるということになる。

研究を牽引するTuka Alhanai博士は、「人の心理状態が最初に反映されるのは日常会話」とし、症状の早期発見のために研究対象としたことを強調している。

MITの研究者たちは音声処理に使用する技術を使って、うつ病患者とそうでない人々の言語パターンを抽出した。結果、うつ病患者が使用する「Sad」「Down」「low」などの言葉が、平坦で単調な音声信号と関連していることを発見した。また、うつ病を患っている日は、話すスピードが遅かったり、単語間の間隔が遠ざかるなど、健康な人とは異なる言語パターンを示したという。

研究チームは、人工知能の学習のために142件の診断データを利用。うつ病診断精度は71%に達し、再テストを行った場合は精度が83%まで上昇したという。

研究チームはテキストと音声から情報を読み取り、人々にアラートを送ることができるアプリの開発も構想している。Alhanai博士は、「今後はうつ病だけでなく、認知症など他の健康状態を検査できる方法を開発できるだろう」と研究成果の応用の可能性についても語っている。

これは、このサービス自体も凄いですが、どのようなパターンがうつにつながりやすいのか、という情報も気になりますね。
次回の更新も楽しみにして頂けますと幸いです!

【no.223】AI画像認識「Google Lens」がGoogle画像検索に統合。検索した画像内のオブジェクト認識し関連情報を紹介

AI画像認識「Google Lens」がGoogle画像検索に統合。検索した画像内のオブジェクト認識し関連情報を紹介

Googleが、写真内に写るものを認識しその情報を検索するAI機能「Google Lens」をGoogleモバイルアプリの画像検索に統合しました。記事執筆時点では米国内のみの対応ですが、将来的にはワールドワイドで展開していく予定です。
Google Lensは、写真や映像イメージ内にあるオブジェクトを認識し、それぞれに関する情報を検索表示することを可能とします。すでにAndroid/iOS版Googleアプリには導入されており、スマートフォンのカメラで撮影した写真からオブジェクト認識をすることが可能になっています。

今回Googleは、新たにGoogle画像検索でGoogle Lensを利用可能としました。使い方は、まずGoogleモバイルアプリでGoogle検索を表示し、画像検索タブからなにか好きなキーワードを検索します。

たとえばリビングルームの画像を検索した場合は、検索結果の写真が表示されるので、その中で気に入ったひとつをタップします。
すると共有オプションのアイコンの左側に新しいGoogle Lensのアイコンが表示されているので、それをタップ。するとリビングルームの画像内の認識済みオブジェクトに白い点が割り振られるので、その中から調べたいものを選びタップします。

ここで、たとえばソファーをタップすれば、再び画面下にそのソファーとよく似た色や形状のものが検索され、一覧表示されるという具合です。

調べたいものは複数同時に(囲うようにフリック)選択することも可能。検索結果には主に購入可能な商品リストが表示されるようなので、まるでインターネット画像検索がそのまま通販カタログ化したような感覚になるかもしれません。しかし、写真の中から欲しいものをすぐに手に入れたい、という人にはかなり重宝しそうです。

Googleは、今後数か月以内にランドマークや動物、植物などさらに多くのオブジェクトを認識、情報を表示できるようになるとしています。商品でないものも認識するようになれば、通販カタログ感は薄れるであろうものの、いまよりさらに幅広い使い方が可能になって行くはずです。

冒頭にも記したとおり、この機能はまだ米国内限定で英語のみのサポートにとどまっています。しかし将来的には多くの国と言語をサポートする計画です。

写真検索から、購買までのプロセスが短くなっていきそうな
新しい取り組みですね。日本国内での開始が楽しみです。
次回の更新も楽しみにしていただけますと幸いです!