【no.255】問診は1時間で5400円 ヒューマンエラーを減らせる

問診は1時間で5400円 ヒューマンエラーを減らせる

「AI(人工知能)医療診断」は驚異の進化を続けている。「問診」は医師と患者という人間同士の“対話”で、AIとは縁遠い印象があるが、それもまた違っている。すでに「人間ドック」の一部にAI問診を取り入れている病院がある。

東京・大田区にあるAI和合クリニック。記者は専用のスマホアプリで予約してあるので、受付用タッチパネルで患者番号を入力すれば受付完了である。

待合室でタブレット端末を渡され、氏名、年齢、身長、体重を入力。画面に次々に現われる質問項目に、該当する選択肢を指でタッチして答えていく。

「主な症状は?」という質問の時、この診断を体験した記者は1年ほど前から左上腕にしびれを感じているので、「腕のしびれ」をチェック。すると「より詳しく聞かせてください」という画面が出てきたので、選択肢から「やや耐えがたい」を選んだ。

「どのくらい前から?」「症状が出る時間は?」「しびれもしくは違和感の現われ方について一番近いものを以下から選んで下さい」と、質問はしだいに詳細になる。

その後アレルギーの有無や過去の病気に関する質問に移り、4~5分程度で“問診”は終了した。

次は歯科検査で、歯のレントゲンを撮り、噛み合わせや歯周病など口内チェックを行なう。終了後に診察室に移り、担当医からAI問診の結果を聞く流れだ。

「AIによれば、しびれは神経の通り道が狭くなることで出てくる症状で、その少し上にある胸郭の動脈の通り道が狭くなっている可能性が考えられます。疑わしい病名としては胸郭出口症候群。頸椎症の可能性もあるという結果ですね」

重大な疾患の疑いが出れば、精密検査などを勧められることもあるという。記者の場合は、ひとまず経過観察でよいとのことだった。

次に別室で「SKY-10」という体に電圧を流す検査機器によるチェックを受け、「血管年齢は55歳で老化が進んでいる状態」などの指摘を受けた。

AI問診を含めた3つの検査がこのクリニックの「人間ドック」で、料金は5400円。所要時間は1時間ほどだった。

「AIによる補助診断のメリットは、ドクターの負担軽減と、問診でのヒューマンエラーを減らせることだと考えています」(院長の重山洋一郎氏)

また、AI問診のシステムを開発した「Ubie」の共同代表・阿部吉倫医師はこう説明する。

「問診の質問数は15~20個で、質問の種類は約3000種類、答えとなる選択肢は4000種類ほどあります。AIはアルゴリズムによって最適な質問を選び、さらに自己学習していく。例えば糖尿病患者が多いクリニックでは糖尿病関連の質問が多くなるというように、クリニックの専門性の違いも反映されていきます」

このAI問診はすでに70のクリニックと5つの病院で採用されているという。人間の医師の場合、患者が同じように答えても忙しくて掘り下げるべき質問を飛ばしてしまったり、聞き流して判断を誤ってしまうことも起こり得る。そうした事態を防ぐ手立てになることが期待されている。

すでに導入がされていたとは、どの程度効果があったのか気になりますね。
次回の更新も楽しみにして頂けますと幸いです!

【no.254】金沢のベーカリーがAIレジ、人手不足に対応

金沢のベーカリーがAIレジ、人手不足に対応

金沢市に人工知能(AI)が商品を自動認識するレジを導入したベーカリーが誕生した。「石窯パン工房VIVIR(ヴィヴィア)金沢店」で、ダイヤモンド工具製造販売のヤマトマテリアル(富山県氷見市)が運営する。店員にかかる負担を減らすことで人手不足に対応する。

同店は自家製のカレーパンや調理パン、塩パンなど約100種類のパンをそろえる。他社が開発したシステムを導入した。商品トレーをレジカウンターに置くと、カメラで撮影した画像をもとにAIがパンの種類や数を認識できる仕組みだ。

店員はカメラの撮影ボタンを押すほか、AIが商品を正しく認識しているかを確認するだけで良い。通常はレジ1台につき2人の従業員が対応していたが、会計業務が軽減されるため、1人で対応できるようになる。アルバイトが商品名や値段を覚えるなどの研修期間も短くなるとみる。

形で種別を判別できるのであれば、人がやるより圧倒的に時間の削減が出来ますね。
次回の更新も楽しみにして頂けますと幸いです!

【mo.253】人の心がわかる? アリババのAIアシスタント

【mo.253】人の心がわかる? アリババのAIアシスタント

【CNS】このほど開催された国際学術会議「NIPS(神経情報処理システム大会)」で、阿里巴巴(アリババ、Alibaba)の科学研究部門であるアリババ達磨院(DAMO)」の研究者が、宅配の分野で使われ始めた人工知能(AI)音声技術のプレゼンテーションを行った。

アリババ系物流プラットフォーム「菜鳥(Cainiao)」で使われているAI音声アシスタントは、約30秒間で、顧客に話の腰を折られたり、顧客の考えが途中で変わったり、顧客に沈黙され反応がなかったり、といった状況の中でも柔軟に対応し、配達先住所の変更手続きを完了させた。

これに先立ち、米グーグル(Google)は5月、人間に似せた音声アシスタント「デュープレックスDuplex」を発表し、顧客のレストラン予約の手伝いをするAIに業界で多くの注目を集めていた。

世界的に権威のある学術誌「MIT Technology Review」によると、アリババのプレゼンの中で起きた一幕は、人と機械の音声交流の新たな一歩となったという。

AIが顧客に「明日の朝配達で良いか」と尋ね、顧客が「朝は家にいない」と答えると、AIは直接「はい」あるいは「いいえ」と答える代わりに、隠れた人間の意図を読んで、次なる行動を取ったのだ。

同誌は「人間同士の対話の中では普遍的にあることでも、ロボットは往々にしてうまく対応できない。プレゼン効果から見ると、アリババのAI音声アシスタントはうまく対応できていた」と、アリババのAI音声技術力がすでにグーグルを追い抜いた、との評価を示した。

このほか、アリババのAI音声アシスタントは、ロボットと人間の交流の中で、言葉を「話したり聞いたり」するだけでなく、人間の語気、語調、速さを学習してまねることにより、対話の過程で人間が相手をロボットと話していると感じさせないという。5月にアリババが中国でこの技術を披露した際には、会場の観衆はまるで本物の人間と同じだと驚いたものだった。

今年の中国の「双11(独身の日)」の期間、このAI音声アシスタントは数百万人の顧客にサービスを提供した。「菜鳥」のデータによると、配達員1人は1日に約150~200個の荷物を配達し、1回の電話に30秒~1分間かかると計算すると、1日に電話だけで3時間話をしている計算だ。AI技術の活用によって、配達員の時間を短縮し、仕事の効率を高めることができるというのだ。

アリババは現在、この技術が悪用されてロボットによる詐欺行為を防止するため、使用範囲を制限しているという。

プレゼンテーションで紹介された対話の全記録は以下の通り。

AI:こんにちは。今日の午前、文一西路588のあなた宛てにZT宅配便の荷物をお届けする予定ですが、ご都合はよろしいですか?

客:どちらさんですか?

AI:私は「菜鳥」の音声アシスタントです。配達員が荷物をお送りする前に確認のため電話をしております。

客:午前中は家にいないですよ。

AI:では、荷物を受け取れる場所を教えていただけますか? 配達員に伝えますので。

客:荷物の中身は何ですか?

AI:送り状には「印刷物」と書かれています。

客:うーん。では、マンションの管理人のところに願います。…いやいや。ちょっと待って、やっぱり、うちの玄関に置いていって。

AI:玄関の前ですか?

客:…(沈黙)

AI:もしもし、どうされましたか? 玄関の前に置くということでよろしいですか?

客:OK。

客:おっと。そうだ、ZTの宅配便はもう一つあったはずだけど、今日配達できる?

AI:少々お待ちください。あなた宛てにZT宅配便の荷物がもう一つありますが、配達は明日になる予定です。

客:ありがとう、じゃあよろしく。

AI:はい、ありがとうございました。

 

単調な会話とはいえない自然なやりとりが見れますね。これが今後スタンダードに
なっていくのか楽しみですね。
次回の更新も楽しみにして頂けますと幸いです!

【no.252】AIがバナー広告を自動生成、電通が開発

AIがバナー広告を自動生成、電通が開発

電通グループ3社は、AI(人工知能)でバナー広告などのコピーを自動生成するシステム「Direct AICO」を開発し、12月20日に運用を始めたと発表した。

「Direct AICO」
2017年5月に発表した広告コピー自動生成システム「AICO」(β版)をデジタル領域に特化させ、新たに開発したもの。バナー広告やリスティング広告などの作成に役立てる。

「AICO」
同グループがリスティング広告で行った実験では、AIが過去の運用実績に基づいてコピーを生成し、クリック率を予測した上での広告運用を実現。人間が作ったコピーよりもクリック率が高かったという。

デジタル広告では短時間で大量のコピーを作成する必要があることもあり、電通は「制作者の業務負荷を緩和し、作業時間の大幅な削減に貢献する」としている。

今後は、閲覧者一人一人の嗜好(しこう)に合わせて広告を生成するような運用を目指すという。

まずはクリエイティブの数が必要、でも時間がない、、というときに非常に
有用になりそうなサービスですね。
次回の更新も楽しみにして頂けますと幸いです!

【no.251】AI搭載“介護支援ロボット”が2019年上陸!「後ろ姿でも判別」驚きの性能を聞いた

AI搭載“介護支援ロボット”が2019年上陸!「後ろ姿でも判別」驚きの性能を聞いた

深刻な人手不足が続く介護の現場に、白衣の天使ならぬ、AI仕掛けの救世主が2019年に上陸するという。
その名は、AI・機械学習機能搭載型ヒューマン支援ロボットの「アイオロス・ロボット」。

これは米・サンフランシスコを拠点に置く「アイオロス・ロボティクス」が開発したロボットで、人・顔・モノ・文字など周囲の環境や情報を学習し、「高度な物体検知能力」や「空間認識機能」などを備え、さらに「音声認識機能」があるので声で指示を出すことも可能だという。
人間の腕のような2本のロボットアームと自由に動き回る車輪を使い、様々なものを適切な保管場所に置くなど、人の生活における作業をサポートするとしている。

「アイオロス・ロボット」は2019年4月からレンタルの予約を受け付け、8月から提供する予定で、気になる価格は月15万円。
しかも、すでにロボット導入に積極的な日本企業と協力し、介護施設での業務支援の実用検証試験を開始しているという。
(※価格は税別。また為替の変動によるレンタル提供価格の変動可能性有。最低レンタル契約期間は3か月からを予定)

高齢者の移動を介助するパワーアシストスーツなどと異なり、周辺業務をサポートすることで、介護士が介護に専念できるようにする狙いだというこのロボット。
AIを搭載することでどのようなことが可能になるのか?そして、介護そのものは手伝えないのか?担当者に聞いてみた。

「顔が見えなくても後ろ姿で判別できる」
――他のロボットより「アイオロス・ロボット」が優れている点は?

弊社のアイオロス・ロボットは周囲の環境や情報を認識・学習する「AIビジョンセンサ」と、認識・計画・実行装置のすべてを内部に搭載し、アームを使ってモノをつかんだり、自律的に走行したりできます。
そして、学習したデータはクラウド上に蓄積し、ロボット間で共有してフィードバックを繰り返すことで、日々変化する環境にも適応できます。
また、与えられた命令をもとに自動的に複数地点間を移動したり、ドアを開けたり、エレベーターに乗ったり、というように自由に設置環境内で移動したり、パトロールすることができます。
他社製品ではこれら頭脳に当たる部分認識・計画部分を内装せず、無線通信によりクラウドや外部サーバーに処理を投げて結果を受け取って行動するものが多いようで、こういった場合は無線ネットワーク環境が必須になります。

――AIはどんな部分に使われているの?

『認識』
AIを用い、複数のセンサーやカメラの画像を統合的に判断し、壁や扉などの構造体、モノやまわりの人の動きをリアルタイムに認識します。
たとえば家具の位置変更を認識し、頭の中の地図を動的に更新し、スムーズかつ安全な動作に役立てています。
物については、その本来あるべき場所とともに覚えさせたり、どこをどのようにつかむべきかを判断することにAIを用います。
人についていえば、顔を立体的に認識させ、骨格と連携させて全体としての人物として記憶し、その人かどうかを判断します。
服装がかわっても、顔がみえなくても後ろ姿だけでも誰なのかを判別できる能力もあります。
人の姿勢を顔とともに同時に複数人物について認識できます。
姿勢認識により、一人ひとりの人物がどういう状態にあるかをロボットは理解しています。

月15万円、というとアシスタント的な役割と考えると十分に採算が取れるのではないかと思ってしまいますね。活躍が楽しみです。
次回の更新も楽しみにして頂けますと幸いです!

【no.250】AIが判断 “ラク家事ロボ”の実力 日本唯一ユニコーン企業が開発

AIが判断 “ラク家事ロボ”の実力 日本唯一ユニコーン企業が開発

大掃除はロボットで。そんな日も、そう遠くなさそう。

ペンは、ペン立てに。

スリッパは、向きをそろえて。

靴下は、きちんと洗濯籠に自分で選んで入れてくれる。

AIが物を認識し、形、位置などを総合的に判断し、散らかった物を片づけてくれる、全自動お片づけロボット。

このAIを開発したプリファードネットワークスは、トヨタ自動車とモビリティ分野での共同研究も進めるなど、今注目の日本唯一となる「ユニコーン企業」。

驚きの実力は、画像認識だけでなく、音声認識も。

安宅晃樹アナウンサー

「それ、こっちに入れて」

ロボ

「プラスチックのごみ箱に片づけます」

全て指示語で、指を指しただけだが、きちんと理解してくれた。

「使われておりますのは、深層学習(ディープラーニング)と呼ばれる技術をベースとした、画像認識、物体認識のアルゴリズムになりまして、1つ1つの箱とか入れ物がどこにあるか、入れ物など全て含めて300種類ぐらいの物体を認識できます」

わずか半年ほどで、できるようになったというお片づけ。

ロボット本体と、天井に4台設置されたカメラが目となり、空間内のおよそ300種類の物や位置を、いかに全てデジタル化して把握するのかが鍵となる。

例えば、なくしたものがあっても。

安宅晃樹アナウンサー

「黒のタンブラーは、どこにある?」

ロボ

「タンブラーですか。それならテーブルのそばにあります」

プリファードネットワークス エンジニア・羽鳥氏

「1個1個の物体を認識して、つかんで、動かす。それは、あらゆる家事に必要な、一番基本的な要素なんですね。洗濯物をたたんだりですとか、料理をしたりとか、いろいろ考えられるかと思うんですけれども、そういう難しい家事に対する内側の土台ができるということになります」

5年以内の実用化を目指したいという、家庭用パーソナルロボット。

少しサイズが大きいような印象はありますが、これが実現すると
近未来感がすごいですね…!
次回の更新も楽しみにしていただけますと幸いです!

【no.249】電通/AI解析で「流行キーワード」予測するシステム開発

電通/AI解析で「流行キーワード」予測するシステム開発

電通は12月17日、AIでビッグデータを解析することにより流行キーワードを予測するシステム「TREND SENSOR(β版)」を開発したと発表した。

ネット上にあふれる情報から、流行の兆しをより早く捕らえ、有効にマーケティングに活用していくことが求められている。

同社は、膨大な情報の中から人手で流行の兆しを見つけることには限界があるため、AIを活用してビッグデータを分析する今回のシステムを開発した。

同システムは、SNSの情報とマスメディアの情報を掛け合わせることで新たな流行の兆しを発見する「クロス流行伝播モデル」を採用。

昨今、SNSが流行伝播に重要な役割を果たしており、流行の発信源が必ずしもマスメディアではなくなってきている中で、2つの情報を掛け合わせることで、新たな流行伝播の様相が浮かび上がるという。

これらの分析を基に、AI開発に強みを持つ同社子会社のデータアーティストと共同で開発したAIが、アニメ・グルメ・ビジネスなど10個のカテゴリーでデモグラフィック別の流行キーワードを予測することに取り組む。

今後、クリエーティブのプランニング領域において、アイデア開発を科学的に支援するツールとしての活用を進めつつ、流行予測を活用したキャラクターコンテンツの開発やファッションなどのビジネス開発への応用を目指し、さらに研究・開発を進めていく。

web上のデータ取得と解析をすすめて、今後のトレンドや流行をいちはやくキャッチできそうですね。
次回の更新も楽しみにして頂けますと幸いです!

【no.248】ブルボン/AI活用による自販機配送ルートの最適化実験開始

ブルボン/AI活用による自販機配送ルートの最適化実験開始

ブルボンと名古屋大学発のスタートアップ企業オプティマインドは2019年1月、自動販売機「プチモール」配送ルートの最適化実証実験を行う。

同実験により、ブルボンが運営管理する自動販売機「プチモール」の日々の管理業務における配送ルートの最適化により、作業の効率化、業務の改善、働き方改革や人員不足への対応を検証、実用化を目指す。
ブルボンとオプティマインドは、2018年10月から配送ルートの最適化に向けて必要な条件設定や準備作業など共同研究を進めてきた。

オプティマインドが開発した配送ルート最適化クラウドシステム「Loogia(ルージア)」を、物流現場に導入。
「プチモール」から逐次収集する商品の販売データから算出したメンテナンスの優先度を基に、AI(人工知能)により「どの車両が、どのプチモールを、どの順に回るのか」という配送ルートを最適化提案する。

この最適化情報に基づいた業務実証により、有効性とシステムのスパイラルアップを検証する。
AIを搭載したラストワンマイル管理でルートの最適化を図ることにより、移動時間の短縮による メンテナンス精度の向上を図る。

配送の効率化は、どの業界でも課題になっている今、かなり実用的な印象ですね。次回の更新も楽しみにしていただけますと幸いです!

【no.247】AI画像認識の「Googleレンズ」、iOS版Googleアプリにも搭載

AI画像認識の「Googleレンズ」、iOS版Googleアプリにも搭載

Googleは米国時間12月10日、人工知能(AI)による画像認識を応用した高度な検索機能「Googleレンズ」を「iOS」ユーザーにも提供開始すると発表した。「Android」向けには3月に公開されたGoogleレンズは、iOSではこれまで「Googleフォト」アプリでしか使えなかった。

それが今回、「iPhone」と「iPad」でも、写真を撮影してカメラロールからこの機能を使うのではなく、「Google」アプリの検索バー内に表示されるGoogleレンズのアイコンをタップできるようになった。

Googleレンズは画像内のテキストを認識することが可能で、単語を調べたり、メールアドレスを保存したり、電話番号を読み取って発信したりできる。また、買い物の検索にも役立つものとなっている。

使い方は簡単で、検索バーの右側、マイクアイコンの隣にあるGoogleレンズの四角いアイコンをタップするだけだ。すると、iPhoneのカメラが起動し、ユーザーが詳しい情報を知りたがっていると推測されるアイテムの上に青いドットを表示する。

オブジェクトやテキストをタップすると、画像の下に、Googleのほかのアプリと似た「カード」に検索結果が表示される。

Googleレンズの機能を最初に使えるようになったのはAndroidユーザーで、特に「Pixel」スマートフォンの所有者には真っ先に提供された。Googleはその後、ほかのデバイスにも徐々に提供範囲を広げている。

Googleレンズ、使用はどの程度普及していくのでしょうか。
今後が楽しみなサービスですね。
次回の更新も楽しみにして頂けますと幸いです!

【no.244】ピザハット、表情解析技術を用いた「おいしさAI解析CM」を公開 12月1日から全国で順次オンエア

ピザハット、表情解析技術を用いた「おいしさAI解析CM」を公開 12月1日から全国で順次オンエア

ピザハットは、食べている人の表情をAI(人工知能)で解析して「しあわせ指数」を計測したCM「おいしさAI解析CM」を12月1日(土)より全国で順次オンエアすることを発表した。新CMは本日からピザハット特設サイトで閲覧可能。

今回のCMでは、株式会社シーエーシー(CAC)の開発した動画による表情分析サービス『心 sensor(ココロセンサー)』を使用し、CM撮影中にピザハットのピザを食べている出演者たちの「しあわせ指数」を計測。

事前に美味しいものと、おいしくないものを食べた時の表情を『心 sensor』を使用して計測・比較した上で、真の感情を表す「微表情」を分析・活用する「認定FACSコーダー」と清水建二氏の協力の下、おいしいものを食べているときの幸せ感を「しあわせ指数」として指標化したという。

『心 sensor』は、動画に映る人物の表情を感情認識AIで分析するアプリケーション。世界87ヵ国以上から収集された約700万人の顔画像というビッグデータを基に開発されたAffectiva社のソフトウェア「Affdex SDK」を利用し、CACが開発したサービスで、34のフェイスポイントの動きを基に、21種類の表情認識、7種類の感情認識、2種類の特殊指標(①ポジティブ/ネガティブ ②表情の豊かさ)等の分析を行うことが可能。

推測といえど、顔の表情から感情が読み取れるというのは新しいですね。
次回の更新も楽しみにして頂けますと幸いです!