【no.247】AI画像認識の「Googleレンズ」、iOS版Googleアプリにも搭載

AI画像認識の「Googleレンズ」、iOS版Googleアプリにも搭載

Googleは米国時間12月10日、人工知能(AI)による画像認識を応用した高度な検索機能「Googleレンズ」を「iOS」ユーザーにも提供開始すると発表した。「Android」向けには3月に公開されたGoogleレンズは、iOSではこれまで「Googleフォト」アプリでしか使えなかった。

それが今回、「iPhone」と「iPad」でも、写真を撮影してカメラロールからこの機能を使うのではなく、「Google」アプリの検索バー内に表示されるGoogleレンズのアイコンをタップできるようになった。

Googleレンズは画像内のテキストを認識することが可能で、単語を調べたり、メールアドレスを保存したり、電話番号を読み取って発信したりできる。また、買い物の検索にも役立つものとなっている。

使い方は簡単で、検索バーの右側、マイクアイコンの隣にあるGoogleレンズの四角いアイコンをタップするだけだ。すると、iPhoneのカメラが起動し、ユーザーが詳しい情報を知りたがっていると推測されるアイテムの上に青いドットを表示する。

オブジェクトやテキストをタップすると、画像の下に、Googleのほかのアプリと似た「カード」に検索結果が表示される。

Googleレンズの機能を最初に使えるようになったのはAndroidユーザーで、特に「Pixel」スマートフォンの所有者には真っ先に提供された。Googleはその後、ほかのデバイスにも徐々に提供範囲を広げている。

Googleレンズ、使用はどの程度普及していくのでしょうか。
今後が楽しみなサービスですね。
次回の更新も楽しみにして頂けますと幸いです!

【no.246】ついにきた。AIによる万引き防犯システム「VAAKEYE(バークアイ)」が容疑者逮捕に貢献

ついにきた。AIによる万引き防犯システム「VAAKEYE(バークアイ)」が容疑者逮捕に貢献

日本のスタートアップ株式会社VAAKが開発した「VAAKEYE」が、大手小売店で実証実験中の防犯カメラ映像を解析し、万引き犯の決定的な犯罪行為情報を自動検知しました。

VAAKEYEで自動検知した防犯カメラの映像情報を警察に提供したところ、12月6日に当該万引き犯の逮捕に至ったと発表しています。

今までの万引き防止システムは、万引き犯の複雑な行動までの認識は難しかったといいます。

しかし、AIによる映像解析で、人間の詳細行動の検知を可能とする技術を強みとするVAAKは、人間の歩幅や関節の動きなどを分析し、いつ、どこで、どのような身体的特徴を持った人が、どのように万引きをしたかまでを自動検知することに成功しています。

今回の事例で活躍したVAAKEYEに使われているAIは、物体認識から顔認識、統合的な分析手法まで、すべてVAAKが内製で開発しています。

では、AIによる行動解析で高い精度を出しているVAAKは、具体的にどのようなデータをもとに万引き犯の決定的な犯罪行為情報を自動検知しているのでしょうか?

Ledge.aiが過去におこなったVAAKのインタビューによれば、下記のような100以上のポイントをAIが分析し、不審行動や危険行動をリアルタイムで検知しています。

ミクロ視点のデータ
属性(性別や年齢)
商品
環境(周りに人がいるかどうか)
動き
マクロ視点のデータ
時間
天候
店舗
地域
2017年11月の設立以来、VAAKEYEの実証実験を進めてきたVAAKは、10日間の映像から7件の万引き犯を自動検知。万引きによる商品ロスも、導入前と比較して75%以上削減された実績などをあげています。

VAAKは今後、万引き防止システム「VAAKEYE」を通じて、犯罪行為の予測、犯罪行為の早期対応、また、警察との連携をおこなっていくとのこと。

今回の事例のように、AIの導入によるメリットは業務効率化だけではなく、社会貢献にまで繋がってきているように思います。AI搭載のシステムによる、今後のより安全な社会づくりに期待です。
次回の更新も楽しみにして頂けますと幸いです!

【no.244】ピザハット、表情解析技術を用いた「おいしさAI解析CM」を公開 12月1日から全国で順次オンエア

ピザハット、表情解析技術を用いた「おいしさAI解析CM」を公開 12月1日から全国で順次オンエア

ピザハットは、食べている人の表情をAI(人工知能)で解析して「しあわせ指数」を計測したCM「おいしさAI解析CM」を12月1日(土)より全国で順次オンエアすることを発表した。新CMは本日からピザハット特設サイトで閲覧可能。

今回のCMでは、株式会社シーエーシー(CAC)の開発した動画による表情分析サービス『心 sensor(ココロセンサー)』を使用し、CM撮影中にピザハットのピザを食べている出演者たちの「しあわせ指数」を計測。

事前に美味しいものと、おいしくないものを食べた時の表情を『心 sensor』を使用して計測・比較した上で、真の感情を表す「微表情」を分析・活用する「認定FACSコーダー」と清水建二氏の協力の下、おいしいものを食べているときの幸せ感を「しあわせ指数」として指標化したという。

『心 sensor』は、動画に映る人物の表情を感情認識AIで分析するアプリケーション。世界87ヵ国以上から収集された約700万人の顔画像というビッグデータを基に開発されたAffectiva社のソフトウェア「Affdex SDK」を利用し、CACが開発したサービスで、34のフェイスポイントの動きを基に、21種類の表情認識、7種類の感情認識、2種類の特殊指標(①ポジティブ/ネガティブ ②表情の豊かさ)等の分析を行うことが可能。

推測といえど、顔の表情から感情が読み取れるというのは新しいですね。
次回の更新も楽しみにして頂けますと幸いです!

【no.243】3分でわかる 顔認識AI

3分でわかる 顔認識AI

画像や動画の中から人の顔だけを抜き出し、本人を特定したり、性別や年代、感情などを推定したりする人工知能(AI)技術のこと。監視カメラと連動するほか、米アマゾン・ウェブ・サービス(AWS)や米マイクロソフト、米グーグルといった主要なクラウド事業者がサービスを提供しており、最も実用化が進んでいるAIの1つとして日本でも普及し始めている。

例えば、音楽ライブの来場者の性別や年代、感情を数値化するシステムの開発が進んでいる。音楽と映像事業を手掛けるエイベックスによると「これまでライブの盛り上がりや来場者の属性は肌感覚でしか捉えられなかった。リアルな空間で生の顏データを収集して分析できるのは、ビジネス面でとても有益だ」という。得られたデータを分析してミュージシャンのプロモーションを見直したり、ライブの曲順や演出を変えたりすることが可能になる。

小売店でも、来店客の人数や属性、感情を認識するシステムを導入する動きが出てきている。顔認識AIを使ってデータを収集して分析することで、リアル店舗でありながら、EC(電子商取引)サイトのように、入店率(店舗の前を通過した人の何パーセントが実際に店舗に入ったか)や購買率(入店した人の何パーセントが商品を購入したか)を把握できるようになる。2つの施策を比較検討するA/Bテストなどで新たな気付きを得るなど、業務の効率化にも生かせる。

顔認識AIと鏡を組み合わせた、ターゲティング広告配信システムも登場している。鏡の前に立った人の表情をAIが解析し、感情やその人の状態に合わせた広告を表示する。疲れている人には栄養ドリンクの広告を、悲しそうな表情をしていれば思い切り泣ける映画の広告を表示するといった具合だ。

顔認識AIを利用する際には、AIが学習していく顔データの質が重要になる。一般に顔認識AIでは、両目を認識できる顔の正面画像が「教師データ」として最も適しているといわれている。そのため、事前に画像の向きや明るさ、色などを補正して、AIが認識しやすいデータに加工しておく必要がある。顔認識AIと鏡を組み合わせると、自然に対象者の正面画像を取得しやすくなる。

日本人は年代が、実年齢よりも若く判定されやすい点に留意する必要もある。対象者の年代や感情は機械学習で判別している。学習に利用した顔データに外国人が含まれていると、幼く見える人や化粧をした女性は実際の年齢よりも、特に若く判定されやすい。結果は本人とズレがあり得ることを踏まえて利用する必要がある。

大量の教師データの存在がAIの判断の正確性に大きく寄与するという事ですね。
パターンの数が大きくなればなるほど多くのパターンに対処できるようになります。

次回の更新も楽しみにして頂けますと幸いです!

【no.242】日本野球機構、AIを使って試合写真に選手名を自動でタグ付け、MicrosoftのAIを利用

日本野球機構、AIを使って試合写真に選手名を自動でタグ付け、MicrosoftのAIを利用

本プロ野球のセントラル・リーグとパシフィック・リーグを統括するNPBは、各球団が所有する写真資産を一元的に管理するNPB CICサービスを提供している。各球団の外部への写真貸出・請求管理なども、業務サポートの一環として行っている。

写真の貸出にあたっては、写真利用者が検索しやすいように各写真に写っている選手を特定し、タグ付けしておく必要がある。これまでは、多い時ではプロ野球1試合あたり3000枚の写真の中から300枚程度の写真を選別し、各球団関係者が試合終了後約4時間かけ、マニュアルで選手の特定と選手名のタグ付けを行ってきた。

今回、AIを使って写真に選手名を自動でタグ付けできるようにした。写真解析には、学習済みAIである「Microsoft Cognitive Services」およびディープラーニングのフレームワーク「Microsoft Cognitive Toolkit」を採用した。Microsoft Cognitive Servicesの「Face API」を活用して顔を認識し、Microsoft Cognitive Toolkitで作成した独自判定モデルを組み合わせた。

今回開発したAIを使うと、選手の顔が写っていない斜めや横から撮影した写真であっても、「打撃」、「投球」、「守備」、「走塁」の4つのシーンを分類したり、選手名を推定したりできる。さらに、「Azure Durable Functions」を活用して処理を高速化していることで、マニュアルによる最終的な確認作業も含めて30分程度で処理を完了できるようにした。

NPB CICは、富士フイルムイメージングシステムズのクラウド型ファイル管理・共有サービス「IMAGE WORKS」を基盤として利用している。AIを用いた写真画像へのタグ付け機能は、IMAGE WORKS全体で利用できる。今後は、プロ野球だけでなく他の野球団体や野球以外のスポーツでの本機能の利用、一般企業のコンテンツ活用への展開、さらにビデオ分析機能「Azure Video Indexer」を活用した動画解析なども視野に入れている。

日本マイクロソフトは、研究開発機関である米Microsoft Researchが開発したニューラルネットワークモデル「ResNet」を提供するとともに、IMAGE WORKSの開発元である富士フイルムソフトウエアと複数回にわたりハッカソンを開催し、検証を重ねてきた。これにより、選手名の推定精度を認識率90%以上まで高めた。

毎試合ごとに4時間もかけて選別作業が行われていたというのも知らなかったですが、画像識別の技術は各産業で応用されていますね。
次回の更新も楽しみにして頂けますと幸いです!

【no.241】歩行者の行動を予測、トヨタが期待する最新AI

歩行者の行動を予測、トヨタが期待する最新AI

トヨタ自動車と現代自動車というアジアを代表する自動車メーカーが出資する、AI(人工知能)のスタートアップ企業が米ボストンにある。米パーセプティブ・オートマタ(Perceptive Automata)だ。創業者兼CEO(最高経営責任者)のシド・ミスラ(Sid Misra)氏は「我々のAIは、車載カメラの画像から歩行者の意図を理解できる」と語る。

パーセプティブ・オートマタは2018年10月9日(米国時間)、ベンチャーキャピタル(VC)の米ジャズ・ベンチャー・パートナーズ(JAZZ Venture Partners)などから1600万ドル(約18億円)の資金を調達したと発表した。2015年に米ハーバード大学の研究者グループが大学からスピンアウトして創業した同社は、これで通算2000万ドルの資金を調達したことになる。

今回の資金調達には、トヨタが米シリコンバレーに設けるAI専門のコーポレート・ベンチャー・キャピタルである米トヨタAIベンチャーズや現代自動車、米ウーバーテクノロジーズ(Uber Technologies)の最初期に投資したことで知られるVCの米ファースト・ラウンド・キャピタル(First Round Capital)なども参加する。パーセプティブ・オートマタは、自動車業界の期待を集めるAIスタートアップの1社なのだ。

歩行者が動いていなくても、道路を渡るかどうかを判断
パーセプティブ・オートマタは自動運転車やADAS(先進運転支援システム)に搭載することを想定した、歩行者の意図(次の動作)を理解できるAIを開発している。車載カメラがクルマの前方にいる歩行者や自転車を捉えると、AIがそれぞれ「道路を横切ろうとしているか否か」「クルマの存在に気づいているか否か」を瞬時に判断する。判定に要する時間は、数十ミリ秒と非常に短い。歩行者や自転車に危険が及びそうであれば、クルマを減速させたり停止させたりする指示を出す。

「歩行者が動いていなくても、道路を横切ろうとしているのかを判断できる」。ミスラCEOは同社のAIの特徴をそう語る。例えば、横断歩道でのシーン。歩行者が立ち止まってクルマを凝視していれば、AIは歩行者が横断歩道を渡ろうとしていると判断する。一方で、同じように交差点で立ち止まっている歩行者でも、クルマとは別の方向を見ていれば、渡る気はないと判断するわけだ。

では、歩行者の体は横断歩道の方に向かっているが、顔は歩行者の後ろの方を向いている場合はどうか。「AIはこの歩行者が、自分の後ろにいる同行者に『早く横断歩道を渡ろうよ』と呼びかけていると判断。同行者と一緒に横断歩道を渡ろうとしていると判定する」(ミスラCEO)。

それでは横断歩道がない道路の脇に立っている歩行者は道路を渡ろうとしているのか、それともタクシーを探しているのか。そうした微妙な違いも、同社のAIは見分けられるという。

車道の真ん中に人が立っていたら、どうする?
ミスラCEOが「我々のAIの優れた能力を象徴する場面」と言って紹介したのが、車道の真ん中に荷物を抱えた人が立ち止まっているケースだ。「多くの自動運転車のAIは車道の真ん中に人がいたら、(パニックを起こして)急ブレーキをかける。しかし我々のAIは『この人は駐車中のトランクから荷物を取り出したばかりであり、別のクルマが自分に近づいて来ていることには気づいている。いきなり道路を横切ったりはしない』と判断。急ブレーキはかけず、徐行するようにクルマに指示を出す」。ミスラCEOはそう語る。

人がいるからといって、気付いているのか否か、微妙な違いをAIが見分けるようになれるとは進歩ですね。より自動運転技術が近い存在になっていきそうです。
次回の更新も楽しみにして頂けますと幸いです!

【no.240】失踪者をAI顔認識でマッチング。TikTok運営企業の「人探しアプリ」がスゴイ

失踪者をAI顔認識でマッチング。TikTok運営企業の「人探しアプリ」がスゴイ

ニュースアプリの「今日頭条(Jinri Toutiao)」やショートムービーアプリ「TikTok」を運営する中国スタートアップの字節跳動(ByteDance)は、同社の尋ね人プラットフォーム「頭条尋人」にAI顔認識機能を追加すると発表した。探している人の写真をアップロードすると、登録されている身元不明者データベースから、可能性が高い人物を検索して表示するという。

Bytedanceは2016年2月に尋ね人プラットフォームを開設。中国民生部とその直轄組織の救助管理団体が保護した身元不明者約4万5000人の情報を整理し、公開している。また、警察や医療機関、メディアやボランティア組織も協力し、2万5000人の「失踪者・行方不明者」情報もデータベース化しており、中国最大の尋ね人プラットフォームに成長した。

頭条尋人の特徴は、ビッグデータとAIを駆使し、行方不明者が滞在している可能性の高い地域に向けて情報を発信することで、発見可能性を高めている。また、捜索にはTikTokも活用。探している人の情報を基に、10秒足らずのショートムービーを自動製作して配信することで、多くの人の目に触れる工夫などがされている。

今回追加する顔認識機能は、ByteDanceが2016年に開設した人工知能(AI)ラボで開発した技術。ユーザーがアップした行方不明者の画像を、届出があった身元不明者ビッグデータと照らし合わせ、可能性の高い人物の情報を提供する。同機能はByteDanceが近くリリースするアプリ内ポータル「頭条小程序(ミニプログラム)」の中で運営するという。

頭条尋人は2018年11月7日時点で、生後3カ月から101歳まで、高齢者2755人、未成年748人を含む7533人の身元特定・行方不明者発見に貢献。ByteDanceによると最速1分で不明者を発見し、1日で29人の不明者を特定したこともあるという。

そんなにも行方不明者がいるというのが驚きですが、顔認証の力が凄いですね。
次回の更新も楽しみにして頂けますと幸いです!

【no.239】写真に触れるとAIが説明、フェイスブックが新技術で示す針路

写真に触れるとAIが説明、フェイスブックが新技術で示す針路

スマートフォンに表示された写真に指で触れると、その部分が何であるかをAI(人工知能)が読み上げる。米フェイスブック(Facebook)がこのようなユーザー支援技術を開発していることを明らかにした。AIが人と人の位置関係など写真が持つコンテキスト(文脈)を、目の不自由な人に伝えられるようになった。

新しいユーザー支援技術はフェイスブックのプロダクトデザイン担当バイスプレジデントであるマーガレット・スチュワート氏が2018年11月15日(米国時間)、米サンフランシスコで開催された「New Context Conference」で公表した。日本のデジタルガレージが開催した同カンファレンスは今回、AIとデザインの関係をテーマにしていた。

フェイスブックは視覚障害者向けの取り組みとして、「Facebook」に投稿された写真の被写体をAIが読み上げる「Automatic Alternative Text」という機能を2016年4月から提供している。被写体が何かを認識する画像認識技術や写真の説明文(キャプション)を自動生成する自然言語処理技術を組み合わせて開発したものだ。

しかしスチュワート氏はこの機能について、「役には立っているが、人と人の位置関係など写真が持つコンテキストが抜け落ちていた」と指摘する。

そこでフェイスブックは写真のコンテキストもAIが理解し、それをユーザーに伝える技術を開発している。画像認識技術に加えて、画像に映った被写体の領域を識別するセグメンテーション技術や人物の表情を識別する表情認識技術、文字認識(OCR)技術を組み合わせた。

1枚の写真から今までにないほどの情報量が読み取れるようになってきたのですね。
次回の更新も楽しみにしていただけますと幸いです!

【no.237】AI「交通違反しませんでしたか?」――産業用AIサービスに必要な3つのこと

AI「交通違反しませんでしたか?」――産業用AIサービスに必要な3つのこと

昨今、中国をはじめ米国や日本など世界各国で激しい人工知能(AI)開発が繰り広げられている。ディープラーニングによるブレークスルーに伴い、第三次AIブームと騒がれるようになり、多くのサービスにAIが搭載されるようになった。

【画像】産業用AIサービスに必要な3つのこと

「ITの発達により年々計算処理能力が高まり、急速にAIの商用化が進んでいる」と語るのは、Huawei 法人向けICTソリューション事業グループ グローバルマーケティング担当プレジデントの邱恒(キュウ・コウ)氏だ。

「多くの産業でAIが求められている。AIへの投資額について、Citibankの2018年3月の調査によると、政府機関では2016年は5億ドルだったが2019年には10億ドルに、製造では2016年は9億ドルだったが2019年に40億ドルになると予想。その他の業界でも、AIに対する投資額は軒並み増えると予想されている」

AIの発達により、翻訳や顧客プロファイリング、画像認識などさまざまな機能が実現し、多くのサービスに搭載されつつある。しかし、このような既存のAIサービスでは、産業用ニーズには対応できないという。

「昨今、さまざまなAIサービスが登場している。しかし一つのAIサービスに一つのAIモデルしか搭載されておらず、サービスとしては『断片的』で、産業用としては不十分だ。複数のAIモデルを統合した、企業のニーズを満たすAIサービスはまだ登場していない」

産業用AIサービスに必要な3つの要素とは
産業用AIサービスを開発するに当たり、足りないものとは何なのだろうか。

「一般的なAIサービスには、教育用の『データ』、モデルを構築するための『コンピューティングリソース』、AIを構成する『アルゴリズム』が重要だ。一方、複数のAIモデルを統合した産業用AIサービスには、それら要素に加え、産業ごとに異なる要件を把握する『産業理解』、複雑に絡み合う複数のAIモデルを管理する『共通プラットフォーム』、AIサービスを実際に使う『活用(Huaweiでは実践という言い方)』の3要素が必要になる」

ではHuaweiは、どのように産業用AIサービスを開発しているのだろうか。

そもそも日本では、スマートフォンで名が知られるHuaweiだが、自社でAI対応IPコアのチップセットを開発し、サーバやストレージ、ネットワークといったハードウェアやクラウドサービスなどを提供している。また、これらのリソースを生かし、デジタル世界と現実世界を結び付け企業のデジタル変革を進めるAI用「デジタルプラットフォーム」を構築している。さらにHuaweiは、グローバル企業として製品の輸送といった「物流」や、部品調達などに伴う「支払い」など幅広い業務を世界各地で行う。

Huaweiは、これらの幅広い業務から得た「ノウハウ」とAI用デジタルプラットフォームを生かし、パートナーと一緒に産業用AIサービスを開発。それを自社で活用しながら、改善を繰り返すことで、最終的にはビジネスで通用するAIサービスの開発を目指している。

自社で活用する2つのAI活用事例
AIサービスとしてHuaweiが活用する業務の一つに、物流における「トラックの荷積みの効率化、コスト削減」がある。従来、トラックの荷積みでは「熟練従業員の経験」と「ソフトウェア」による予測が行われていた。そのため、従業員によって荷積みの精度にばらつきがあったという。さらに荷積みには、国や地域によってルールに違いがあったり、車種ごとの寸法によって入る荷積み量が異なったりと、考慮すべき点も多かった。

そこでHuaweiは、パートナーと協力し、現地の法規制や、コンテナのタイプ、車両種別、パレットデータなどを基に最適な荷積み方法を算出するAIサービスを開発した。

「Huaweiでは、このAIサービスを活用することで、荷積み量の予測精度が、導入前の30%から80%に上がり、1年当たりの物流コストを1000万ドル以上削減した」

またHuaweiは、請求書のリスクコントロールにAIサービスを活用する。リスクコントロールとは、請求書の不備や不正取引を判断し、「高リスクの請求書」「中~低リスクの請求書」など、リスクごとに請求書を分類することだ。

今まで人が請求書のリスクコントロールを行っていたが、時間もコストもかかる上に、誤分類が発生する可能性があった。そこで、「請求書とその請求書提出の特徴を認識するモデル」「リアルタイムで請求書違反を検出するモデル」「請求書の検査不要のリスクを特定するモデル」などの複数のAIモデルを活用し、自動でリスクコントロールを行う請求書分類AIサービスを開発した。

「このAIサービスを活用し始めてから、分類の手間が大きく減少し、作業時間を短縮できた。また検出率の改善により、高リスクと判断される請求書が増え、リスクを正確に顕在化できるようなった」

地方自治体と進めるAIサービスの活用
Huaweiでは、自社だけではなく都市の政府機関と協力して、スマートシティーの実現のために、街でもAIサービスを活用する。

例えば、AIによるリアルタイムビデオ認識を使い、交差点における交通システムを開発した。この交通システムは、中国で問題となっている「交差点で車両が歩行者に道を譲らない」という交通違反を行った車両の運転手の顔を、AIで認識し、交差点に設置されているディスプレイに掲示するものだ。またビデオに表示された、事故になる可能性の高い運転を行っている運転手をAIで識別。その結果を警察官の端末に通知するという。

「深センの46カ所にこのシステムを設置したところ、2日で1032ケースもの違反があった。またディスプレイに違反者の顔を載せる効果と、違反者への注意喚起や罰金などによって、交通違反がシステム設置前と比べて15%減った」

産業の分野に応用されると、インパクトが大きいですね。要件への深い理解は欠かせなさそうです。
次回の更新も楽しみにして頂けますと幸いです!

【no.236】キューサイ、AI活用した通販番組 電話件数27.6%増

キューサイ、AI活用した通販番組 電話件数27.6%増

健康食品を手掛けるキューサイ(福岡市)は2018年11月13日、人工知能(AI)を活用することでテレビショッピング番組放送後の問い合わせ電話件数を27.6%増加させることに成功したと発表した。AIの活用については、NTTデータとNTTデータ経営研究所の協力を得た。

キューサイとNTTデータグループが進めた取り組みはこうだ。まずキューサイが12~18年に放送した番組の映像と、それらに対する顧客の問い合わせ件数を基に、機械学習によって予測モデルを構築した。この予測モデルは、番組の映像を入力するとその番組を放映した際の問い合わせ件数を予測するものだ。

次に商品の説明順序などを変えた数千通りの番組構成案を機械的に生成。これらの構成案を予測モデルに入力し、最も問い合わせ件数が高くなると思われる番組構成案を導き出した。構成案通りに番組を制作して放送したところ、問い合わせ件数が通常時に比べて高まったという。

AIを活用して制作した番組と比較したのは、同時期に同じ放送局から放送したキューサイの2つのテレビショッピング番組。この2番組と比べ、AIを活用した番組は問い合わせ件数が平均で27.6%多かった。

今回の結果に基づき、キューサイは今後も番組や広告の制作にAIを活用するという。

過去のモデルと、数千の掛け合わせから導きだしたモデル、どんな内容だったのか気になりますね。。
次回の更新も楽しみにして頂けますと幸いです!