【no.339】グーグルがAIと音声認識で進める「アクセシビリティ」向上の取り組み

グーグルがAIと音声認識で進める「アクセシビリティ」向上の取り組み

Googleは、人工知能(AI)と音声認識の最先端の技術を利用して、障害のある人々の生活を楽にする新しい製品やアプリを開発している。同社は米国時間5月7日、年次開発者会議「Google I/O」で、そうした取り組みの一部を発表した。

Googleの最高経営責任者(CEO)のSundar Pichai氏は基調講演で、「Android Q」によって実現される新しい「Live Caption」機能のデモを披露した。これは、スマートフォンで再生中の動画や音声をリアルタイムで文字に起こす機能だ。Live Captionは、ユーザーがYouTubeを視聴したり、ポッドキャストを聴いたり、Skypeでビデオチャットをしたりしているときに、バックグラウンドで動作させることができる。録音した音声や動画にも対応する。

Pichai氏は、障害のある人々のアクセシビリティー問題の解決を目指す3つの新しい取り組みも発表した。「Project Euphonia」は、AIを利用して、発話障害のある人々を支援する。「Live Relay」は、聴覚障害者や難聴の人も電話をかけることができるようにするプロジェクトだ。「Project Diva」は、音声起動アシスタントを発話障害者にも使いやすいものにする。

GoogleはAIを活用して、発話障害のある人々のコミュニケーションを容易にしようとしている
GoogleはAIを活用して、発話障害のある人々のコミュニケーションを容易にしようとしている
提供:Google

Googleはかなり前からアクセシビリティー問題に取り組んできた。例えば、同社の「Googleマップ」チームには、車椅子の人のためのスロープや入り口がある場所を探し出す地元のガイドがいる。2018年のGoogle I/Oでは、「Android」用アプリ「Lookout」を発表した。このアプリは、周囲にある物体や文字、人について音声で情報を伝えることで、視覚障害者を支援する。

Pichai氏は基調講演で、「あらゆる人を想定して開発された製品ということは、あらゆる人が当社の製品にアクセスできるということだ。テクノロジーは私たちのインクルーシブ性(包括性)を高める助けになるとわれわれは考えている。そして、AIは障害のある人々の体験を劇的に改善する新しいツール群を私たちに提供してくれている」と語った。