2分で読めます
| ニュース

Appleの音声アシスタントSiriは、依然としてリクエストを聞き間違えるという批判を受けていますが、ここ数年で精度は大幅に向上しています。新たなプロジェクトは、Siriの機能をさらに向上させることを目指しています。イリノイ大学アーバナ・シャンペーン校(UIUC)は、Appleをはじめとする関係機関と共同で、音声アクセシビリティ・プロジェクトに取り組んでおり、障がいのあるユーザー向けの音声認識システムの改善を目指しています。
UIUCの音声アクセシビリティプロジェクト
このプロジェクトの目的は、音声認識システムが理解できる発話パターンの多様性を拡大することです。現在、発話障害や障がいのある人は、一般の人々よりもSiriなどの音声アシスタントを使いこなすのに苦労する傾向があります。
特に、音声アクセシビリティ・プロジェクトは、ルー・ゲーリック病(筋萎縮性側索硬化症)、パーキンソン病、脳性麻痺、ダウン症候群など、いくつかの疾患や障害を持つ人々のための音声認識システムの改善に重点を置いています。
これらの人々は、多くの場合、現在の音声認識ツールや音声アシスタントの恩恵を受けることができません。ツールはどれほど進歩しても、そのアルゴリズムはこれらの疾患、病状、障害によって引き起こされる発話パターンを解釈することができません。
音声認識システムは、特に移動に問題を抱えているユーザーにとって、生活の質を劇的に向上させる可能性があるという考え方です。個人を特定できない非公開のデータセットを作成するために、「多様な発話パターンを示す」個人からデータサンプルが収集されています。
Apple、他のテック大手と提携しUIUCの音声認識システム改善を支援
Apple、Amazon、Google、Meta、MicrosoftがUIUCとこのプロジェクトで提携しています。また、様々な非営利団体も提携しています。これらのグループは、アメリカ英語から始め、データセットを用いて機械学習モデルの学習に活用したいと考えています。その目標は、モデルが様々な発話パターン、障害、障がいに適切に対応できるようにすることです。
このプロジェクトにこれほど多くの大手テクノロジー企業が参加することは、間違いなくプラスに働くでしょう。各社はそれぞれ独自のバーチャルアシスタントや音声認識機能を持っています。この研究を各社のツールと統合することで、開発のスピードアップが期待できます。少なくとも、より多くのリソースを投入し、作業の重複を避けることができるでしょう。
このプロジェクトを率いるイリノイ大学電気・コンピュータ工学科のマーク・ハセガワ・ジョンソン教授は、この研究の重要性を指摘した。
音声でコミュニケーションを取り、デバイスを操作する選択肢は、今日のテクノロジーやデジタル経済と関わるすべての人にとって不可欠です。音声インターフェースは、障がいのある方を含め、すべての人に利用可能であるべきです。この課題は、多くのインフラ、理想的には大手テクノロジー企業がサポートできるインフラを必要とするため、困難を極めています。そこで私たちは、言語学、音声、AI、セキュリティ、プライバシーの専門知識を持つ、他に類を見ない学際的なチームを結成し、この重要な課題の解決を支援しています。
このプロジェクトには、言語学研究教授のキム・ヒジン氏も参加しています。また、言語聴覚科学臨床教授のクラリオン・メンデス氏も参加しています。メンデス氏は言語聴覚療法士でもあります。イリノイ大学(UIUC)のベックマン先端科学技術研究所のスタッフ(IT専門家を含む)もプロジェクトを支援しています。