

Appleとイリノイ大学は、Google、Meta、そしてその他のテクノロジー企業と提携し、「音声アクセシビリティ・プロジェクト」と呼ばれるプロジェクトに取り組んでいます。この取り組みの目標は、筋萎縮性側索硬化症(ALS)やダウン症候群など、発話に影響を及ぼす疾患を持つユーザーの音声認識を向上させるために、人工知能アルゴリズムをどのように調整できるかを研究・改善することです。
Engadgetは、執筆時点ではまだオンライン化されていない音声アクセシビリティ・プロジェクトについて、最初に報じました。報道によると、イリノイ大学と協力するテクノロジー企業には、Amazon、Apple、Google、Meta、Microsoftなどが含まれます。ALS患者を支援する非営利団体Team Gleasonと、パーキンソン病のためのデイビス・フィニー財団も、音声アクセシビリティ・プロジェクトに取り組んでいます。
米国国立衛生研究所によると、発話障害を伴う疾患は、米国だけでも数千万人に影響を与えています。Appleをはじめとするテクノロジー企業は、過去10年間、Siri、Amazon Alexa、Google Assistantといったツールを通じて音声アシスタント分野で革新を遂げてきました。Appleはまた、視力低下や運動機能の低下に悩むユーザーにとって最高クラスのVoiceOverや音声コントロールといった技術にも投資しています。
しかし、音声駆動型機能は、それを動かすアルゴリズムによってのみ優れているため、ルー・ゲーリック病、脳性麻痺、その他の発話に影響を及ぼす症状を持つユーザーにサービスを提供するには、それが非常に重要です。
新しいプロジェクトのチームに対する Steven Aquino のインタビューを詳しく読んでください。
havebin.com を Google ニュース フィードに追加します。
FTC: 収益を生み出す自動アフィリエイトリンクを使用しています。詳細はこちら。