Apple、複数のAI採用障害者支援ツールを発表。
米Appleは5月16日、障害者向けの支援ツールを発表した。認知機能や視覚、聴覚、身体機能に障害を持つ人が他者とコミュニケーションを取る選択肢を増やす。
同社は声を出すことができない人向けに「Live Speech(ライブスピーチ)」を提供する予定だ。これは、利用者が入力したテキストを自動で読み上げる機能となっているという。電話や通話アプリ「Face Time」、対面など様々なシチュエーションで利用できる。よく利用するフレーズは事前に保存し、会話中に即座に反応するときに使える。
「Live Speech」の読み上げ音声は自分の声を使うことも可能だ。利用者はiPhoneなどのデバイス上に表示されたテキストを読み、その音声を15分間録音することで「Personal Voice(パーソナルボイス)」を作成できる。徐々に発話能力を失う病気である脳萎縮性側索硬化症(ALS)の診断を受けた人などの利用を想定する。
開発に当たっては「あらゆる段階で障害者コミュニティのメンバーからフィードバックを受けてデザインした」と同社シニアディレクターのサラ・へリンガーが明らかにした。
認知障害や視覚障害向けの支援ツールも続々
同社は認知障害のある人向けに、既存のアプリを使いやすくしたデザインを提供する。認知的負荷を軽減するために、アプリの重要な部分を抽出して表示できるようにするという。コントラストを高めたボタンや、大きな文字のラベルなど、使用者に合わせてデザインを調整することが可能のようだ。
視覚障害者向けには拡大鏡の機能を拡張した。「Point and Speak(ポイントアンドスピーク)」と呼ばれる機能で、操作したい対象を映しながら指さすと、ボタンのテキストを読み上げる。人の検出やドアの検出、画像の説明などの機能と組み合わせることで、周囲の状況を認識するのに役立つ。
【関連リンク】
・Apple、AI採用障害者支援ツールを多数発表 失う前に登録した声で話せる「Personal Voice」など(ITmedia)
https://www.itmedia.co.jp/news/articles/2305/17/news080.html
TEXT:PreBell編集部
PHOTO:iStock
この記事を気にいったらいいね!しよう
PreBellの最新の話題をお届けします。