ニュース

アップル、シンプルUIなどiPhone/iPadでアクセシビリティ強化

アップルは16日(米国時間)、認知、視覚、聴覚などの補助を行なうiPhone/iPad向けの新たなアクセシビリティ機能を発表した。Assistive Access、Live Speechなどの新機能を2023年後半に提供予定としている。

Assistive Accessは、認知障害のあるユーザーをサポートする機能。アプリの機能を絞り込みながら、写真を撮る、音楽を聴くなど、iPhoneやiPadの基本的な機能を使いやすくする。

Assistive Accessでは、「電話」「FaceTime」「メッセージ」「カメラ」「写真」「音楽」の各アプリを1つの「通話」アプリに統合。またユーザーに合わせた操作画面を選択できる。

Live Speechは、言葉を話すことができない人向けに設計された機能。iPadやiPhone、Macから通話や会話中にタイプして話すことができるようになる。

さらに、ALS(筋萎縮性側索硬化症)の診断を受けた人や、話す能力を失う危険性のある人が、声を失う前に約15分の音声録音をiPadやiPhoneで行なうと「パーソナルボイス」が作成され、以降自分の声でテキストの読み上げを行なうなどで、Live Speechを使った音声コミュニケーションが可能になる。

拡大鏡では「Point and Speak」を搭載する。視覚障害のあるユーザーが、電子レンジなどの家電製品を使用している際に、カメラ、LiDARスキャナー、デバイス上の機械学習からの入力を分析し、ユーザーがキーパッド上で指を動かすと各ボタンのテキストを読み上げする。iPadとiPhoneの拡大鏡アプリに組み込まれ、VoiceOverと連携して、人物検出やドア検出、画像説明などの機能と組み合わせて、ユーザーのナビゲーションを行なう。

そのほか、Made for iPhoneの補聴器とMacとの直接ペアリングやカスタマイズ、VoiceOverにおけるSiriの読み上げ速度変更などのアップデートも予定している。