CSUN ウェビナー「Designing Inclusive Extended Reality Experiences」
毎年3月に米国で開催されている、世界最大級のアクセシビリティのカンファレンス「CSUN Assistive Technology Conference」ですが、今年は新型コロナウイルス感染症 (COVID-19) の拡がりの影響で、いくつかのセッションがウェビナー方式になりました。
このうち、アクセシビリティのコンサルティング企業 LevelAccess によるセッション「Designing Inclusive Extended Reality Experiences (インクルーシブな XR の体験をデザインする)」に参加したので、以下、概要のメモを共有します。
セッションの動画、スライド、トランスクリプト (書き起こし) は参加者のみの限定公開なのでここでは共有できませんが、オンデマンドでセッションを見ることができるので、ご興味ある方は申し込んでみるとよいと思います。XR (extended reality) とは?
- VR (virtual reality : 仮想現実)、AR (augmented reality : 拡張現実)、MR (mixed reality : 複合現実) の総称。
- ゲームだけでなく、教育、トレーニンッグ、小売、ミーティング、...いろいろなシーンで使われている。
様々な入力手段
- センサー
- 加速度計、ジャイロスコープ、磁気センサー、など
- カメラ
- 身体動作やジェスチャの認識
- アイトラッキング / ヘッドトラッキング (視線認識など)
- マイクロフォン
- 音声認識、音声によるコントロール
- キーボードインターフェース、マウス、タッチパッド (Bluetooth 接続)
- その他、アクセシビリティに特化したもの (バーチャル白杖など)
様々な出力手段
- 視覚的な出力 (ディスプレイ)
- 聴覚的な出力 (空間音場を含む)
- 触覚によるフィードバック
- コントローラーやウェアラブルのメカニズムとして
- その他、現時点では一般的ではないが将来的に想定されるもの
- 嗅覚
- 平衡感覚
支援技術で可能な (または期待される) こと
- 手話や字幕の提供 (聴覚障害向け)
- 縁 (へり) や段差などの認識 (ロービジョン向け)
- 感情の認識や、コミュニケーションにおけるロールプレイング (自閉症向け)
- ジョブコーチング (認知 / 学習障害向け)
- ナビゲーション、経路探索のトレーニング (視覚障害向け)
- AIRA や Be My Eyes
- Soundscape
- 動画と自動的に同期する音声解説 (視覚障害向け)
- PTSD や発作などに対するセラピー
- スキルトレーニング
アクセシブルな XR のメリット
- 多様な入力手段や出力手段が利用できる
- 障害者が遭遇する課題を独力で解決することができる
- 他の方法では体験できないようなことを体験できる (辺境の旅やアクティビティ、車椅子での歴史的建造物へのアクセス、美術館で展示品に触る、など)
- 人と人との交流促進 (遠隔地にいる人とのコミュニケーション、障害などの属性を秘匿したコミュニケーション)
主な課題
- プラットフォームにおけるアクセシビリティ機能 (支援技術サポート) の欠如
- 標準仕様やガイドライン (進行中)
- 視覚的な刺激への偏重
- 複数の入力手段に対するサポートレベルのばらつき
- いわゆる「乗り物酔い」
- AR におけるコントラスト調整
- 現実世界 + AR の体験の質 (VR と同等なレベルにできるか)
- 課題はいろいろあれど、アクセシビリティの担保はできるはず。提示されるオブジェクトはすべてデジタル情報なので、様々なモダリティでの入出力、支援技術によるサポートが可能なはず。
ガイドライン
- W3C の XR Accessibility User Requirements (XAUR)
- CVAA (21世紀の通信と映像アクセシビリティ法)
- Communications Act (米国通信法) 255条
- Accessible Player Experiences (APX)
- Game Accessibility Guidelines
- Platform level accessibility recommendations – IGDA Game Accessibility SIG
- WCAG
VR / AR環境でインクルージョンを実現するための鍵
- デザインプロセスのはじめからインクルーシブを意識する
- 障害者ユーザーからのフィードバックを受け入れる
- パーソナライゼーションを可能にする
- アクセシビリティ機能の利用を、ユーザーの任意によって可能にする
デザイン上の留意事項
視覚の障害に対して
- テキストのサイズ変更、カラーフィルター、コントラスト調整のオプションはあるか?
- 色だけに依存しないオプションはあるか?
- ユーザーが物理的に近づくことなく、ズームインできるか?
- 視覚的な情報に対する、音声による手がかりはあるか?
- 環境における位置の把握、行きたいところへの移動、周囲の状況の理解、といったことが音声によって可能か?
- 動画に対する音声解説はあるか?
- オブジェクトやそのプロパティを識別するための情報は音声で伝えられているか?
- ユーザーは意味的に適切な順序で情報を辿ることができるか?
- 誰が話しているか (話者が視覚的に表示されている場合) を識別するための音声情報はあるか?
- レイキャストはあるか?レイキャストのヒットポイント検出はあるか?
- オブジェクトの認識は可能か?
- 異なる粒度で代替テキストが用意されているか?
- 音声によって位置を特定できるか?
- 拡大表示のコントロールはあるか?
聴覚の障害に対して
- 重要な環境音やノイズを、視覚的に表示できるか?
- 重要な音声キューを視覚的に (文字で) 示すことはできるか?
- 空間音場を利用できない人のための、視覚的なロケーターはあるか?
- リアルタイムコミュニケーションのための、音声と文字の変換機能はあるか?
- アバターを用いたビデオチャットにおいて、名前を付ける機能はあるか?
- クローズドキャプションは提供されているか?
- キャプションは、複数の話者やオーディオソースを区別できるようになっているか?
- キャプションの表示のしかたはユーザーの任意でコントロール可能か?
- テキスト以外にも、感情を表現する方法はあるか?
- 絵文字やアバターのボディランゲージなど、インクルーシブで素早いコミュニケーション手段が提供されているか?
- 背景音の音量をコントロールできるか?
- モノラルオーディオは利用可能か?
- Bluetooth で機器をつなぐなどして、音声を拡張することは可能か?
- バーチャルなインタープリターの API はあるか?(手話通訳など)
身体動作の不自由に対して
- 乗り物酔いを防ぐ設定はあるか?(動きを遅くする、アニメーションをオフにする、など)
- 情報を中央に配置するオプションはあるか?
- 物理的に動かなくても、移動できる方法はあるか?
- 視野を調整するためのコントロールはあるか?
- コンテンツの明滅を避けることは可能か?
理解 (認知 / 学習) の助けとして
- チュートリアル、サンドボックス、プレイグラウンドモードはあるか?
- 表示されているコンテンツを音声で読み上げる text-to-speech のオプションはあるか?
- アクティビティの難易度設定はあるか?
- メニューなどは直感的に操作できるようになっているか?
- UI のカスタマイズやパーソナライズはサポートされているか?
- 文脈に沿ったガイダンスやヘルプはあるか?
- 学習に役立つツールチップ付きのアイコンはあるか?
操作の支援として
- 正確な体の動き、捻り、掴み、ターゲティング、頭部のコントロールを要求しないナビゲーション方法は用意されているか?
- 据え置き型のコントローラーやキーボードに対応しているか?
- 総体的な身体運動に対応したコントロール (Kinect のようなもの) に対応しているか?
- フォーカスによるナビゲーションおよび視覚的なフォーカスインジケーターは利用可能か?
- すべての操作を片手で行うことができるか?
- 手足の器用さに制限のある場合、オブジェクトにリーチできる方法があるか?
- 1つのスイッチで操作可能な、ナビゲーションや入力の方法があるか?(同時に複数の身体動作を必要とせずに)
- モーションセンサーの代替はあるか?または、偶発的な作動を防ぐためにモーションセンサーを無効にすることはできるか?
- 振り向く、横になる、座る、コントローラーを上げる、といった動作の代替となる手段はあるか?
- 音声によるコントロールは提供されているか?
- 触覚フィードバックに代わるものはあるか?
- タイミングや時間制限は調整できるか?
- デフォルトのアクションは用意されているか?