Natural Language Interface Accessibility User Requirements (W3C First Public Working Draft)
W3C が、自然言語インターフェース (natural language interface) のアクセシビリティについて、ユーザー要求 (user requirements) をまとめ、ドキュメントを公開しています。
- Natural Language Interface Accessibility User Requirements - W3C Working Draft
- この記事で扱う2021年10月12日付の First Public Working Draft のアーカイブ URL は www.w3.org/TR/2021/WD-naur-20211012 です。
ここで言う「自然言語インターフェース (natural language interface)」とは、ユーザーとシステムとの間で、人間が日常用いている自然な言語 (話し言葉や書き言葉) によるコミュニケーションが行われる UI のことで、ユーザーが発話などによるセンテンス形式でインプットすると、システムもそれに呼応して、音声、テキスト、その他適切なモダリティによるセンテンス形式でアウトプットする、というものです。たとえば、AI アシスタント (Siri、Alexa、Google アシスタント、Cortana など) やチャットボットなどが挙げられます。
自然言語インターフェース (natural language interface) のアクセシビリティを担保するためには、多くの検討すべき課題があります。たとえば、身体や感覚器の障害などを含む様々な特性を抱えたユーザーが等しくシステムを操作できるように、入出力の両面で多様なモダリティが利用可能であること、認知 / 学習障害を抱えたユーザーがつまづくことなくシステムを利用できるように、知覚や理解がしやすいこと、シンプルであること、時間制限などのプレッシャー要因を制御できること、などです。
こうした課題の理解と解決を促すべく、本ドキュメントでは「2. User needs and requirements」のセクションにて、以下に挙げる箇条書きリンクの観点で、具体的なケースが提示されています。詳細は、個々のリンク先 (本ドキュメントの英語原文の該当箇所) を実際にご参照いただければと思いますが、各ケース (今回の Working Draft においては合計で27個あります) は、ユーザーニーズ (User Need) と、そのニーズを満たすための要件 (REQ)、という構成でまとめられています。
- 2.1 User Identification and Authentication (ケース #1〜2) : 身体 / 運動障害を持つ、あるいは、聴覚 / 言語障害を持つユーザーのための、複数の種類の生体認証、または別の方式によるユーザー識別や認証のサポート。
- 2.2 Means of Input and Output (ケース #3〜9) : 様々な障害を持つユーザーのための、多様な入出力モダリティのサポート、およびそれらのスムーズな利用もしくは併用。
- 2.3 Communicating in a Language that the User Needs (ケース #10〜11) : 手話や AAC (Augmentative and Alternative Communication : 補助代替コミュニケーション) で用いられるシンボルなど、障害を持つユーザーが必要とするコミュニケーション言語のサポート。
- 2.4 Speech Recognition and Speech Production (ケース #12〜14) : 非典型的な発話特性を持つユーザーのための、音声入力の認識精度向上および認識エラー修正のサポート、ならびに音声出力の速度、音量、ピッチの調整。
- 2.5 Visually displayed text (ケース #15) : ロービジョンや学習障害を持つユーザーのための、フォント、文字サイズ、テキスト間隔の調整のサポート。
- 2.6 Designing for Understanding and Effective Use : 理解および効果的な利用のためのデザイン
- 2.6.1 Understanding How to Interact with the Interface (ケース #16〜19) : システムに不慣れな、あるいは認知 / 学習障害を持つユーザーが、システムで何が可能か、どう利用すればよいか、を理解できるサポート。
- 2.6.2 Giving Users Enough Time to Interact (ケース #20) : 認知 / 学習障害を持つユーザーのための、時間制限の無効化または調整。
- 2.6.3 Communicating in Language that is Clear, Simple, and Appropriate to the Audience (ケース #21〜22) : 認知 / 学習障害を持つユーザーのための、簡潔で平易な言語によるコミュニケーション。
- 2.6.4 Pronunciation (ケース #23) : 認知 / 学習障害を持つユーザーのための、システムの音声出力の発音の正確性担保およびローカライズ。
- 2.6.5 Avoiding and Recovering from Input Errors (ケース #24〜25) : 認知 / 学習障害を持つユーザーのための、入力エラー修正およびエラー回避のサポート。
- 2.6.6 Using Multimodal Interfaces to Enhance Understanding (ケース #26〜27) : 認知 / 学習障害を持つユーザーのための、複数のモダリティの同時併用のサポート。
上に挙げた各ケースは、今後さらなるフィードバックや知見の蓄積を受けてアップデートされる可能性がありますが、AI アシスタントやチャットボットに関する、現時点で浮き彫りになっているアクセシビリティ上の課題や求められる要件を俯瞰するうえでは、十分参考にできるかと思います。先にご紹介した XR Accessibility User Requirements と同様、恐らく最終的には Working Group Note のような形でリリースされるかと思いますので、引き続きウォッチしてゆきたいと思います。