Reports レポート

ニフティクリエイティブデザイン部の部員が参加した、「セミナー」や「展示会」のレポートです。

アイコン画像

担当- 加藤 裕子

日付- 2012年11月09日

「スマートデバイスのアクセシビリティ」入門セミナー

はじめまして。クリエイティブデザイン部のディレクター、加藤です。
ミツエーリンクス主催の「スマートデバイスのアクセシビリティ」入門セミナーに参加してきました。

セミナーテーマ

あらゆるデバイスでのアクセシビリティを向上させるために、
スマートフォンやタブレット端末におけるアクセシビリティ対応を
どのようにしたらいいか。

はじめに

障がい者や高齢者など、パソコン操作に困難を伴う人々にはスクリーンリーダーを中心としたパソコン支援技術が必要になってきますが、パソコンで音声読み上げ・画面配色切り替えなどのアクセシビリティ機能を利用したい場合、ソフトを購入し、インストール、設定など面倒な事が色々あります。
しかし、スマートデバイスにはあらかじめアクセシビリティ機能が搭載されており、視覚・聴覚・そのほかの身体的ディスアビリティを持ってる人々にも使いやすいデバイスとして提供されています。

スマートデバイス利用者の伸び(※)やスマートデバイスそもそもの機能充実を鑑みると、今後ますますスマートデバイスでのアクセシビリティが重要視されそうです。

※2013~2014年の間には、デスクトップインターネットユーザー<モバイルインターネットユーザーと、利用デバイスが逆転?
(出展:MorganStanley「Internet Trends April 12,2010」)

アクセシビリティとは?

「アクセシビリティ=障がい者や高齢者向け」と思われがちですが、
日常生活の色々なシーンで、ますます便利に使えるようにする
ということ。

(例)
・外出時にとても明るい場所で使う
ビーチやスキー場など、まぶしすぎて画面が見づらい時にコントラストを強めたり、白/黒を反転させて利用したり。

・手を怪我して機械の操作が困難な時、物理的なボタンの調子がよくない時
物理的なボタンではなく、Voice OverやAssistive Touch(後述)を利用するなど。

・イヤホンが壊れてしまった時
モノラルオーディオ(後述)で、音の出る方に音声を寄せて聞くなど。

参考までに・・・
JIS X 8341-1:2010によると、アクセシビリティは
「さまざまな能力を持つ最も幅広い層の人々に対する製品、サービス、環境または施設(のインタラクティブシステム)のユーザビリティ。」
と、定義されてます。

要は「誰でも、どこでも、どのデバイスでも使いやすい」ってことですね。

iPhoneのアクセシビリティ機能紹介

今回のセミナーは、先天性の全盲で日常的にスクリーンリーダーを中心とした支援機能を利用しているミツエーリンクス社員の方が、普段どのようにiPhoneを使っているかのデモが中心でした。
実際の操作シーンを見て、主要な機能をピックアップして紹介します。

「見えない事」を聞く・話すでフォローしつつ、iPhoneに搭載されている機能を使いこなした操作シーンに圧倒されました。

【視覚障がい者向けの機能】
・ズーム機能
・色(白/黒)を反転
・Voice Over
ジェスチャー(※)による操作を可能にした画面読み上げ機能で、たくさんのキーボードコマンドを覚えたり、小さな矢印キーを何度も押してアイテムを探したりする必要なく、画面を見なくてもiPhoneを活用できる。
自動読み上げ、要約、表のサポート、読み上げ詳細度のカスタマイズなどもでき、画面に表示されているものによりアクセスしやすくなる。
※画面に触れると、指の下にあるアイテムを音声で説明してくれ、続いて、ダブルタップ、ドラッグ、フリックといったジェスチャーでiPhoneを操作すること。

なお、最新のiOS6.0では、日本語VoiceOverで漢字の説明読みが可能になりました(それぞれの漢字を、例えば雨なら「あめの う」とか、飴なら「たべものの あめ」のように説明する機能)。
今までのiOSにはその説明読みの機能がなく、自分が入力した文字が意図している文字で書かれているのかを確認したり、ページ内の文字の詳細を確認することができず、以下のような問題も発生していました。

・人名や地名など、簡単に入力候補に出てこないような文字の入力が困難
・振り仮名を入力する際、ひらがなで書けばよいのかカタカナで書くべきなのかが把握できない
・入力確定した文字が、ひらがななのかカタカナなのか、または漢字なのかを確認できない

ネットショッピングをしたり、ユーザー登録をしたり、WEB上で正確な文字入力が必要な場合、入力している文字の詳細が分からなかったり、指定された形式での入力ができていなかったために、何度もエラーになってストレスがかかったり、途中で完了することを諦めたりすることも少なからずあったと思います。
しかし、iOS6.0で可能になった漢字の説明読みを利用することでこのような問題も少しずつ解決され、スマートデバイスで文字を扱う場面での可能性が広がったんじゃないでしょうか。
このように、スマートデバイスにおけるアクセシビリティは日々進化しています。

【聴覚障がい者向けの機能】

・Face Time
ビデオ通話ができるので、手話や読唇法での会話に。
(もちろん遠く離れた家族や恋人との通話にもイイですね)

・モノラルオーディオ
左右の音声を一つにまとめ(通常であれば、左右それぞれからバラバラに音が出てくる)、左右それぞれのイヤーバッドで音声を聴くことができるので、片方の耳が聞こえにくい方に便利。
(左右のチャンネルの音量バランスを調節することもできるので、イヤホンが壊れた時にも便利ですね)

・表示とバイブレーションによる通知
目と耳の両方で、着信・メール送受信・カレンダーイベントの通知などを確認できる。

【身体機能障がい者向けの機能】

・Assistive Touch
機能をONにするとiPhoneの画面上に4つのボタン(ホーム/デバイス/よく使う項目/ジェスチャー)が出現し、そのうちの「ホーム」がホームボタンとしての役割を果たすので、物理ボタンを使わず、画面タップでホームボタンが押せるようになる。
設定次第で画面タップでiPhoneをほぼすべてコントロールできるので、物理的にホームボタンの反応が悪くなったような時にも便利。
(すぐに修理しなくてもよいから、助かりますよね)

・Siri
声を使ってiPhoneを操作。電話をかけたい時、メッセージを送りたい時、天気予報を見たい時、音楽を聴きたい時・・・声でSiriに話しかけると、Siriがどのアプリケーションを使うかを判断し、アプリケーションを立ち上げてくれる。

なお、Android端末にも同様の機能は標準搭載されているそうですが、その使いやすさや精度はiPhoneの方が断然いいそうです。

よりアクセシブルなコンテンツを提供するためにすべき事とは?

従来からのPC向けサイトのアクセシビリティ向上施策と同等の事を実施し、その上でスマートデバイスのアクセシビリティ機能をONにして、VoiceOver(画面読み上げ機能)などによる確認や、モバイル環境特有の状態(小さい画面、写り込みなど)をチェックしていけばいいそうです。

W3ile Accessibility ※英語サイト

ただ、「スマートデバイスのアクセシビリティ機能をONにして、VoiceOverによる確認」はなかなか大変でした。
実際にVoiceOver機能をONにしてサイト閲覧をしてみましたが、機械音で読み上げられる音声は聞きづらい上に、サイト構成によっては内容もよく分からなかったり(画像が多いとaltだけを読まれ、意味不明)。

文章を読む(見る)のと聞くのでは言葉の印象も違ってくるので、文章の長さや言葉の使い方、句読点の使い方など、聞きやすさを兼ね備えた読みやすい文章、見ても読みあげられても分かりやすいサイト構成を念頭において作らないとなぁと改めて考えさせられました。
ここら辺がディレクターの腕の見せ所なんでしょうか。

まとめ

セミナー出席後に実際にiPhoneのアクセシビリティ機能をONにして使ってみましたが、アクセシビリティ機能を少し利用するだけで、より便利に使えるなと感じました。
レシピサイト見ながら料理していて、あまり触りたくない時。
運転しながらカーナビの設定をしたい時。 とか

また、音声読み上げ機能をONにしてサイト閲覧をしていて、一番気になったのがaltです。
例えば、キャッチ画像や写真など、見た目のためで意味のない画像にaltを入れる場合、なんとなく近接のテキストや××写真といった内容を入れていましたが、これを読み上げられると内容が重複したり、無意味な「××写真」などの言葉が挟み込まれ、本文の意味が分かりづらくなったり。
また、料金表やグラフが画像の場合、「××料金」や「××グラフ」などとalt表記されていると、知りたい情報も得られません。それが料金案内ページだったりすると、肝心の料金表が画像で、しかもaltに「××料金」しか書かれていないと、ほとんど内容がないページになってしまっています。
しかも、ランダムにサイト閲覧していると、そういうページが結構ありました。

「このページを読んだらどうなる?」をちょっと念頭においてページ制作するだけでも、グッと使いやすくなるんじゃないでしょうか。

C Mob