タッチパネルのアクセシビリティ

去年は一眼レフとかビデオゲーム(スマホだが)とか、私には似つかわしくない視覚文化に深入りした。色々な発見があったが、さすがにそろそろ眼の負担を気にした方がよさそうなので、画面のズームや読み上げなど、Apple が「アクセシビリティ」と呼んでいる機能を積極的に使っていこうと思っている。

タッチパネルに指で触れて、その箇所に表示されている文字を音声で読み上げる、という行為は、この種のディスプレイが「面」である前に「板」なのだ、ということを意識させるように思う。指でどの位置に触るか、視覚の助けなしに把握するためには、「面」における座標を考えるのでは不十分で、「板」を手で握って立体的な形状を把握して、「板」のどの部位にどういう姿勢で触れているか、ということがわかっていないと、うまくいかない。(そういえば、「把握」という言葉は、握る、という触覚的な行為を指しますね。スマホの一定のアクション(ボールを投げるなど)を伴うゲームも、スマホの「構え方」が悪いとうまくいかない。私たちはタッチパネルを単に「面」として「見る」だけでなく、「板」として「触って」いる。)

私は標準より極端に視力が低いので、小さな文字を無理に読もうとすると、対象に思い切り接近して(or対象を思い切り手元に引き寄せて)、両眼の立体視を放棄して、ほぼ、片目で見ているのに等しい状態になる。スマホは、パソコン等の巨大なディスプレイと違って手元に近づけやすいので、そういう意味でも有り難いのだけれど、この種の立体視の放棄に慣れていると、画面を離したままで、その一部分だけをズームする、という操作は、まったく別の体験に感じられる。画面の表示は、指先でズームできると「把握」された途端に、周囲の風景に挿入された別のイメージなのだという素性を露呈する、と言えばいいのでしょうか。指先でなぞる(Apple用語で言う「ピンチ」ですか?)という動作による二次元的なイメージの変化は、周囲の立体的な光景と挙動が違うことが明らかですもんね。

パソコンのディスプレイも、同様に部分をズームして使うようになると、視界に「挿入された画面」という感じが際立ちますね。

プロセニアムの舞台や映画、テレビは、観客を釘付けにしてその外部を忘れさせる(その原型は書物や絵画でしょうか)というけれど、デジタル・ガジェットのタッチパネルは、手で把握して、指で触る対象であるがゆえに、「板の特定の面に表示されたイメージ」であり続ける。……という風に整理していいのだろうか。

(twitter アプリもやや特殊なやり方で iPhone のアクセシビリティ基準に対応していて、指3本でヒュィっと画面をなぞったり、発言をツンツン突っついたりしながら読み上げさせると、およそ没入とは異なる体験をもたらしますね。)

ちなみに、iPhone の「読み上げ」を本格的に使えそうだと思ったのは、Bluetooth の手軽に使えるヘッドセットが出ているのを知ったからでもある。私たちは、21世紀になってようやく、もつれてぐちゃぐちゃになる電線から解放されつつあるんですね。

そしてデスクトップ用のタッチパッドは、パソコンをスマホのように「触る」インターフェースとして、なかなかよく出来ている気がします。Microsoft はディスプレイに直接触る方向に開発を進めているけれど、10インチを越える真っ平らな画面は、立体として「触る」には広すぎる。10〜20センチのタッチパッドじゃないと「手に余る」気がします。