ARとアフォーダンス

つらつら書いてみる。

Interop(というかDSJ)でタッチパネル対応のデジタルサイネージ複数展示していたのだけど、マルチタッチに対応していたのは中国のベンチャー一社だった。ある展示で、拡大できたりスクロールできないかな、と無理だとわかっていても試してみた。展示員は、みんなそれやるんですよね、すみませんまだ対応していないんです、とすまなそうに言っていた。
iPhoneのおかげか、タッチパネルといえば、このようなマルチタッチによる処理が出来ることが共通理解として作られつつある。乱暴に言うと、デバイスにリアルにある映像が映っていると、手の動作によって視点を切り替えるというアフォーダンスが作られつつある。少なくとも、環境に対して身体を使うことで現実を拡張する、という"言語"が生まれている。同時に、環境の中に、人がそのようにして現実を拡張するというアフォーダンスが埋め込まれている。
ARでも同様の議論が成り立つはずなのだけど、セカイカメラのせいかもっぱら視界への入力の拡張が議論され、人の出力に対する拡張は話題にあがりにくい。芸者東京の田中さんが、オーバルリンクのセミナーで、ARはつまるところフィルタリングだけが問題なのだ、てなことを言っていた。それは、背後にある計算機能力と個人との関係しか見ていない。そうではなくて、計算機と人の間には、社会や環境、あるいはアーキテクチャが存在する。フィルタリングをひたすら頑張るのもいいけど、人が選択しやすいように環境を構築する方に可能性を感じる。
デジタルサイネージのように公共化した視点の拡張と、携帯やHMDによる個人の視点の拡張とを整理する必要があるんじゃないかな。建築とかに目を向ければ応用のきく概念はいくらでもある。思想地図の最新刊に、設計履歴を全て残しておくことで最適化を高速に行う藤村氏の取り組みが紹介されている。現実の拡張は、空間に対する変動と見ることができる。つーか、フィルタリングなんて使えないし、コンテクストを個人単位で追従するなんて限界あるし。建築と端末は個別に問題を解決しようとしているけどどっちもえらい閉塞感がある。現実を拡張することを環境が如何にアフォードするかが面白いところになるはず。パーベイシブじゃなくて。