産業用バーチャルリアリティ展
基調講演
東大・舘先生(実際に講演したのは川上先生)、廣瀬先生というVRの二大巨頭そろい踏み。
まずは"virtualの本来の意味"について。自明なのだが改めて言われると納得。
両者ともこれまでコンピュータのメモリ上でのみ実現していたVRを如何に実空間に結びつけるか、という点では同じなのだが、アプローチが全く違う。
舘先生のアプローチは、コンピュータあるいはロボットを介して提示される情報を人間の知覚に如何に近づけるか、という知覚のバーチャル化を目指している。それは、川上先生がテレイグジステンスについて語った「人間がユビキタスになる」という言葉に端的に表されている。
一方廣瀬先生は、人間の周囲に如何にコンピュータを配置し人間の非言語的な経験をコンピュータ内に取り込み再利用するか、という経験のバーチャル化を目指している。
以下は廣瀬先生の言葉の抜粋。
VRのプロジェクトをいろいろやってきて分かったことはリアルは広い、ということ。これまでVRは、その場所に行かないと使えなかった。これからは人のいる場所=コンテンツの発生する場所にコンピュータがあることが重要。ネットワークロボットの概念が重要。
空間方向への経験のバーチャル化として、領域型展示やゲーム展@科学博物館でのユビキタスゲーミング。一方、時間方向への経験のバーチャル化としてライフログ。
以上をよりまとめると、VR化する対象としてawarenessの前の意識とawareness後の意識があり、awareness前というのは即ち刺激−反応の複製で、awareness後というのはコンテンツの複製ということになるのだろう。
個人的な現状への不満は、
知覚バーチャル: 他の知覚を遮断することでその知覚が鋭敏化するという異化効果に頼っているところが大きい
経験バーチャル: コンテクストあるいはフレームに関する知はまだまだこれから
展示
計測系、モデリング系には興味がない。表示系のみ。
HMD
映像はくっきり。ちょっとした情報提示になら問題なし。ただし、すぐずれる。で、見えるところから外れるので困る。そういえば、神大のあの塚本先生はバンドのところが蒸れて苦労しているという話を聞いたことがある。やっぱメガネに着けるタイプかなぁ。ということで来るウェアラブルな時代には1億総メガネっこですよ。
海外で販売されている立体視対応PCソフトをデモに使っていた。そんなにずれない。ちょっと重い。ただ体感できる画面サイズは思ったより小さい。もっと没入できる大きさにすればいいのに。
据え置きディスプレイ
半球ドームは没入感が高いので、平面の3D映像でよくある不自然な立体感を全く感じない。今回のちょっとした発見。ただし偏光メガネはつけるけど。
高精細ではあるが深度がちょっと少ない印象。裸眼立体液晶ディスプレイよりは発色が断然いい。あと確かに疲れにくい。これなら家で偏光メガネ着けて映像見てもいいと思った。
少し離れた東芝のブースにあった。売りを最も表せるのが横置き、ということなのね。映像はかなり自然に見える。深度がかなり浅いのが気になったが、これもインテグラルイメージング方式のため。液晶を重ねるなど他の3D化技術と組み合わせると解決するの? と尋ねるとYesという答え。
映像制作系
リアルタイム2D-3D変換機。輝度に引きずられるのか、明るい箇所が妙に浮き出て見える。人の顔のアップとか大変なことに。かなり気になって安心して見られない。
上下左右前後の6枚の周囲画像から全天周映像を作る。類似技術はいくつかあるが、ここが道、ここがビルという3次元の構造情報も一緒に持っているところがちょっと面白いと思った。
このミラー自体はよく知っているのだが、こんなに種類があるのは初めて知った。