バーチャル世界のキャラクターを現実空間に降臨させる技術、東大が開発

2013年11月7日 18:51 │Comments(5)

Written by くまむん

東京大学の苗村研究室はこのたび、バーチャル空間のキャラクターを現実空間に投影して動かすことが可能になる技術「でるキャラ」を開発しました。

本システムでは、バーチャル空間のキャラクターがユーザーの差し出した手の上に飛び乗ってくるなど、現実空間とバーチャル空間とが混じりあった、これまでにないインタラクティブな演出が可能となっています。

システム的には、Kinectのセンサーによって空間情報を取得し、ここにコンピューターでキャラクター情報を合わせこむ仕組み。映像はまず液晶ディスプレイに表示され、これを「AIプレート」という特殊な空中結像パネルへ投影させると、あたかもバーチャルのキャラクターが現実空間に現れているかのような演出が可能になるというわけです(下図参照)。

ユーザーやオブジェクトの動きに対応して液晶ディスプレイを上下動させることで、空中に結像されるキャラクターも移動。上部のプロジェクターから、キャラの移動に同期させた影の映像を映しだすことで、全体として奥行き感のある映像となっています。

aereal-interactive-imaging

液晶ディスプレイに映った映像をAIパネルに投影すると、焦点位置で映像が結像される。

aereal-imaging

「でるキャラ」の仕組み。コンピューターの映像を映しだすディスプレイを
上下させることで、空中に結像させたキャラクターを動かしている。

個人的には空中結像技術がここまで進化していることが何よりも驚きだったのですが、こうした技術が今後発展してゆけば、例えばアニメのキャラクター達と次元を超えたお付き合いが可能になる日も遠からずやってくるかもしれませんね。

[Diginfo] [アスカネット]

このニュースでディスカッション
  • コメントを投稿する際には「コメントガイドライン」を必ずご覧ください
  • コメントを投稿した際には、コメント機能利用規約(ガイドライン)に同意したものとみなされます
  • 主要ニュースサイトなどの「許可サイト」以外のURLを含む投稿はコメントが保留されます