LightSpace とインタラクティブ ルーム。マイクロソフトが考える未来
目次:
Microsoft Research では、認識と環境との相互作用のためのテクノロジに長い間取り組んできました。 Kinect は模範的な例ですが、唯一のものではありません。 LightSpace は、レドモンド研究部門のこの分野における別のプロジェクトです。表面認識の要素と拡張現実を組み合わせ、深さカメラとプロジェクターのおかげで、LightSpace は室内のすべての表面とそれらの間の空きスペースさえもインタラクティブにします。
LightSpace の目標は、さまざまな要素を投影面として使用して、日常の環境で対話できるようにすることです。システムは、テーブルまたは壁を使用してグラフィックを表示します。ユーザーは手とジェスチャーを使用して、投影されたコンテンツを操作できます。デモではテーブルと壁しか使用されていませんが、LightSpace はより多くの面を認識し、インタラクティブなディスプレイとして使用できます。
任意のサーフェスとの相互作用
システムは、複数の手がマルチタッチ スクリーンであるかのように認識されるだけでなく、身体との新しい相互作用を追加し、さまざまなサーフェス間の遷移 たとえば、問題のオブジェクトに手を置いて移動先のサーフェスに触れるだけで、コンテンツをあるオブジェクトから別のオブジェクトに移動できます。このように、LightSpace は、部屋のある部分から別の部分に移動するコンテンツをシミュレートします。
コンテンツをある面から別の面に移動するだけでなく、システムを使用すると、コンテンツをそれらから抽出して、物理的なオブジェクトであるかのように手に持つことができます。これを行うために、問題のコンテンツを表す赤いボールを手に投影します。ユーザーは このように部屋全体に持ち運ぶことができ、他のユーザーと交換することもできます。サーフェスに戻すには、サーフェスに近づけて転送し、コンテンツを再度レンダリングします。
システムで使用される深さ検出により、 サーフェス自体の外に表現を生成することもできますしたがって、デモに示されているように、空中で手を上げたり下げたりして、メニューのオプションをナビゲートします。システムは、さまざまなオプション間で変化する高さを検出します。他のものと同様に、これは LightSpace で実現できることの一例にすぎません。
仕組み
このように部屋をインタラクティブにするために、システムは 複数の深度カメラとプロジェクターを使用しますこれらは、室内の物体や表面の実際の位置を検出するように調整されており、それらにグラフを表示できます。これを行うために、各カメラは各オブジェクトが見つかった深度を記録し、室内の安定したオブジェクトとユーザー自身などの他の移動オブジェクトを区別します。各ピクセルは実世界の座標に変換されます。
LightSpace はこのデータを使用して部屋の要素の 3D メッシュを構築し、コンテンツを投影できる表面を検出します。部屋のモデルは 環境内のユーザーの相互作用を認識するために使用されます 以前に使用されたカメラは、ユーザーの動きを検出し、輪郭を区別することを可能にします手の位置を正確に検出します。
したがって、システムはユーザーのジェスチャーを解釈して、実装された各アクションを実行します。コンテンツを任意の表面で操作したり、コンテンツをある場所から別の場所に移動したり、実際のオブジェクトであるかのように部屋自体の周りに移動したりするなど、これらのいくつかを既に見てきました。しかし システムは他の指示を実装することができます あらゆる表面でより多くのアクションを実行できます。
ここはみんなの想像力を働かせる場所です。目標は、あらゆる表面をインタラクティブな画面に変えることです。 LightSpace は、追加のモニターやモーション センサーを必要とせずに、あらゆる部屋を新しい仕事や遊びのスペースに変えます もっと未来的なものにします。
ザタカ Windows |マイクロソフトによる未来 詳細情報 |マイクロソフトリサーチ