Kinectはオブジェクトをモデル化できます

Kinectプロジェクトに関与するエンジニアのチームは、Kinect Fusionというコード名の新しい壮大な機能を作成しています。これは、Microsoft Researchラボから実際の開発に向けて開発されたもので、まもなくSDKに含まれ、デバイスの視野にオブジェクトを配置するだけで3次元オブジェクトをシミュレートできるようになります。



実際、Kinectの所有者は、ボールなどの単純なオブジェクトから複雑な形状のオブジェクトで終わるものの仮想コピーを取得したい場合、Kinectの前にこのオブジェクトを配置する必要があります。 同時に、部屋のようにコンソールを囲むすべてのオブジェクトを一度にスキャンすることを妨げるものは何もありません。 同時に、Kinectセンサーが「誤動作」している場合、シミュレートされたオブジェクトはコンソールの前に回転でき、モデルが洗練されます。



技術的には、センサーから情報を収集し、オブジェクトまたは環境の非常に詳細な3次元マップを構築することについて話します。 また、そのようなマップを作成するのに多くの時間はかからないと言われています-シミュレートされたオブジェクトの完全な視点を見ることができないポイントからでも「ワンパス」で十分です。



Kinect Fusionは、3次元モデリング、拡張現実、3 Dプリンティング、そしてもちろん、リアルな3次元ゲームなどの本格的なアプリケーションとして使用されます。 さらに、ほぼ同じ目的(オブジェクトの3次元モデルの作成)向けに設計された3Dレーザースキャナーの価格を思い出せば、同様の機能を備えたKinectの価格は、もちろんはるかに有益です。



[ ソース ]



All Articles