現在、私のプロジェクトの1つはKinectカメラでジェスチャを認識し、分析し、そのようなロボットでアクションを実行しているため、同様のトピックへのリンクがあります。
そのため、 Kinect 3D Hand Tracking、または私たちの意見では、「Kinectを使用して手の3D位置を追跡する」をご覧ください。
以前は何でしたか
この瞬間まで、私は個人的にこれをここでのみ見ました。個人的には、このリンクに非常に安定したデモがあり、動作しませんでした。
さらに、センサーから2メートル以上離れると、彼女は指をまったくフォローできませんでした(実際、キネクトはすでに1メートル半の距離で私の指を失いましたが、私の指は間違っている可能性があります)。 確かに、私のラップトップでもGPUを使用せずにすべてが非常に迅速に行われました。 そして、これは現在含まれているデモプロジェクトであるため、コードは公開されています。私はこの声明を恐れていません。ロボット工学の最大のオープンソースプロジェクトはROSです。
しかし、さらにそれについては話さないでしょう。 手の指の動きを非常に明確に追跡することに興味があると想像してください。
これらの人々は誰で、彼らは何を書きましたか
3人の研究者:Iason Oikonomidis-Nikolaos Kyriazis-クレタ大学のコンピューターサイエンス学部のAntonis Argyrosは、自分の手で触ることができるデモを書きました。
この3つは正確に何を書いたのでしょうか?
(次のリストは、プロジェクトページから直接翻訳したものです)
同社のソフトウェアは、マーカーを使用せずに、視覚データに基づいて人間の手の3D位置、方向、および完全な関節を監視します。 開発された方法:
- 手の完全な関節(自由度26)をモデル化し、自然な動きを実行します。
- 簡単にアクセスでき、広く使用されているRGB-Dカメラ(Kinect、Xtion)で得られたメロンデータに基づいて動作します。
- マーカー、特別な手袋は必要ありません。
- GPU上でも、20 fpsの速度で結果が得られます。
- キャリブレーションは不要です。
- Nite、OpenNI、Kinect SDKなど、独自の技術を使用して位置を追跡することはありません
実際、プログラムがあなたの手に追従しやすくするために袖を着用する方が良いことを明確にした後、彼らはビデオデモンストレーションに直接行きます。これは上記のリンクに行くのが面倒な人のためにさらに与えます。
例1
例2
例3
例4
例5
どのくらい速く動作しますか
そして、このハードウェア全体を実行する価値があるハードウェアについてもう少し説明します。
- CPU:Pentium®デュアルコアCPU T4300 @ 2.10GHz、4096 MBのRAM、GPU:GeForce GT 240M、1024 MBのRAM、トラッキングFPS:1.73792
- CPU:Intel®Core(TM)2 CPU 6600 @ 2.40GHz、4096 MBのRAM、GPU:GeForce 9600 GT、1024 MBのRAM、トラッキングFPS:2.15686
- CPU:Intel®Core(TM)2 Duo CPU T7500 @ 2.20GHz、4096 MBのRAM、GPU:Quadro FX 1600M、256 MBのRAM、トラッキングFPS:2.66695
- CPU:Intel®Core(TM)i7 CPU 950 @ 3.07GHz、6144 MBのRAM、GPU:GeForce GTX 580、1536 MBのRAM、トラッキングFPS:19.9447
合計
システムは低速であることが判明しましたが、これまでのところかなり有望に見えますが、もちろんまだいくつかの間違いを犯しています。 個人的には、私がやっていることに関しては、Atomはロボットに乗っているので、彼女は現在役に立たない。 そのため、指のジェスチャーでしばらく待機し、手全体を使用する必要があるジェスチャーに集中する必要があります。
全体が何らかの形で最適化され、遅かれ早かれ、ロボットやコンピューターなどの制御を、とりわけ正確な手のジェスチャーで楽しむことができることを願っています。
UPD:
デモ自体をダウンロードするための直接リンク。 Windows x64バイナリ
ここでインストールするべきものを知ることができます 。
PS。 私は不正確さの指摘に感謝し、提案を受け入れます。 ありがとう