Ubuntuはウェブカメラ上のユーザーの動きに応答するインターフェースを作成します

このトピックは、Canonicalデザインブログの投稿の翻訳です。



はじめに



ニンテンドーWii、Apple iPhone、Microsoft Kinectなどの製品の導入により、開発者はキーボード、マウス、タッチスクリーン以外にもコンピューターを制御できる方法がいくつかあることに気づき始めました。 最近では明らかにハードウェアセンサーに基づいた多くの選択肢がありますが、主な違いはソフトウェアの依存性です。 マシンビジョンベースの製品ソリューション(Microsoft Kinectなど)は、1つ以上のカメラでキャプチャされた画像を分析するためにアートソフトウェアに依存しています。

この技術的な側面に興味がある場合は、 ArduinoOpenFrameworksのプロジェクトをご覧になることをお勧めします。



Ubuntuで使用する



数ヶ月前のちょっとした調査の中で、私たちは、Ubuntuが物理的なコンテキストをもっと知っていれば、どのように振る舞うことができるかを考えていました。 デバイスの傾き(iPhoneアプリケーションなど)を検出するときだけでなく、ユーザーの存在を分析するときも。

これは、私たちにとって本当に新しい概念ではありませんでした。2006年に、ユーザープロキシミティを実験しました。 視聴者の存在に基づいて画面のコンテンツを調整することが重要であると考えています。

開発および定義するにはまだ遠いシナリオをいくつか考え出しましたが、これによって議論が開かれるか、さらに良いことに、いくつかのイニシアチブの立ち上げに役立つことを願っています。



全画面モード



ビデオの再生中にユーザーが画面から離れると、ビデオは自動的に全画面モードに切り替わります。







全画面通知



ユーザーが画面の前にいない場合、通知は全画面で表示される可能性があります。 したがって、ユーザーはさまざまな場所(モニターから遠くを含む)からそれらを読み取ることができます。





視差



今年は3Dスクリーンの年であるため、ウィンドウの視差効果は省略できませんでした。 ユーザージェスチャによって外観がトリガーされることもあります。



試作機








All Articles