ffuyyo です
> blog
> http://d.hatena.ne.jp/scalar/20110504/1304485435
hagino3000さんが以前紹介くださったまとめサイトにも
紹介されてますね!
http://kinect.pro-mame.com/%E9%96%A2%E9%80%A3%E3%83%8B%E3%83%A5%E3%83%BC%E3%82%B9/kinect-%E3%82%92%E6%93%8D%E4%BD%9C%E3%81%A7%E3%81%8D%E3%82%8B-node-js-%E3%83%A2%E3%82%B8%E3%83%A5%E3%83%BC%E3%83%AB%E3%82%92%E4%BD%9C%E3%81%A3%E3%81%A6%E3%81%BF%E3%81%9F-scala%E3%81%A8lift%E3%80%80/
> JSの配列への詰め替えに時間がかかっているので、
> パックしたり、擬似的に解像度を半分にするとかすれ速くなるとは思います。
javascriptで画像処理って素で頑張ると大変そうですけど、
画像データをWebGLまで持ち込むと(GPUで動かすブラウザなら速度的に)
なんとかなったりするんでしょうか、というところが気になるところです。。。
# MSによるkinectのためのポーズ推定の論文見つけたので
# 斜め読みしてますけど、認識とかGPUで頑張る、的な内容なんですねえ。。。
2011年5月9日19:04 hakobera <hako...@gmail.com>:
>node.js 版 kinect
すばらしい。週末に使ってみます。自分もC++で作った部分をnodeモジュール化したいと考えていたので参考にしてみます。
>MSによるkinectのためのポーズ推定の論文見つけたので
>斜め読みしてますけど、認識とかGPUで頑張る、的な内容なんですねえ。。。
この論文かな
Real-Time Human Pose Recognition in Parts from Single Depth Images
http://research.microsoft.com/pubs/145347/BodyPartRecognition.pdf
まだAbstractぐらいしか読んでませんが、
オプティカルフローみたいな前のフレームを使ったりするんじゃなくて、
一枚のDepthイメージだけで、それを学習データと比較して推測してますね。
学習データの作り方が気になるのでちゃんと読んでみます。
2011年5月9日22:53 Y.Fuwa <ffu...@gmail.com>:
大津です。
# kinect の LED って色を変えられるんですね。知りませんでした。
> 速度は深度のみで、5FPSくらいでした。
残念ながらMac持っていないので試すことできないですが、結構速度出るん
ですねぇ。
フルだと 18Mbyte/秒 程度必要ですが、私の方では NSAPI経由でそのまんま
JS に depth配列を渡したら、当然ですが大きすぎてブラウザーが固まっちゃい
ました。
> JSの配列への詰め替えに時間がかかっているので、
> パックしたり、擬似的に解像度を半分にするとかすれ速くなるとは思います。
depthは無駄な情報が多いですから、、 私はdepthの直接利用はあきらめました。
OpenNI/NITE を利用しているので scene Generator から OpenCV かませて
kinect→sceneMD→Smooth→Threshold→Contour→Polygon→JS
で輪郭情報だけにしました。
これだととっても小さなポリゴンデータだけになって、 canvas line をつなぐだけで輪
郭描写がリアルタイムでキビキビ動かせました。
しかも scene はキャリブレーションが速いのでとっても便利。
(おそらく Xbox のダンスゲームもこれ使っているんじゃないでしょうかね)
近々の MS SDK のリリースがホント楽しみです。
(といっても Windows7 がまだ手元にないですけど)