Kinect

心理学では,人の行動をとらえてデータ化し,それを分析します。その方法には,私がよく使う実験法のほかにも,観察法,調査法,検査法,面接法なんてものがあるのですが,もっとも古くからあって,行動計測の基本であるのに,今日までほとんど進歩してきていないのが観察法かもしれません。

私のゼミでは,そんな人間行動の観察を機械の目でやろうという研究も行ってきました。

…といっても,大げさな装置を使うのではなく,使うのはMicrosoftのKinectというゲーム用センサです。昨日アップした研究報告書の中でも紹介していますが,私たちはこれで子どもの行動をとらえて多動性の評価や協調運動の器用さの測定を試みています。単なるゲームデバイスとしてもおもしろいので,オープンキャンパスや大学祭の出し物でも人気です。

このセンサ,Xbox Oneというゲーム機用に販売されていましたが,残念ながら2017年10月で生産終了となりました。Kinect 1と2で合わせてなんと3500万台も売れたと聞きますが,ゲーム機の売り上げには貢献せず,買った人たちはロボティクス関連が多かったそうです。自動で人をとらえて,その人が立っている場所や注意している方向などを数値化できるので,ロボットの目としては最適なデバイス。


うちでは,毎週のように施設に持ち運んでいるからか,太いケーブルの付け根やマイクアレイと本体の接合部分が接触不良になることが多くて,まともに動くのがもう残り2台しかない…という状態でしたが(写真の後ろで裸になっているのが開発限定に使っている壊れかけのKinect v2),ようやく新しいKinect(“Azure Kinect”というらしい)を手に入れました(手前の小さなスタイリッシュなやつ)。

SDKをさらっと見ただけですが,顔をとらえるのはまだ簡単にはできそうにないですね(私には…)。でも,ボディスケルトン(骨格の動き)は十分にデータとして取ることができますから,とりあえずは従来の課題をこれに移植して…と考えています。

子どもが楽しく遊びながら,苦手な認知機能を伸ばせるような課題をつくれないか,この手のデバイス技術の応用には夢を感じます(Kinect v2は,v1センサに比べると車椅子の子どもの認識が弱かったので,そこがどうなのかが気がかりです)。