v.1.003

このプログラムについて

 顔の心理学研究をしたことのある人なら,学生・研究者問わず,必ず感じるジレンマがあると思います。顔って,3次元の立体構造なのに,なんでいつも平面のディスプレイに写真を提示して実験しているのでしょう? また,視線や顔表情はいつもめまぐるしく変化しているのに,なんで静止画像を使って実験するのでしょう? そんな顔写真を使った心理学実験で,私たちの顔を使ったコミュニケーションの本当の姿がとらえられるのでしょうか? しかしこれには当然理由があって,実際の人間を刺激として使おうとしてもコントロールすることが難しいからです。「はい,顔の角度を3度左に傾けると同時に1秒間だけ20%笑ってください」なんてことがいつでも誰の前でもできる人間は存在しません。でも,最近の工学技術を使えば,どうやら実際の人間とそっくりのロボットが作れるらしいので,ロボットを使って実験できないかなぁ(どうせリアルが無理なら,ロボットは3次元だしリアルタイムに動かせるので,それもありだと思うのです)…ロボットだったら1秒間だけ20%笑うこともできるし,50cmの距離でアイコンタクトした瞬間でもピクリとも表情が揺るがない人間がつくれる(プログラムで完全に制御可能)…でも,お金はないし…と考えておりました。

 お金はないけど,コンピュータグラフィックス(CG)だったら,時間を原材料にして作れるし(発想が貧乏性),最近は仮想現実(VR)や拡張現実(AR)なんて技術も安くなってきたから(やっぱり貧乏性),うちの大学でもロボットを使ったヒューマンコミュニケーションに関する研究ができるかもよ(でも夢はでかい!)…と,私のゼミでは5~6年くらい前からCGでロボットを作ってみてはUnityで動かしてみて,何か心理学的なテーマ(視線認知とか,パーソナルスペースとか)を見つけては研究に使ってきました。

 学会にもっていくたびに,「こりゃまたトンデモナイものを作っちゃいましたねぇ~」…と,たぶんほめてるというより呆れられているようなコメントをいただきながら,改善に改善を重ねて…でも,不気味の谷を越えられずに(いじればいじるほど基本的に悪い方にいくのです)…そのうち,私もゼミ生たちもちょっと飽きてきたロボット版「うちの子」ですが,こんなこともできるという例として,プログラムを公開してみます。このモデルは,リアル系というより,少しアニメ調のデフォルメを入れたキャラクタですね(うちの技術力ではリアル系は不気味の谷のどん底に沈んでしまいます)。

 地方小規模大学のこれまた小さな心理学研究室の作品なので,最近流行り始めた本格的なデジタルヒューマンに比べれば超ローテクで,まだ人間のように自由に動けるレベルにはまったく到達できていないのですが,実験心理学の講座をもつ大学でもなかなかこんなものは作れない(作ろうとしない…だけ?)かもしれないので,ひとつのスタディモデルとして,今の情報技術を応用した心理学研究の可能性をほんの少しでも感じていただければと思います。このプログラムでは限られたパラメータしか動かせませんが,それでも,例えば,同じ表情でも顔の向きが異なるとまったく違う意味に認知されるなど(能面の表情効果),顔認知の奥深さを体験してもらえる心理学教材としても使えます。

 現在は基礎研究で使っている程度ですが,将来的には,自閉症スペクトラムをお持ちの方や,視線不安や社交不安をお持ちの方の対人コミュニケーションの特性を評価したり,訓練する方向に,このような技術が使えないかと考えています。

 下は,昔ゼミ紹介のデモ用に作ったアニメーションです。

 本プログラムは,科学研究費助成事業(基盤研究(C),課題番号19K03389,「センサ技術を活用した障害児の認知機能評価・発達支援プログラムの開発」)の補助を受けています。


動作環境

[ハードウェア]

[OS]


使い方

プログラムの実行


プログラムの操作(通常版)

 このプログラムは,私の学科のオープンキャンパスでの展示体験用に作ったものです。展示として使用するのに,多少ランダムに動かないと単なるマネキン人形にしか見えないので,ロボットの頭部の動きと表情の強度がランダムに変動するようプログラムしています。

プログラムの操作(VR版)

【注意】VR版もコントローラーでの操作ができる以外は通常版と同じです。


制限事項等


その他

「通常版」で動作が遅いとき


変更履歴


プログラムのダウンロード