に投稿

数唱範囲課題(digit span task)

郵便番号は「○○○-○○○○」というように7桁。電話番号も家庭用では多くの地域で市外局番を除けば7桁。ひとり1台もつ携帯電話は7桁では足りないので,最初の3桁の番号を除いても8桁になった…すると,突然覚えにくくなった。多くの人が経験していることではないでしょうか。

情報を一時的に記憶するシステムを「短期記憶」と呼び,その限界容量(記憶範囲)は「7±2」と言われます。その根拠となる心理実験課題のひとつが「数唱範囲課題(digit span task)」と呼ばれる課題で,この課題は多くの知能検査セットにも含まれています(検査では,口頭で数字を言って,口頭で回答を求めるものがほとんどです←だから日本語では「数唱」という言葉を使います)。

この短期記憶,単なる一時的な情報の貯蔵庫ではなく,その中で情報を操作するのにも使われることから,近年は「ワーキングメモリ(working memory)」と呼ばれることが多くなりました。
ワーキングメモリは,人が何か目標をもった行動をするとき,課題の遂行に必要な情報を活性化した状態で保持する機能をもつことから,私たちの日常生活を支えるとても重要な脳機能として注目されています。何かを取りに部屋に来たんだけど…あれ,何しに来たんだっけ?…と,行動の目標を忘れてしまった経験は誰にでもあるでしょう。

最近,私のゼミでは,このワーキングメモリや実行機能・遂行機能と呼ばれる脳機能を調べる研究をする学生たちがいます。もちろん,地方の小さな大学の心理学研究室だから超先端的な研究というわけではないのですが,ICT(情報コミュニケーション技術)を活用していろんな課題を実際に作ってみて体験的に研究できるのがうちの強み(よしだがしこしこ作ってます…時間くれ~>大学)。

今年度,ゼミの卒論研究で,もっとも基本的なワーキングメモリ課題である数唱範囲課題のWindows版プログラムを作って使ったので,それをお正月休みを使ってリファインして公開してみました。詳細は以下のURLをご覧ください。ホームページ上で体験できるプログラム(Web版)も用意していますから,パソコンをおもちなら気軽に試してみることができます。

【数唱範囲課題のプログラムページ】

https://maruhi.heteml.net/programs/digitspan/digitspan.html


さて,この数唱範囲課題,昔からコンピュータ版を作ってみたいと思っていたんです。

いろいろな場面で使える汎用性の高い課題だということもあるのですが,半世紀以上も前に書かれたある論文の実験結果にちょっとした疑念と興味をもっていたからなのです。本当にそんなことはあるのだろうか,もしそうならばこれを使っておもしろすごい!ことができるかも…という妄想… (^^;)

…で,今,予備実験を通して目途が立ち,院生(M1)と学部3年生の共同チームではじめようとしている実験の様子をお見せしましょう(下のビデオ)。30桁の数字を覚えて,正しく再生した瞬間です!

ちなみにこのビデオで課題をやっているのは私自身なのですが,30桁いけることを示してくれたのは私より学生が先でした(よしだ負けましたわ… ^^;)。どうもこの芸当?は,誰でもできそうなのです。

でも,自分でやっておきながら,(認知心理学者の端くれとして)これがいまだに信じられない…なぜできるのかがわからないのですよ。特別な記憶術を使ったり,カンニングしているわけではありません。しかも授業で高校生たちに見せようとこれを録画したときは,ゼミ生たちとおしゃべりしながら課題をやっていたんです。大して集中しなくてもできてしまう。工夫や方略を使わず,ほとんど努力もしていないから,自分自身,なぜできるかを説明できないという不思議…これまで経験したことのない経験。

昔の雑誌や新聞に「らくらく記憶術」とか「寝ている間に覚えられます」みたいなあやしい広告がありましたが,記憶ってそんな簡単なものでないのは明らか…なのに…です。

私たちの脳って,ものすごい可能性を秘めているのはどうやら間違いありません。

(続く←たぶん1年後… ^^;)

に投稿

書字・描画分析プログラム

Microsoft Surface(Pro)はペンタブレットとしても使えるから,書字や描画時の運筆分析に使えそうだというので,鏡映描写と組み合わせて,学生たちと放課後デイの子どもたちの認知機能(抑制機能)の評価/訓練の研究をしていました(下は学生がやっているところです)。

コロナのために思うように現場研究ができなくなってしまったのですが,プログラムのコーナーに,そのときのプログラムを掲載しましたので,興味のある方がいらっしゃいましたら,ダウンロードしてお使いください(プログラムの実行にはSurface ProやSurface Bookなどのペンタブレット型のWindows PCが必要です)。

発達障がいをもつ子どもたちにやってもらうと…やはりかなり難しい(鏡映条件)。小学5年生でも下のような感じでした。「あ」の文字をなぞるのにかかった時間は2分半。

でも,おもしろいのは,月に1回しか体験しないのに,繰り返すとみるみる上手にできるようになること。下は4回目の結果です(23秒でなぞりました)。子どもの成長ってすごい! 障がいによって苦手なところをもつ子どもたちでも,それはまったく変わりません。

筆圧感知型のペンなので,筆圧の分析も可能です。1回目と4回目を比べると,筆圧の変化もこれだけ違う(4回目にはちゃんと3筆のストロークができています)。

1回目

4回目

書字動作に関して,筆圧が強すぎる/弱すぎるという話を発達支援の現場ではよく聞きますので,このようなプログラムがそのような子どもたちの評価や訓練に使えるかもしれません。

下は一般的な学生が通常の状態で「あ」の文字を書いたときの筆圧変化です(11.7秒)。赤い矢印のところのように,一画目の横棒の「止め」で筆圧が上がっているのも見て取ることができます。

私の研究室では,このようにいろいろなツールを活用して,どんな使い方ができるかを考え中です(時間くれ~ > 大学)。

に投稿

仮現運動

2つの光点が点滅しているだけなのに,1つの光点が動いているように見える「仮現運動」という現象があります。

「知覚・認知心理学」という自分が担当している授業では,いろいろなデモ用のプログラムを自作して使っているのですが,昔作ったプログラムなので,手軽にどんなマシンでも動かせるというものではありません。そこで,UnityのWebGLを使えばお手軽に体験してもらえないかなと思って,お盆休みにテストプログラムを作ってみました。

キーボードが必要なのでPC用のページなのですが(キーボードがあればiPadでも動きました),下のページにアクセスして「2 points apparent motion」を選んでみてください。仮現運動のディスプレイが表示されて,矢印キーで光点の刺激間間隔時間(inter stimulus interval, ISI)や露出時間(duration),光点間の距離(distance),光点の大きさ(size)などを変更しながら,運動の見えの変化を体験することができます(キーは1秒長押しするとリピートします。また,距離等は画面の横幅を1000としたときの相対値です)。

【仮現運動デモ】https://maruhi.heteml.net/webprog/AM01_web/

ごく簡単にですが,刺激の露出時間,ISI,空間距離,刺激強度が仮現運動の知覚に及ぼす影響を定式化した「コルテの法則」(Korte’s Law; Korte, 1915)を体験することができる…かな?

テストしてみたところ,Windowsでは画面描画のタイミングなどもバッチリとれているようですが,iPadでは同じく60 Hzで動いているのに表示のタイミングがずれることがあるようです。

に投稿

2021年度のゼミの卒論・修論の要旨を掲載しました

今年度の吉田ゼミの卒論・修論の要旨のPDFファイルをゼミのページに掲載しました。

2021年度卒業論文

2021年度修士論文

私たちの学科では学部生は3年次からゼミに分かれますが,今年度の卒業生たちは,ゼミ分けと同時にコロナ禍に巻き込まれて,ゼミ全体で集まることがほとんどできない状況で学生時代の後半2年間を過ごしました。下の写真は10月の中間発表会前と,12月の県内感染者ゼロが続いていたころに撮ったもので,後期はたぶんこの2回しか全員が集まったことはない。

でも,その一方で,今年の4年生はコロナで原則学生登校禁止の期間中でも,毎週のように大学に許可を申請しては数名単位で集まっていたし,オンラインでのやり取りも頻繁だったので,終わってみれば,こんなに長い時間を一緒に過ごした学生たちはこれまでいなかった…ですね。

本当に元気で活発,積極的なゼミ生たちで,コロナ禍で大変ではあったけれども,彼らの中に学生の本分を見たような気がしてうれしく思いました。

そんな彼らも18日に卒業式を迎えます。

 

に投稿

短期記憶容量を測定する

なんとか授業が終わって,少しだけ時間ができたので,ゼミの3年生の授業で作ったプログラムをワーキングメモリ道場に掲載してみました(その他の項目にあります)。

知能検査でも使われている数唱範囲課題(digit span task)をホームページ上でできるようにしたプログラムです。順唱と逆唱の両方に対応しています。

いずれ,きちんとしたWindows版の実験プログラムにして公開しようと思っていますが…プログラムの原材料は時間なのに,相変わらずの時間貧乏です。

私のゼミ(実験心理学研究室)では,こういう課題を実際に作ってみては,いろいろと条件を変えて試行錯誤をしてみたいなと考えています…すると,知能検査や神経心理学的検査が測定しているものって何なのか…テキストや論文を机上で読んでいてはわからない脳と心の働きが見えてくると思うのです。

p.s.
別件です。昨年の日本心理学会で,2020年ゼミ卒の新田芙美さん・堀口智佳さんと一緒に彼女たちの卒論を「ダーウィンの“相反の原理”はヒト表情にもあてはまるか?」と題して発表したのですが,優秀発表賞をいただきました! 2018年の同学会でも同年卒の岡﨑愛美さん・古山ちあきさんの研究「バーチャルリアリティ空間における月の錯視」で同賞をもらっていますし,ゼミ生の卒論が認められるのはうれしいことですわ~ (^^)。

 

に投稿

Kinectサッカーを公開しました

Kinectでアバターを動かしてサッカーのゴールキーパーになって遊ぶゲーム「Kinectサッカー」を公開しました(v2センサだけでなく,Azure Kinectにも対応しています)。プログラムのコーナーにあります。

私たちは,療育施設などで身体運動がぎこちない子どもに対してKinect風船割りゲームで運動機能の量的評価を得ているのですが,このゲームは,遊び要素を増やすことで気楽に運動療法的に遊べるように作ったものです。子どもたちに(大人たちにも)とても人気の展示で,野球ゲームも作っているので,時間のあるときにそれも公開します。

コロナ禍のため,ゼミで施設に出かけていってゲームコーナーをすることができない状況が続いていますので,どのくらい使えるかわかりませんが,私たちがこれまで作ってきた成果を公開していきたいと思います。

 

に投稿

バーチャル花火大会

新型コロナ感染症や警備体制が整わないなどの理由で,広島でもいくつかの花火大会が中止になってしまいました。日本の夏の風物詩なのに,とても残念なことですよね。

そこで,花火を観られるプログラムを作ってみました(プログラムのコーナーに置いています)。

実はこれ,医療的ケアが必要な方のための生活介護事業所で,重度の障がいや難病のために外出が困難な方に楽しんでもらおうと作ったものなのです。下の写真は,昨冬,その施設の職員の方たちを対象にした体験会の様子。

このプログラムは,VRゴーグルがあれば,単に地上で花火を観るだけでなく,下のビデオのように空に舞い上がって,花火の中を飛び回ることができます (^^)…夢あると思いませんか?

コロナ禍もまだ予断を許さない状況ではありますが,ゼミ生にもワクチン接種を済ませる学生も増えてきましたし,またいろんなご施設で活動ができればいいなと思っています。

 

に投稿

うちのロボット

今日(7/9)は大雨のため,大学は急遽お休みに。
授業はほとんどオンラインでやっているので支障ないのですが,今日は4年生と実験の準備をする予定でした。コロナが収まってきたので,さあやるぞ!…となったところに大雨!というのは,昨年もこの学年のゼミで繰り返されたパターン。自然が相手とは言え,はぁ~~~。

学生たちが来られなくなったので,この週末に行われるオープンキャンパスの準備をしているのですが,今年もさわることのない非接触の展示だけに限定しようと思っているので,(比治山心理というか私のゼミの特色のひとつの)VR展示はできないなぁと…。これも,はぁ~~~。

というわけで,できた時間を使って,うちの隠れゼミ生(プログラムで作ったロボットです)をプログラムのコーナーに公開してみました。オープンキャンパスや大学祭で展示しているものです。

ソフトウェアロボット (https://maruhi.heteml.net/programs/softrobot/softrobot.html)

「まぁとにかく,かわいく作ったら絶対大丈夫じゃろ~」と言いながら,ゼミで(お金がないので)CGで作ったキャラクタを動かし始めたのが5~6年前でしょうか。しかし,ロボット工学では1970年代から知られる古典的テーマ「不気味の谷」との戦いがこんなに大変なものだとは思いませんでした。どう作ってみても,「死体が動いている」ようにしか見えないし,笑うと思わず「引く」不気味さ…「バイオハザード」じゃなくても楽しめる恐怖。ちなみに,VR実験でいきなり目の前に提示すると,被験者のみなさんは悲鳴をあげながら身をよじって飛び上がります (^^;)。

でも,このロボット作りを通して,身をもって人間のスゴさ!を知りました。相手が本物の人間かどうかを敏感に察知して見抜くすごい能力を私たちはもっているのです。表情に関しては,特に笑顔にキビシイ!…本当の笑顔かどうか,私たちは作られた表情の裏にある「心」に反応するのです。

ちなみにこのロボット,目が合ってもニコリともしないし視線の研究には向いているからVR環境下で提示する視線刺激として使ったり,最近は「ソーシャルディスタンス」のキーワードに乗ってパーソナルスペースの実験に使ったりしてきましたが,不気味さも慣れれば見られる程度になったので,まぁ話題性はありそうだし公開してみます(「ぜんぜんかわいいじゃん」なんて思うあなた,ぜひ,笑った顔←100%を見てあげてください ^^)。

本当は下の画面のマジ!ロボ!のプログラムを早めに公開したいのですが,こちらはOculusのVRがない人はまったく試すことができないし(しかも不気味の谷とは無縁のかわいくなさ←たぶん1年後のダウンロード数は100倍違うはず…),本格的な実験プログラムなのでもう少し学生がデータを取ってから公開します(これも人間のスゴさ!が体験できるんですよ ^^)。

 

に投稿

風船割りゲーム

Kinect v2センサを使った風船割りゲームを公開しました(希望された方には以前から配布していましたが…)。

私のゼミでは,子どもたちの放課後教室や高齢者施設でゲームコーナーを開いて,その中で楽しみながら,脳機能の評価やリハビリ・発達支援ができないかと,フィールドとなるご施設と連携して,ゲームを開発してきました。

Kinectのような身体をとらえることのできるセンサを使えば,身体を使って表現できるゲームが作れるし,その中で,視覚-運動協応や自動反応の抑制,視点取得のような脳機能の評価や訓練が可能になります(身体版ストループ課題として使えます)。

もし,手近にKinect v2がありましたら,ぜひお試しください。

風船割りゲーム(https://maruhi.heteml.net/programs/bodyimage2/bodyimage2.html)

に投稿

アバターを使ったVR実験プログラム

私のゼミの卒論では,最近VRを使った研究が人気なのですが,こんな心理実験もできるんです…という一例として,今年の卒論実験のプログラムをアップしてみました。

アバターを使ったVR実験プログラム

バーチャル・ユーチューバーのように,私たちは自分とは別の身体をあたかも自分であるかのように使って動かすことができます。そのとき,私たちの脳は身体の左右をどのように対応づけているのでしょうか?

私たちのこれまでの研究では,アバターと正面から向き合っているときには,鏡のように自分の右手と相手の左手が対応している方が動かしやすいのに,斜め前からになると,視点がまだ正面側なのに,脳は自動的に右手と右手,左手と左手というように,対応づけを自動的に切り替えることがわかっています。そこで,この実験では,もう少し難しいことをやらせてみたらどうだろうかと,「積み木遊び」をやってもらう実験を行いました(実験をやった結果としては,いろいろ反省点多く,まずはちょっと課題が難しすぎたね~というのが我々の正直な感想でした… ^^;。手の角度を調整する部分がどうも身体の左右といった粗大運動のコントロールとは違うメカニズムで行われているようですね。プログラムももう少しアーティファクトに影響されないように煮詰める必要があった…コロナが恨めしい)。

この実験プログラムでは,キーボードの「M」キー(Mirrorの「M」)で,その場で左右の対応づけを切り替えることができるので,身体性のデモンストレーションプログラムとしても使えます。Oculus(facebook)のVRゴーグルが必要なのですが,大学の実験室に転がっているようだったらぜひお試しください(Oculus Riftなんて,だいたい私のようなもの好きな教授がもっているはずです… ^^;)。

Society 5.0といわれる現代において,私たちは自分の身体を離れて活動できるようになってきました。そんな中で「身体性」に関する研究はいろいろと盛り上がってきています。たとえば,人工知能がどんなに発展したとしても,機械は身体をもたないので,私たちのような身体を使った認知はできません。そういう意味でも,身体性の研究は人間に残されたもっとも人間らしい部分の研究といえるかもしれません。脳梗塞などによる麻痺のリハビリなどの応用面でも今後注目です。

今年うちの院生がやっている研究も,大々的な論文にはしない予定なので,いずれ実験プログラムを公開しようと話しています。コロナ禍で対面での研究発表がなかなかできない中,地方の小さな大学の小さな心理学研究室としての学生の研究紹介です。