「科学的介護の実現に向けて、現在の進捗とこれからの活動」開催レポート(前編)
会員コミュニティ「雨宿りの木」にて、8月に行われたオンライン勉強会「科学的介護の実現に向けて、現在の進捗とこれからの活動」の模様をご紹介します。ゲストは当学会の理事でもある京都大学大学院情報学研究科の中澤篤志准教授。中澤先生が代表となり進められているユマニチュードの科学的な分析、人工知能やロボットを使った共同研究とは、そしてそこから広がる「優しいケア」について、本田美和子代表理事と語っていただきました。

日本ユマニチュード学会理事
京都大学大学院情報学研究科知能情報学専攻 准教授
大阪大学講師を経て2013年から現職。医療者やロボット研究者、心理学者らとチームを組み、ユマニチュードを通じて優しいケアの技術を解明する研究プロジェクトを牽引している。
本田美和子・代表理事(以下、本田) 今日は私が長年に渡りお世話になっています中澤篤志先生をお迎えしました。中澤先生は、ユマニチュードがなぜ有効なのかの分析や、ケアの技術を的確に人に教えるための方法についてご専門の情報学の立場から一緒に研究してくださっています。先生、よろしくお願いいたします。
中澤篤志・京都大学大学院情報学研究科准教授(以下、中澤先生) ありがとうございます。私は医療者ではなく、情報学の分野の仕事をしていまして、人の動きをどう見るか、ユマニチュードの動きがどうして人を変えるのかに興味を持って研究しているところです。
本田先生とはもう6〜7年、ユマニチュードの研究を共にさせていただいています。
本田 初めてお会いしたのは東京医療センターでユマニチュードの研修をしていた時でしたね。どのような経緯でお越しくださったのでしょうか。
中澤先生 静岡大学の竹林洋一先生(現・静岡大学創造科学技術大学院特任教授)とお付き合いがあり、紹介していただいたことがきっかけでした。米国のジョージア工科大学にいた頃から、人の動きをどう機械で測るかという研究をしていたのですが、目の動き方、視線の動きを追うことが発達障害のお子さんの理解に役立つことが分かり、本田先生のやっていらっしゃるユマニチュードの「見る」こととも関係があるのではと思ったのです。
本田 とても穏やかで笑顔が素敵な方というのが、中澤先生の第一印象でした。先生に様々なケアの現場を見ていただいて、映像分析のご相談をしているうちに、日本科学振興機構の大型研究プロジェクト「CREST」で研究を進めるのが良いのではという話になりました。
中澤先生 今年で5年目ですね。大きな規模でやる研究で、九州大学システム情報科学研究院の倉爪亮先生にも参加していただき、とても面白い研究となっています。
本田 「優しいケア」が一体どういうものなのかということを、計算学的、情報学的に、もしくは脳科学的に解明するにはどうしたら良いかということを検討するチームとして、中澤先生はじめ様々な専門家の方々が参加してくださっています。
ユマニチュードのケアの映像を「優しいケア」を分析する材料として使ってくださる研究チームと、その分析をもとに先生方が開発したさまざまなシステムを現場で使いながら検討する臨床チームの組み合わせがとても良い組み合わせになっていると感じています。
今日はこれまでの研究の成果や、これから先、私たちがやろうと思っている研究の構想について、先生に存分にお話しいただきたいと思います。どうぞよろしくお願いいたします。
「人間らしさ」とは何か
中澤先生 まずは人工知能で「人を見る」ということについてお話をしましょうか。人工知能というと難しそうなんですけど、意外とそうでもないというところからお話したいと思います。
人間の視覚は、単に物を見ているだけと思いますけど、結構いろいろ高度なことをやっているんですね。今は様々な分野で人工知能ブームですが、僕が博士課程の学生だった1998年頃の人工知能の画像認識技術は、白黒の画像で人だと認識したところを見つけるというだけでした。うちの母が「こんなの私にもできる」と言ったんですが(笑)、その通りなんです。
例えば、地球シミュレータのようなコンピュータは600億かけて作られましたが、地球全体の気象のシミュレーションができます。でも、画像認識や人の動きの認識の人工知能は、たくさんお金をかけて研究しても人と同じ能力にしかならないので、そういう意味で本当にすごいことなのかと言われます。僕はその人間の能力が面白いと思っています。
本田先生、このイラストの中の四角いものは何だと思いますか?
本田 車ですね。
中澤先生 車ですよね。でも、四角の周りを消すと車とは分かりませんよね。
では、この線は何でしょうか?
本田 今なら道路だと分かります。
中澤先生 そうですよね。四角だけでも、線だけでも、車や道路だと言える人はいません。人は全部一緒にして物を認識しているんです。
それともう一つ人間の能力のすごいところは、これはユマニチュードにも関係するのですが、人は人の顔をパッと発見できる能力があるんです。これは月の裏側ですが、光の当たり加減で、人間の顔に見えます。まず目に見える部分を発見して、そこに鼻と口が加わると顔と認識します。
人間は初めて見たものでも「類推」ができて、周りの状況からそれが何か「理解」できるというのが人工知能と最も違うところという話なのですが、僕がなぜユマニチュードを面白いと思うかというと、人のことをもっと理解する、人のことをもっと分からないとユマニチュード(がなぜ有効なのか)も分かってこないというところなんです。
駆け足になりますが、他にも視線についてお話すると、面白いのは人の視線というのはパラパラとあちらこちらに動くんですね。これから何をしようかという時には、まず目が動いています。
本田先生もユマニチュードの解析にお使いのアイトラッカーという機械があるのですが、例えばキッチンで物を探している時、まずお皿に目が行ってからお皿に手が行きます。ピザを取る時には、まずピザを見てから手が出ます。人の目を見るとその人が何をするのかが分かる、視線にはいろいろな情報が入っているんです。「目は口ほどに物を言う」と言いますが、目を見ると色々と分かることが多いと思います。
こうした研究をしているのですが、それでは今、本田先生や倉爪先生、他にもたくさんの協力者の方々と行っているプロジェクトの映像がありますのでお見せしたいと思います。
本田 先ほどお話したCRESTの研究チームがどういうことをやっているのかを多くの方に知ってもらうために2年ぐらい前に作りました。現在は、当時よりもう少し話が進んでいる感じですね。
本田 このビデオで紹介されている九州大学の倉爪先生が開発してくださったシミュレーショントレーニングシステムはさらにバージョンアップしています。その効果を検討する臨床研究が今秋から始まります。
中澤先生 我々の(視線の)研究で、ユマニチュードの顔の近づけ方にはどういうスキルが使われるか分かったので、その情報を使って、倉爪先生の九州大学チームにVR(仮想現実)やAR(拡張現実)のシステムを作っていただきました。ジネスト先生にも使っていただいて、とても面白いとおっしゃっていただきました。
本田 この左下にある映像がジネスト先生が見ている映像ですが、自分がどんな状況にあるかということが、リアルタイムでジネスト先生にフィードバックされています。おばあさんに近づいて視線をしっかり合わせると喜んでくれるのが分かり、顔から視線が離れてしまうと星が消えます。上手くいくとまた星が出てくるというように、相手に対するコミュニケーションの技術を星で評価しています。
現在はさらに改良されて、触れることや、話すことについてもリアルタイムフィードバックできるようになりました。複数のコミュニケーション技術を組み合わせて行う、マルチモーダル・コミュニケーションに関してのトレーニングの効果は非常に高く、ジネスト先生も「これは私自身にとっても、自分の技術を改善させることができる。世界に紹介したい」とおっしゃっていて、倉爪先生とさらなる開発を進めています。今日オンラインでご参加くださっている倉爪先生、もしよろしければ補足をお願いできますでしょうか?
倉爪亮・九州大学大学院教授(以下、倉爪先生) はい、もしよろしければ数秒だけですが新しい映像をお見せします。これは一番新しい物なのですが、データグローブというグローブを手につけていて、話しているとか触れているとか、目を見ているとかいうことがスコアとして出てきます。
触れている、喋っている、目を見ていることが同時にできると、色が変わってケアが上手くいっていると教えてくれます。相手が声を出して笑ってくれたり、声も出るようにしています。
本田 画面の下にあります数字は、横向きの8の字のような形のところの数字が見ている時間、音符が話している時間、手のような形が触れている時間で、カッコの左側がマルチモーダルな時間を示しています。
マルチモーダルトレーニングが、実際のシミュレーショントレーニングとして可能となり、ジネスト先生がそのご経験にもとづいて「とても役に立つ」とお考えのこのシステムを、より多くの方に使っていただけるように開発できたらと思っています。倉爪先生、ありがとうございます。
倉爪先生 ありがとうございました。
ユマニチュードの有効性
中澤先生 ここからは最近分かったことや、今やっていること、例えばCRESTの他のチームがやって下さっている話もいくつかご紹介したいと思います。
一つは、ユマニチュードの複数の技術を組み合わせることが、なぜ良いのかを理化学研究所の佐藤弥先生のグループが研究しています。ジネスト先生やインストラクターの方が必ずやられている、話しながら、見ながら、タッチするということ、タッチの研究です。
接触の研究は、2つのタッチの違いを評価したくても、タッチ自体が人の心理、人の行動で変わってしまうので、結構難しかったんですが、ロボットを使ってタッチするというデバイスを奈良先端科学技術大学院大学の高松淳先生が作って下さって、接触と言葉を組み合わせた実験を行いました。
これが高松先生が作ったロボットハンドなんですけど、
ロボットが背中を触れる時に、声をかけながら触れるのと、声をかけないでただ単に触れるだけだと、どう感覚が違うんだろうという研究で、この表のMultiというのが話しながら触れた場合、Touchはただ単に触れるだけ、Speakは話しただけの場合ですが、Multiでは感情価で「快」に感じる度合いが明らかに向上し、覚醒度も人間らしさも上がります。
ここで面白いのは、合成音声で話しかけてロボットが触れたのに「人間らしさ」が上がるという結果で、複数のことを組み合わせること自体が「人間らしさ」や「快」というものを表現するんじゃないかと私達は考えているところです。アイコンタクトもしないといけないんですけど、お話をする、あるいはタッチをする、それらを組み合わせることで色々良いことがあるというのが分かったのが、一つの成果かと思います。
もう一つは、実際ケアをされている皆さんと介護を受けている人とで、どれくらいコミュニケーションのキャッチボールがあったかを研究した例がありますので、それもお見せしたいと思います。
ユマニチュードを勉強すると患者さんの反応が見えるようになるというお話があると思うのですが、介護する人、される人の間で、話しかけたら向こうの人が目を見て下さって、目を見て下さっているのがわかったらタッチするとか、キャッチボールがあるんですけど、これがどのくらい続くのだろうかという研究です。
介護を受ける方に介護する人が話しかけるのが100%だとしたとき、介護される方がそれにどれぐらい反応するかというと、インストラクターの方だと64%ですけど、そうではない人だと38%でした。インストラクターは相手に分かりやすくアプローチしているということなんですね。
その介護される方の反応に対してどのくらい返しているかというと、インストラクターで37%。一方、まだユマニチュードをやられていない方は9.3%ぐらいなんですね。例えば10回話しかけたときに、キャッチボールが行われたのはインストラクターだと3分の1以上なんですけれど、初心者やユマニチュードをやっていない方は10分の1ぐらいなんです。
この結果が何を意味するかというと、一つは分かりやすくアプローチできているか、もう一つは介護されている方の反応を見ることができているかという二つのことがあると思っていて、こういう流れの確率をどう上げていくかというのは重要なお話なんじゃないかなと思います。ちょっと真面目なお話し過ぎますか?
本田 いえいえ、とても面白いです。よく感じることなのですが、ユマニチュードのトレーニングを受けた方は、ケアの相手が自分を見てくれたときに「見てくれてありがとう」とおっしゃり始めるんです。単に相手が自分を見ていると感じるだけでなく、「あなたが私のことを気が付いてくれたことを私は知っていますよ」ともう1回キャッチボールとして向こうに渡している。
これは「見る」だけでなく、たとえば「笑ってくれてありがとう」と言ったり、筋肉のトーヌス(緊張)が落ちる、タラーンとなってる状況を「とてもリラックスして下さっていますね」と表現したり。働いている人のセンサーが鋭敏になって、本当にわずかな相手の変化を逃さずキャッチして、それに対する反応を自分から相手にもう1回伝えているということが間近で見ているとよく分かります。そのことを改めて計測できたのがとても嬉しいです。
中澤先生 そうですね。今、本田先生がおっしゃった意味は二つあると思っていて、一つは(ユマニチュードのトレーニングを受けるとケアをする側の)センサーが良くなる。(相手が)ちゃんと見えている。もしかしたら見えているけど言わないのかもしれないとも思いましたが、きちんとフィードバックを返してあげるというのはかなり違う、重要なんだというのは、ずっと見ていてよく分かりますね。
本田 素晴らしいです。
※後編に続きます
(構成・木村環)
前のページに戻る