
この記事が含む Q&A
- ヌーラは自閉症の人が共感的応答を練習するうえで、どのような練習を提供しますか?
- リード文を聞き、感情を分類し、共感的に返答する一連の練習と即時フィードバックを行います。
- 4週間の練習で、実生活の会話における共感的応答はどのくらい改善しましたか?
- 介入後のZoom会話でヌーラ群は共感的応答が平均約38ポイント改善しました。
- 安全性や倫理面はどう確保されていますか?
- 事前審査済みリード文とAzureの不適切発言検知、HIPAA準拠のデータ保護により安全性を確保しています。
職場で同僚から「週末は楽しかったよ」と話しかけられたとき、自然に返事をする——多くの人にとっては当たり前のやりとりです。
しかし、自閉症の人の中には、このような場面で適切な返答を見つけることが難しい場合があります。
こうした会話のぎこちなさは、友人関係や職場での関係づくりを妨げるだけでなく、うつなどの併存症状を悪化させることもあります。
従来、専門家との対面による臨床的な練習は有効であることが知られていますが、費用が高く、また地域や人員の制約から多くの人が利用できません。
米スタンフォード大学医学部精神科・行動科学の臨床教授リン・コーゲルと、コンピュータサイエンス学部のモニカ・ラム教授らは、この課題を補う方法として、AIを活用した新しい介入を研究しました。
その成果が、Journal of Autism and Developmental Disordersに掲載されています。
今回の研究で使われたのは「ヌーラ(Noora)」という特別なチャットボットです。
大規模言語モデル(LLM)を搭載し、文章または音声でやり取りしながら、ユーザーが社会的コミュニケーションのさまざまな場面を練習できるように設計されています。
質問をする、ほめ言葉をかける、共感的に応答するなど、自閉症の人が苦手としやすい分野を個別に練習できます。
今回焦点を当てたのは、この中の「共感」モジュールです。
ヌーラはまず、「最近とても疲れていて、集中するのが大変なんです」といったリード文を提示します。
ユーザーはこれをポジティブ・ニュートラル・ネガティブのどれかに分類します。
その後、最初の文に共感的に返答します。
返答が適切なら「よくできました」とフィードバックし、不十分なら優しい指摘と改善例を示します。
リード文や模範の返答例は、事前に人間が作り、不適切な内容が出ないよう330文を選び抜きました。
ヌーラはこの中からランダムに出すだけで、その場で新しい文を作ることはありません。
一方で、ユーザーの返答を評価するときは、AIが事前にたくさんの例を見て学ぶ「インコンテキスト学習」という仕組みを使いました。
これは、新しいゲームを始める前に、プレイ動画や攻略例を見てコツをつかみ、それを本番で真似するようなものです。
ヌーラには、共感のある返答や、逆に共感が足りない返答をたくさん見せ、「こういう返し方が良い」「こういう返し方は避けたほうがいい」という感覚を覚えさせました。
実際のやり取りの中で似た状況が出てきたら、その学んだパターンを応用して返事ができるようになっています。
さらに、あえて難しいケースを選び、その場合のフィードバック例も作っておくことで、ヌーラがより的確に改善案を出せるようにしました。
研究は、30名の自閉症の思春期〜成人を対象に無作為化比較試験で行われました。
半数は4週間ヌーラを使用し、残りは何もしない待機群です。
ヌーラ群は1日10回、週5日、計200回の練習を行いました。
課題は、リード文を聞き、感情を分類し、共感的に返答するという流れです。
返答には即時のフィードバックが付き、正解なら紙吹雪のアニメーション、不正解なら模範解答と改善のヒントが表示されました。
結果、ヌーラ群の71%が共感的応答の数を増やしました。
さらに、この効果が実際の人との会話にも広がるかを調べるため、介入前後に研究チームのメンバーとZoomで20分間の会話を行い、共感的応答の割合を比較しました。
その結果、ヌーラ群は平均で約38ポイント改善し、待機群の変化はほぼありませんでした。
この差は統計的に有意で、わずか4週間のAI練習で人との会話における共感的応答が大幅に向上することが示されました。
ヌーラ内での練習データでも、最初の50回と最後の50回の比較で多くの参加者が成績を伸ばしていました。
満足度アンケートでは、94%が「プログラムを楽しめた」「役に立った」と回答しています。
安全面でも配慮が行われました。
ヌーラは自由会話型ではなく、全てのリード文は事前審査済みです。
さらに、マイクロソフトAzureの仕組みで危険な発言や不適切な言葉を自動で見つけて止めるようになっています。
あわせて、医療情報の安全基準(HIPAA)に沿って、やり取りや個人情報がしっかり守られるようにしています。
コーゲルは「AIを使った研究は多くありますが、実生活への一般化を示したものは少ない。それを証明するのが今回の目的でした」と語ります。
今後は共感以外のモジュールの有効性も検証し、臨床現場や一般利用に向けたベータテストを進める予定です。
さらに、これまで対面で行ってきた動機づけ支援など、他の自閉症支援にもAIを取り入れたいとしています。
「子どもたちはコンピュータを好みます。せっかくなら、その時間を学びの機会に変えたいのです」
この研究は、AIを活用することで、従来アクセスが難しかった社会的コミュニケーションの練習を、低コスト・短期間・自宅からでも可能にする可能性を示しました。
とくに共感的応答という、人間関係を築くうえで重要なスキルの習得に、新しい道を開く成果です。
(出典:米スタンフォード大学HAI DOI: 10.1007/s10803-025-06734-x)(画像:たーとるうぃず)
人間でないからこそ、すばらしい練習相手になったりします。
かかえている人の困難の軽減に役立つ、こうしたAIの使い方、ますます広がることを願っています。
(チャーリー)