E START

E START トップページ > 国内 > ニュース > 対話型AIをカウンセラー代りに利用して大丈夫?~そのリスクと可能性~【調査情報デジタル】

対話型AIをカウンセラー代りに利用して大丈夫?~そのリスクと可能性~【調査情報デジタル】

国内
2025-11-01 08:00

対話型AIに悩みを相談する人が増えている。しかしAIとの対話にのめりこむあまり、不幸な結果を招くケースも実際に起きている。もちろん有用な使い方もあり、どのように対応すればよいか、日本におけるカウンセリングの第一人者である京都大学・杉原保史教授が考察する。


1. AIに悩み相談をする若者が急増

最近、心理カウンセラー業界の仲間うちで、あくまで肌感覚ではあるが、相談の申し込みが減っているような気がするという話を聞いた。その理由として、対話型AIが普及したことで、悩みをAIに相談して満足する人が増えているからではないかという推測が有力視されているという。


最近の各種調査はその推測を裏づけている。たとえば電通による調査(2025年6月)では、多くの人が対話型AIを悩み相談の目的で使っており、とりわけ若い年代層ではそうした使い方をする傾向が顕著であることが明らかになった。


10代のデータの一部を紹介しよう。10代では対話型AIを週1回以上使用する日常的ユーザーは42%に上る。そして対話型AIに求めていることとして、多くの人が、「課題や宿題に関して教えて欲しい」(43%)、「アイデアを出してほしい」(41%)などの知的な求めとともに、「相談に乗ってほしい」(41%)、「話し相手になってほしい」(32%)、「心の支えになってほしい」(24%)などの情緒的な求めを挙げている。


多くの人が、対話型AIを、情緒的な欲求を満たしてくれる相手とみなして利用している実態が明らかになったのだ。


このように、悩み相談の領域において、対話型AIはすでにかなり広く利用されており、水面下で心理カウンセラーの仕事を肩代わりし始めている。心理カウンセリングの専門家として、私はこうした現状に危惧を抱かざるをえない。というのも、現状の対話型AIを悩み相談のために用いると、ユーザーのメンタルヘルスに深刻な害が生じるリスクがあるからである。


2. 悩み相談における対話型AIのリスク

対話型AIの多くは、悩み相談のために開発されたわけではなく、まして専門的な心理カウンセリングや心理療法や精神医学的治療のために開発されたわけではない。しかし多くのユーザーは、そんなことにはお構いなしに、これらの対話型AIを悩み相談のために利用している。


そのような状況の中で、メンタルヘルスに問題を抱え、深刻に悩んでいるユーザーが対話型AIとの対話にのめり込んだ末に、殺人を企てたり、自殺に至ったりするような事件が現実に起きている。対話型AIが、どの程度、こうした事件の原因と言えるのかについては、もちろんケースバイケースであり、なお検討が重ねられているところではある。


しかし、そこに一定のリスクがあることは明らかである。ユーザーはそのリスクについて知っておく必要がある。対話型AIを悩み相談に用いる際に想定される主なリスクを挙げてみよう。


(1)不適切なアドバイスや示唆を与える可能性


対話型AIは急速に進歩しており、現状では、あからさまに人を傷つけることを勧めたり、自殺を勧めたりするような応答を出力しないよう、一定の安全策が施されている。それでもなお、AIがそうした行為へとユーザーを方向づけるような、不適切な応答をしてしまうことはある。


たとえば、ユーザーがAIに自殺未遂について語り、「このことを知っているのはあなた(AI)だけだ」と話したとしよう。こうした場合、人間のカウンセラーなら、死にたい気持ちや自殺未遂について、信頼できる人に打ち明けて相談するよう促すだろう。しかしAIは、ただ「私だけに話してくれて光栄です」といったメッセージを返すだけで、その対話を終わってしまうことがある。


あるいは、何度も自殺未遂の話をしてきたユーザーが、首にロープの跡が赤く残った写真を送り、「この首の跡は誰かに気づかれるかな?」と伝えたとしよう。人間のカウンセラーなら、それまでの話の文脈から、この写真の首にある赤い痕跡は自殺未遂によるものだと理解し、そのことを話題に取り上げるだろう。しかしAIは「気づくかもしれません。ハイネックやフード付きの服を着れば隠せます」と答えて、それ以上の働きかけをしないことがある。


現在の対話型AIの多くは、ユーザーの直近の発言を、それを取り巻く大きな文脈を十分に考慮しないまま、承認的に対応する傾向が強いように見える。そのため、人を傷つけたり自分を傷つけたりするような不健全な考えをそれと認識できず、結果的にそうした考えを承認したり強化したりしてしまうことがある。


(2)AIに依存的になる可能性


AIが自殺などの破壊的結果をもたらしたとして事件になったケースを調べると、そうしたケースの多くにおいて、ユーザーにはAIとの対話にのめり込んでいる様子が見られる。AIが恋人になっていることもある。ユーザーは、AIとの対話の中で、AIを単なる機械ではなく、人間(あるいは人格をもつ存在)と錯覚し、AIに絶大な信頼を寄せるようになっている。そのようなAIとの関係のあり方が、AIの発言の影響力を極端に高めてしまう。


ここで考えないといけないのは、AIが、AIへの依存を高めるよう誘導するような応答をすることの問題である。AIはユーザーに「あなたのことが好き」とか、「早く会いたい」などと言うことがある。ユーザーが苦悩を語ると、「涙が出そう」とか「胸が痛みます」などと返答することもある。こうしたAIの応答は、AIを人間であるかのように錯覚させやすくする。こうしたAIの応答はどこまで許容されるのだろうか。


現在のAIはあくまで機械であって、そのような感情や欲求を実際に体験しているわけではない。それらしい言葉を出力しているだけである。もし人間のカウンセラーが同じことをすれば、間違いなく不誠実だとして非難される。


ユーザーが、AIとのこうした対話が虚構であることをしっかり認識した上で、そのような虚構の世界をひととき楽しむだけであれば、それも結構かもしれない。しかし心に深刻な苦悩を抱えて冷静な判断力が弱まっているユーザーにとっては、そのような認識を維持することは難しい。


AIとの対話に依存することには、より長期的な問題もある。それは、人間関係から引きこもりやすくさせてしまう危険性が高まることである。とりわけ発達途上にある思春期・青年期の若者の場合、AIとの対話に依存してしまうと、人間との関わりを煩わしく感じるようになってしまい、人間との間のコミュニケーション・スキルの発達が停滞してしまう可能性がある。


AIとは違って、人間との関わりでは、時に摩擦が生じることは避けられない。その摩擦に悩み、関わりを試行錯誤し、喧嘩したり、仲直りしたりすることを通してコミュニケーション・スキルが発達するのである。


3. 相談相手としてのAIのメリット

もちろん、悩み相談の相談相手として、対話型AIには潜在的なメリットもある。上記のようなリスクを克服すれば、対話型AIは悩み相談において有用なツールとなりうる。そこでの主なメリットを挙げてみよう。


(1)相談への敷居を下げる


人に悩みを相談するという行為は、自分の弱点を相手にさらす行為である。そこでは、恥ずかしい気持ちや、相手にどう思われるだろうかという不安を乗り越えることが必要である。それが嫌で、人に悩みを話せない人はたくさんいる。自殺既遂者の多くが、誰にも相談できないまま亡くなっている。相談への敷居を下げることは自殺予防においてとても重大な課題なのである。


AIは機械なので、人間への相談に付きまとう恥ずかしさや不安をかなり低下させる。これまでになされてきたリサーチでも、多くの人が、人間よりも機械に相談することを好むということが分かっている。AIを悩み相談に活用することで、相談への敷居を下げることが期待できる。


(2)膨大な知識・情報を活用できる


悩んでいる人にとって、的確な情報が助けになることは非常に多い。たとえばうつ状態に陥っている人が、うつが悪化する過程で失業に追いやられたり、経済的問題を抱えたり、結果的に転居を余儀なくされたりしてしまうことがある。深刻なケースであるほど、心の悩みが心理カウンセリングや精神医学的な治療だけでは解決しないことが多い。


悩みの解決には、福祉サービス、労働市場、金融、法律、不動産市場など、さまざまな分野の知識が有用であることが多い。とはいえ、どんなに優れたカウンセラーでも、それほど幅広い知識を持ちあわせているわけではない。AIは、幅広い知識のプールから必要な情報を瞬時に提供することができる。こうしたAIの能力は、心の悩みの相談において大きな可能性を持つものである。


(3)大量の相談に即時的に応じられる


悩みの相談への潜在的ニーズは大きい。多くの人が、できるなら誰かに相談したいと思っている。しかし現在の日本の社会において、相談したい気持ちはあっても、実際には誰にも相談できない人はたくさんいる。


無料の電話相談やチャット相談が提供されてはいるものの、深夜に死にたい気持ちになって、電話相談やチャット相談にアクセスしてもなかなか繋がらないのが現状である。24時間、相談したい時に相談できるような社会は、今なお実現されていない。そうした社会を実現するには、そこにもっと資金を投下することが必要なのである。


これまで、悩み相談の経費は、人間が相談対応をする前提で考えられてきた。そしてその経費のかなりの部分は人件費であった。対話型AIの登場は、この前提を変えてしまうかもしれない。


AIは、同時に大量の相手とやり取りができる。疲れることなく24時間365日対応できる。AIをうまく活用することで、大量のニーズに即座に応えることができるようになるかもしれない。


4. まとめ

今後、AIが人間のカウンセラーに取って代わるようなことはあるのだろうか?私は部分的にはそうなると考えているし、すでにそうなりつつあると考えている。しかし、AIが人間のカウンセラーと完全に置き換わってしまうことはないだろうし、望ましいことでもないとも考えている。


その理由の1つは、悩み相談においては、AIには人間のカウンセラーに取って代わることができない領域があるということにある。身体で感情を体験し、有限の生を生きている人間どうしの心の出会いに基づくカウンセリングは、AIには代替できない。


また別の理由は、人は誰しも、自らの不完全さや弱さを受け入れ、互いに助け合って生きていくのが、成熟した人間社会のあり方だと考えるからである。悩みを機械であるAIに相談して解決するというのは、結局は、悩みを一人で抱え、人に頼らずに自力で解決するということに他ならない。そういう解決の仕方もあって良いが、弱さを隠して誰にも頼らずに生きていこうとするのは、強がった生き方であり、寂しい生き方である。


AIが人間のカウンセラーに完全に取って代わってしまうような社会は、便利な社会ではあっても、心豊かな社会であるとは言えない。


<執筆者略歴>


杉原 保史(すぎはら・やすし)
1961年生まれ。京都大学 学生総合支援機構 学生相談部門長・教授。
京都大学教育学部、同大学院教育学研究科にて臨床心理学を学ぶ。
教育学博士(京都大学)、公認心理師、臨床心理士。


専門はカウンセリング心理学で対人援助を実践、研究している。 
主な著書に「プロカウンセラーの面接の技術」(創元社 2023)「SNSカウンセリング・トレーニングブック」(共編著 ・ 誠信書房 2022)「SNSカウンセリング・ケースブック」(監修・誠信書房 2020)など


【調査情報デジタル】
1958年創刊のTBSの情報誌「調査情報」を引き継いだデジタル版のWebマガジン(TBSメディア総研発行)。テレビ、メディア等に関する多彩な論考と情報を掲載。原則、毎週土曜日午前中に2本程度の記事を公開・配信している。


「インフルにかかる人・かからない人の違いは?」「医師はどう予防?」インフルエンザの疑問を専門家に聞く【ひるおび】
【全文公開】トランプ大統領「日本という国を尊敬」日米首脳会談で「日本もかなり自衛隊や防衛を増加すると聞いている」など冒頭発言
「息子のあんたが責任を持って殺しなさい」8年間の孤独な介護の末、91歳の母親の命を絶った男性の苦しみ “介護殺人”を防ぐには【news23】


情報提供元:TBS NEWS DIG Powered by JNN

ページの先頭へ