AI BLOG

ChatGPTが医師より上手く患者に「共感こめて」寄り添える深い理由を医師自身が語る

日々、AI絡みの開発現場でエンジニアの背中から注文(=文句とも言う)をつけているKENBOです。

『あれどうなった? ダメなら〇〇先生にアドバイスもらおうか?』と聞くと
『いや、昨日のAPIバージョンアップで解決できたので結構です。』と返ってきて、
おいおい、あれこれ悩んで苦しんだのは意味あったのか?
酒飲んで寝て待ってればよかった・・・と心の中で悔やんでます。

AIの進化が他の技術と違って、緩やかな成長ではなく階段跳びみたいに進化するので、
仕事全体ははかどる方向に進むのですが、進化スピードが速すぎて
脳がバグってしまうことが最近多くなったような気がしています。

そういうなかで、ニューヨークタイムズに掲載されていた
あるお医者さんの記事に激しく動揺を覚え、じっくり考えると
深く納得したChatGPTの機能について話したいと思います。

医師がAIの仕事ぶりに直面して衝撃!

Jonathan Reisman(ジョナサン・ライスマン)という医師がニューヨークタイムズに寄稿した
ChatGPTにまつわる医療現場での記事に心底驚きました。
本記事は、この医師自身の投稿記事をもとにお話しています。

The New York Timesのこの記事全文は登録しログインすれば読めますので、
ご興味ある方は原文をご覧ください。

Opinion | I’m a Doctor. ChatGPT’s Bedside Manner Is Better Than Mine. - The New York Times
Opinion | I’m a Doctor. ChatGPT’s Bedside Manner Is Better Than Mine. - The New York Times

My job is no longer safe.

www.nytimes.com


また、ジョナサン・ライスマンという方は内科・小児科を専門とした医師でもあり、
世界各地に飛び回り、自然と現代医療の関係についてはニューヨークタイムズだけではなく、
ワシントンポストなどへも多数寄稿しているライターでもあります。

こちらがジョナサン・ライスマン自身のさらっとしたHPです。

https://www.jonathanreisman.com/
https://www.jonathanreisman.com/

www.jonathanreisman.com

冒頭、2000年代に若くて理想主義に燃えていた医学生(Jonathan Reisman氏のこと)は、
AI(人工知能)に医師の仕事が脅かされることは未来永劫ないと考えていた、と始まります。

そうでしょうとも!
私(KENBO)も、この記事を読み終わるまでは
医師の仕事のあらゆる面で
そうそうAIがちょっかいを出せるはずはないだろうと高を括っていました。

その根拠はなにか?

ドクター・ライスマンの前文に出てくる次の主張に同感だからです。

"医療の実践には、人間的な側面が存在する
その側面とは、同情、共感そして医師と患者の間の明確な意思疎通
ということです。"

うんうん、私もそう思います。
ほとんどの方にとっても異論はないと想像します。
だからAIには無理!
と私はAIの仕事していて、直観的にそう感じるのです。

ChatGPTのような生成AIは、学習した内容をもとに
言葉を拾ってうま~くつなぎ合わせ、もっともらしく答えます。

瞬時に、しかも非常に巧みに、自分の知らない知識も提供してくれます。
だから多くの人にとって、無条件にそのまま信じさせる可能性があるほどです。

続いてドクター・ライスマンは;

"患者が生身の肉体を持つ限り、診る医師も生身であることが必要、と考えていた。
医療現場で患者に接する姿勢において、AIに対して人間の医師は常に優位に立てると思っていた。"

って、私もごく普通に自然に受け入れられる考えだと思います。
AIがいくら賢くても、患者へ接するには血の通った人間の医師に叶うものはないはず。

ところがChatGPTのようなLLM(大規模言語モデル)の登場によって、
ドクター・ライスマンは;

”LLMの登場で「医師の仕事は安泰」という考えがもはや過去のものになったと実感”

しているそうです。

これはいったい、どういうことでしょうか?

患者にガンの告知をするとき『やるべきこと』『やってはいけないこと』

ドクター・ライスマンは医学校時代に、患者に悪い知らせを伝える
ロールプレイングの授業を体験するまでは

”患者のケアにおいて最も気が重い部分であり、且つ
医療の人間的な側面を凝縮したものだと思っていた”

そして、

”悪い知らせを告げる行為は、人間の組織を顕微鏡のもとで解析する病理学者の
専門的説明を、日常会話に転換し、その組織の持ち主である患者に伝えること。
自分に求められているのは、一人の人間として、人間的なふるまいを見せることだ

だと思っていたそうです。

うん、それもよくわかる気がする。
まさに自分が患者の立場なら、そうあって欲しいと願います。

ところがこの授業を通じて知ったことは、思っていた以上に
専門知識に基づいたテクニック的な色合いが濃い
ということだったそうです。

どういうことかというと、まず講師から
『やるべきこと』『やってはいけないこと』リストが渡されました。

ここの部分をKENBOなりに整理すると;

やるべきこと

  • ガンであることを伝えたら、一瞬黙って、患者がその事実を飲み込む機会を与えること
  • 持って回った言い方をせず、速やかに要点を伝えること
  • 患者にガンについてどんなことを知っているかを尋ね、情報を提供すべき

やってはいけないこと

  • 診察室に足を踏み入れて、頭ごなしに悪い知らせを伝え患者を打ちのめしてはいけない
  • 『申し訳ないです』は使ってはいけない(伝えた医師の過失ではないため)、
    その代わりに『だったら良かったのですが』というフレーズを使うこと。
  • 専門用語(腺がんとか悪性腫瘍)といった専門用語でけむに巻かず端的に「ガン」と言う

ドクター・ライスマンは、ここで大きな気づきを得たようです。

医師としてロールプレイングをする際に、
記憶したフレーズや行動のプロンプトに従うのが完全に自然に感じたと延べています。

つまり、重要だと思い込んでいた『人間性を手放し』
『台本』に完璧に従うことで、医療現場で最も困難な瞬間が、
よりいっそう人間的なものに感じられる

という逆説的な気づきでした。

すなわち、医療の人間的側面として理解していたことが、
どういうわけか型どおりの決まり文句で構成されている、
という現実に気づいたということです。

ChatGPTが「共感をこめて」寄り添える人間社会の『台本』


それ以来、ドクター・ライスマンは救急救命室で働く中で、
このとき学んだ悪い知らせの台本を、繰り返し実践してきたと延べています。

今後の見通しが悪いほど、ドクター・ライスマンは診断結果を知り、
診察室へ向かう短いひとときに会話のリハーサルを行い、
患者へのアプローチを組み立て、手元にティッシュの箱を用意しているとのことです。

さて、ここで本記事でお話したかったChatGPTに関係する話ですが、
そういった台本作りには生成AIは極めて優秀な成績を残します。

ChatGPTは台本作りのプロ中のプロといっても過言でありません。
(もちろんしっかり学習させたうえで、しかるべき適切なプロンプトが必要ですが)

そのことは忘れないでおいてください。

で、ドクター・ライスマンの考察にまた戻るのですが
医療の人間的側面が決まり文句によって構成されている、
という気づきはここで終わりません。

患者に接する深刻な場面であってもマシン(AI)が人間を
模倣するだけではなく、ややもすると超えているのではないかと思うと、
人間とはなにか?
という疑問を持ってもおかしくありません。

私はドクター・ライスマンの指摘では、
人間社会にはずっと以前から『あらかじめ用意された台本』
深く組み込まれていると洞察している点が凄いと感じています。

どういうことかというと、私たちの生活にはあらゆる場面で
『やるべきこと』『やってはいけないこと』
が当たり前のように存在しているという意味です。

毎日の挨拶、祈りの言葉、交通ルール、電車やバス内の暗黙のルール
なども存在します。

また恋愛にしても、いきなり抱きついてしまえば痴漢になりますが、
会話と愛情で信頼関係を築き、だんだんと双方がその気になる、
といったパターンにも、やっていけないこと・やるべきことが存在します。

『やるべきこと』『やってはいけないこと』
マナーとか習慣という言葉で置き換えられるケースも存在します。

これらは社会の潤滑油の役割を果たし、無いと社会が混乱を来たします。

つまり私たちの社会には、あらかじめ用意された台本がいくつもあって、
それに沿うことが他者との関係においても良好に保つ秘訣でもあるのです。

ChatGPTは、普段忘れかけている台本をシチュエーションごとに巧みに見せてくれますが、
もちろん『共感』しているわけでも、考えているわけでもありません。

それでも当人の頭には無い台本を示してくれることで、
困難な状況を乗り越える支援になる可能性も捨てがたい。

先のガンの告知に関していうと、自分が患者だとしたら
感情的でわけのわからないポエムを医師から聞きたいのではなく、
理路整然とわかりやすい説明と未来への展望、勇気をもてる話を聞きたい。

そう思うのは私だけではないはずです。

生成AIの能力はすでにここまで来てるのか、と感じざるを得ませんが
最後にドクター・ライスマンのメッセージを引用します。

It doesn't matter that A.I. has no idea what we, or it, are even taking about it.
There are linguistic formulas for human empathy and comparison, and
we should not hesitate to use good ones, no matter who - or what -is the author.

AIが私たち人間(あるいはAI自身)が話している内容をまったく理解していなかったとしても、
それは大きな問題ではない。

人間の同情や共感を生み出せるような、言語上の公式は確かに存在する。
そして出来の良いものがあれば、それを使うのをためらうべきではない
ーそれを書いたのが誰(あるいは何)であっても。

Jonathan Reismanのニューヨークタイムズ寄稿の該当部分と意訳