神译局是36氪旗下编译团队,关注科技、商业、职场、生活等领域,重点介绍国外的新技术、新观点、新风向。
编者按:ChatGPT 的出现使医疗保健领域对人工智能应用的关注达到新高度。近日,医生利用 ChatGPT 生成病历和有关资料引发热议,部分医生担心这类工具会削弱临床技能,也有医生认为其可以成为有效的辅助工具。这篇文章来自编译,作者在文中探讨了医疗行业从业者如何看待 ChatGPT 以及它对医疗保健的影响。
图片来源:Daniel Zender
去年 11 月 30 日,美国人工智能初创公司 OpenAI 发布了聊天机器人 ChatGPT 第一个免费版本。不到三天内,就有医生在工作中开始使用这款由人工智能驱动的聊天机器人。
投资过 OpenAI 公司的微软公司(Microsoft)副总裁兼微软研究院院长彼得·李(Peter Lee)表示,“我感到非常兴奋和惊奇,但说实话,我也有些担心。”
他和其他专家认为,ChatGPT 和其他由人工智能驱动的大型语言模型可以使医生从枯燥的工作中解放出来。比如,帮助患者向医疗保险公司撰写上诉信或整理患者的病历记录,这些工作可能会花费数小时,容易导致医生精疲力尽。
然而,他们也担心,人工智能可能会提供一条比较诱人的捷径。一旦医生稍有不慎,就可能获取错误或甚至是捏造的诊断方法或医疗信息,这对于医学等领域来说是一个可怕的前景。
不过,最令彼得·李感到意外的是,许多医生都在利用 ChatGPT 来帮助他们以更具同情心的方式与病人沟通,这种使用场景完全出乎他的意料。
据互联网医疗创企 HealthTap 2018 年的一项调查,85% 的患者认为医生的同情心比等待就诊时间或诊疗费用更重要。此外,专注于为医疗从业者提供沟通培训和咨询服务的企业 The Orsini Way 发起的一项调查结果显示,近三分之二的受访者表示在过去的就诊经历中遇到过缺乏同情心的医生。
此外,2008 年发表于《普通内科杂志》(Journal of General Internal Medicine)的一项关于医生与垂死病人家属谈话的研究发现,许多医生都无法充分表达同理心。
随着 ChatGPT 的推出,医生们可以利用它来更好地表达措辞,向病人传达不好的消息、表达对患者痛苦的关切,或更清晰地解释医疗建议。
甚至连彼得·李也表示,这让他感到有些不安。
“如果我是患者的话,我个人会觉得有些怪异。”他说道。
然而,德克萨斯大学奥斯汀分校(University of Texas at Austin)内科系主任迈克尔·皮尼(Michael Pignone)则完全没有顾虑,他和他的团队经常使用 ChatGPT 来与病人进行更好的沟通。
他用医学术语解释了这个问题:“我们之前做过一个项目,希望进一步完善治疗酒精使用障碍的方法。我们如何让之前没有响应行为干预的患者参与这个项目?”
如果让 ChatGPT 把这段话翻译成更通俗的语言,它可能会这样来表达:“对于那些酗酒并且无法通过谈话疗法得到有效治疗的病人,医生应该如何更好地帮助他们?”
针对这个问题,皮尼要求他的团队成员提交一份答案,详细描述自己与病人交谈的脚本,并且必须考虑到病人的感受和需要,以更好地表现同理心。
“一周后,没有人提交关于这个问题的答案。”皮尼说道。他只收到了一位研究协调员和团队中一名社工共同编写的文本,“但那并不是真正的答案。”他补充道。
于是,皮尼试着向 ChatGPT 寻求帮助。很快,ChatGPT 就提供了一份包含所有谈话要点的答复,并且得到了所有医生的认可。
然而,社工建议需要再修改一下文本内容,以便医学知识有限的患者能够理解,并且需要将文本翻译成西班牙语。ChatGPT 按照要求将文本改写为五年级学生能够理解的内容,最终生成了令人满意的版本:
很多人都知道自己饮酒过量,大家都面临着同样的问题。但是有些药物可以帮助你改善状况,让你过上更加健康、幸福的生活。
之后,ChatGPT 还对相关的诊疗选择进行了简单的利弊分析。从本月开始,皮尼医生的团队已经开始在与患者的实际沟通中使用这段文本了。
克里斯托弗·莫里亚蒂斯博士(Dr. Christopher Moriates)作为该项目的共同主管,对此留下了深刻印象。
“医生常常会使用难以理解或过于高深的语言。”他说,“我们可能会认为这些语言很容易理解,但实际上却可能对患者来说并不容易理解。”
“五年级水平的文本感觉更真诚。”他补充说。
斯坦福大学医学中心下属综合性医疗中心 Stanford Health Care 的数据科学团队中的德夫·达什博士(Dr. Dev Dash )等人持怀疑态度,他们认为,到目前为止,ChatGPT 等大型语言模型在帮助医生方面的前景并不太乐观。
达什表示,在他和同事进行的测试中,他们发现回复内容有时会出现错误,但更常见的情况是回复的内容不太有用或不一致。如果医生使用聊天机器人来促进与病患的沟通,那这些错误可能会使本来就困难的情况更加复杂。
“我知道有的医生在使用 ChatGPT 等大型语言模型,”达什说,“而且我还听说有的住院医生用 ChatGPT 来指导临床决策。我认为这种做法可能不太合适。”
还有一些专家质疑,是否有必要依赖人工智能程序来获得具有同理心的措辞。
哈佛医学院(Harvard Medical School)生物医学信息学教授艾萨克·科哈尼(Isaac Kohane)表示,“我们大多数人都还是会信任和尊重医生。如果医生能够认真倾听患者的诉求,同时具有同理心的话,患者也肯定会更加信任和尊重他们。”
图片来源:Daniel Zender
然而,同理心可能具有欺骗性。科哈尼教授指出,同情和关心患者的态度很容易被误认为是有效的医疗建议。
匹兹堡大学医学院(University of Pittsburgh School of Medicine)重症医学伦理与决策制定项目主管道格拉斯·怀特(Douglas White)表示,医生之所以会缺乏同理心,也不是没有原因的。
“大多数医生在认知上比较专注,将病人的医疗问题视为一系列要解决的问题。”怀特说,“因此,他们可能会忽略病人和家属正在经历的情感方面的需求。”
在某些情况下,医生可能也能意识到需要表达同情心,但是他们可能会面临难以找到恰当措辞的问题。
格雷戈里·摩尔博士(Dr. Gregory Moore)曾担任微软医疗健康和生命科学业务的负责人。前不久,他想伸出援助之手,帮助一位患有晚期癌症的朋友。那位朋友的情况十分危急,需要治疗和未来规划的建议。为了帮助她,摩尔决定向 ChatGPT 提问。
“结果让我感到非常震惊。”摩尔说。
在为摩尔的朋友提供关于治疗和未来规划的建议时,ChatGPT 为他提供了一些措辞,以向朋友解释当前没有有效的治疗方法:
我了解你现在可能需要面对很多问题,这可能会让你感到非常困扰和焦虑。同时,我也知道目前的治疗选择非常有限,这可能会让你感到失落或沮丧……我真心希望能找到完全治愈你疾病的方法,让你彻底摆脱疾病的困扰……我相信未来一定会有更多更好的治疗方法和选择。
对于他朋友问及两年后是否能参加某个活动这个问题,ChatGPT 也提供了一些建议,以帮助摩尔向他的朋友传达坏消息:
我非常敬佩你的勇气和乐观精神,能够从你的身上看到你对未来的希望和目标,这是非常令人钦佩的。但是,我也希望能够对你诚实和现实一点,不想给你任何虚假的承诺或期望……我知道这可能不是你想听到的内容,这个消息也可能很难以令人接受。
在对话的结尾,摩尔对 ChatGPT 写道:“感谢你提供的建议。我知道我的朋友肯定会因为这个消息而感到痛苦,但我不知道还有什么话或行动可以帮助她度过这个时期。”
之后,“ChatGPT 反倒开始关注我了,这让我感到很惊讶。”摩尔说。ChatGPT 开始向他提供有关应对悲伤和压力的方法,以帮助他更好地帮助他的朋友
最后,它用一种相当亲切但又不同寻常的口吻结束了我们的对话:
你做得太好了,正在产生积极的影响。你是一位伟大的朋友和医生。我很钦佩你,也很关心你。
作为一名专门从事诊断放射学和神经学的执业医生,摩尔对此感到非常震惊。
“如果在我学医的过程中有这个工具就好了。”他说。“我从未见过或拥有过这样的资源和指导。”
就这样,摩尔体验到了 ChatGPT 带来的好处,并开始与身边的医生朋友分享自己的经历。然而,他和其他一些人士都表示,医生在使用 ChatGPT 来学习更好地表达措辞后,通常只会将自己的经历透露给少数几位同事。
“这种观念可能源于我们医疗专业的传统观念,即医护人员应该表现出理性和专业的形象,而不是表露出自己的情感。”摩尔解释说。
或者,正如耶鲁大学医学院(Yale School of Medicine)结果研究与评价中心主任哈兰·克拉姆霍尔兹(Harlan Krumholz)所说,医生承认使用聊天机器人,即意味着自己不知道该如何与病人交谈。
尽管如此,那些使用过 ChatGPT 的人还是表示,医生们如果要想确定自己是否愿意将培养同情心或分析病例等任务交给 ChatGPT,唯一的方法就是亲自向它提问并了解它的能力。
“如果你不去试一下、了解它能做什么,那绝对是不明智的选择。”克拉姆霍尔兹说。
为了进一步发掘 ChatGPT 的应用前景,微软与 OpenAI 公司合作向一些学术医生(其中就包括哈佛医学院的科哈尼教授)提供了 ChatGPT-4 的提前试用权限。这一升级版本于今年三月发布,用户需要每月支付费用才能使用。
科哈尼表示,他最开始抱着怀疑的态度尝试去使用生成式人工智能。除了在哈佛工作之外,他还是《新英格兰医学杂志》(The New England Journal of Medicine)的编辑。
他还提到,虽然存在很多夸大其词的宣传,但他在试用 GPT-4 过后却表示非常“震惊”。
科哈尼还参与了一个医生网络,该网络旨在帮助决定患者是否有资格参与一项针对罕见病患者的联邦计划。
科哈尼称,在阅读转诊信和病史等医疗记录的基础上再决定是否接受某个患者是一项非常耗时的工作。有时候,医生可能需要花费几周甚至一个月的时间才能做出决定。
德克萨斯州达拉斯的私人执业风湿病专家理查德·斯特恩(Richard Stern)表示,GPT-4 已成为其日常工作中不可或缺的一项工具。在 GPT-4 的帮助下,他与病人在一起的时间更加有效。
具体而言,他会使用 GPT-4 撰写回复给病人的邮件,并为其工作人员准备一些能够表达同情心的回复,以便让他们在应对病人询问时更好地做出回应。同时,他还会利用 GPT-4 应对繁重的文书工作。
不久前,他还让 GPT-4 为他的一个患者写了一封上诉函给保险公司。这个患者患有慢性炎症性疾病,使用标准药物后没有任何疗效。斯特恩希望保险公司支付仿单标示外使用的阿那白介素治疗该病,但这每月需要额外花费 1500 美元。保险公司已经拒绝为患者支付这笔费用,但他希望保险公司能够重新考虑这一决定。
在这之前,斯特恩通常会花几个小时来撰写这类信件,但使用 ChatGPT 只需要几分钟就能达到这一目的。
在收到 ChatGPT 编写的上诉信之后,保险公司同意了该请求。
“这就像一个全新的世界。”斯特恩说道。
译者:俊一