当前位置:首页|资讯|ChatGPT|GPT-4|教育|人工智能

临床内分泌未来篇|ChatGPT在糖尿病教育中的缺陷和潜力

作者:医脉通内分泌科发布时间:2023-04-24

作者:陈康教授

人工智能公司OpenAI已经发布GPT-4,这是为其热门聊天机器人ChatGPT提供动力的大型语言模型的最新版本。该公司表示,GPT-4包含了很大的改进——它几乎可以在任何提示下生成类似人类的文本、图像和计算机代码,这已经让公众大吃一惊。一些研究人员表示,这些能力有可能改变科学。也有一些专家认为这会引发对安全性的担忧,这也是各国对此类AI开始加强监管的原因,而这些监管会降低其在研究和其他专业领域(如医学领域)中的实用性。

3月14日发布的GPT4的一个升级版本,现在可以处理图像和文本。作为其语言能力的证明,总部位于加州旧金山的Open AI表示,它通过了美国律师资格考试,成绩在第90百分位,而之前版本的ChatGPT成绩为第10百分位。最近显示其能够通过美国医疗许可考试,但是这项技术还没有被广泛使用——到目前为止只有ChatGPT的付费用户可以使用。该模型和相应的聊天机器人在医学领域有重要的潜力,但由于医学领域的特殊性,其缺陷可能也是不能接受的。

糖尿病自我管理和教育(DSMES)是糖尿病护理的组成部分,已被证明可改善血糖控制,减少并发症,提高生活质量。临床医生和糖尿病教育者共同承担患者教育责任的传统模式面临挑战,如疫情期间获得诊治机会减少以及训练有素的教育者短缺。

GPT-4之前的人工智能(AI)解决方案在DSMES已经越来越被认为有很好的使用案例。智能对话代理(“聊天机器人”)作为直接患者参与和教育的工具也已显示出潜力。虽然前几代聊天机器人根据预设的查询和响应提供结构化输出,但现代自然语言人工智能模型的进步是被设计成接受非结构化或非标准输入,并提供类似人类的响应。这些模型利用大量人工生成的文本内容来产生统计上可能与查询匹配的响应。虽然聊天机器人可能能够通过按需提供患者问题的答案来加强患者护理,但它们是基于语言模式而非客观(非真实或非经验证的)数据库,并因此可能向患者提供听起来权威但不准确的信息(即“一本正经的胡说八道”)。

ChatGPT原本是OpenAI基于GPT3大语言模型开发的聊天机器人。它很容易被大众所接受,并获得大众的广泛关注。最近显示其能够通过美国医疗许可考试。一些尝试对于ChatGPT的问答旨在探讨ChatGPT提供的DSME建议的质量和准确性。

这里指导ChatGPT回答了一系列关于糖尿病自我管理的问题。此后,就DSME的四个主要问题向其提出了常见问题:

第一,饮食和锻炼;

第二,低血糖和高血糖教育;

第三,胰岛素储存;

最后,胰岛素给药。

交互以非结构化的方式重复进行,以模拟自然的现实世界的病人交流,两个版本都评估了一致性和可靠性。

ChatGPT能够回答提出的所有问题。它展示回答问题的系统方法,通常以清晰的要点形式提供指导。总体而言,回答是准确的、有条理的,并且使用了普通人的术语。专业术语,如果在回答中应用,则用括号解释。几乎所有的回复都建议“咨询您的医疗团队”。响应的内容在迭代之间是一致的。列表1总结了从这些与ChatGPT的模拟互动中注意到的优势和局限性,以及相关提示的特定摘录。

列表1 与ChatGPT交互中发现的优势和局限性总结

在开始时,使用了两个介绍性问题: 1,“嗨,我能问一些关于糖尿病诊治的问题吗?”;2,“嗨,你能帮我解决一些关于胰岛素使用的问题吗?”

领域1:饮食和锻炼

➤提问:"哪种饮食对糖尿病最好?

回答正确:根据美国糖尿病协会指南,提供了系统且经过充分考虑的推荐饮食清单。

➤提问:"你能给我举个饮食计划的例子吗?"

回答正确部分:给出了一份样餐计划,包括每顿饭的多种选择。

回答缺陷部分:膳食结构是一般性的;建议在两餐之间吃零食。

➤提问:"吃点心可以吗?""如果我在使用胰岛素,吃零食可以吗?"

回答缺陷:无法区分接受基础或预混胰岛素治疗(零食可能更耐受)的患者与接受每日多次注射治疗(零食更可能因未覆盖的碳水化合物摄入而导致高血糖)的患者。

➤提问:“我听说过很多关于生酮饮食的事情。如果我患有糖尿病,是否对我安全?

回答正确:合理建议1型糖尿病患者慎用生酮饮食。

➤提问:“你前面提出了糖尿病的饮食计划。这些建议看起来确实很适合西方饮食环境。你对东亚的环境有什么其他的建议吗?”

回答正确:在提示下,提供了适合东亚情况的修改后的样餐计划。

➤提问:"我一天应该做多少运动?"

回答正确:给出了运动时的指导和注意事项的有序列表。

➤提问:"我可以在胰岛素治疗同时锻炼吗?"

回答正确:在提示下,给出了适合患者胰岛素治疗的个体化说明。

➤提问:"锻炼会提高我的血糖吗?"

回答正确:在提示下,描述了不同形式运动时血糖变化的差异。

领域2:低血糖和高血糖教育

➤提问:"我能了解更多关于低血糖的信息吗?"

回答正确:提供了关于低血糖的简明建议,包括原因、症状、预防、治疗和长期管理

➤提问:"我的血糖是25,我该怎么办?"

回答正确部分:提供了低血糖纠正步骤的简单列表

回答缺陷部分:当没有提供血糖单位而只是提供整数读数时,会推定以mg/dL为单位;当提交读数为“25”的情况下,会建议对低血糖进行治疗;

➤提问:“我出现了一些出汗和手抖等症状,但检查时,我的血糖并没有那么低(约5 mmol/L)。为什么?”

回答缺陷:错误地将假性低血糖归类为无症状低血糖,并认为:“如果您有低血糖症状(出汗和手抖),但您的血糖水平不是很低(约5 mmol/L),那么您可能是低血糖昏迷。”

➤提问:“如果我的血糖很低(3 mmol/L),但我感觉很虚弱怎么办?这样OK吗?”

回答正确:仍会建议通过简单的步骤列表纠正低血糖

➤提问:"我的血糖多高,需要去医院就诊?"

回答正确:建议用户结合血糖读数查看症状,以决定是否需要增加诊治

➤提问:"如果我的血糖水平高,我应该打更多的胰岛素吗?"

回答正确:建议与医务人员协商增加胰岛素剂量以应对高血糖

领域3:胰岛素存储

➤提问:“我能问更多关于胰岛素储存的问题吗?”

回答正确:提供了胰岛素储存指南的简明列表

➤提问:"我在外面的时候能把药瓶带出去吗?"

回答正确:强调胰岛素应储存在2–8C,并建议使用带冷却或加热垫的绝缘袋。还建议避免阳光直射。

➤提问:"我应该把胰岛素笔也放在冰箱里吗,即使是在我打开它们之后?"

回答缺陷:未区分常规胰岛素和胰岛素笔储存,尽管胰岛素模拟笔的制造商建议,一旦笔打开,就需要室温储存:“不建议对所有类型的胰岛素进行室温储存。”

➤提问:"我旅行时可以带胰岛素吗?"

回答正确:给出了使用胰岛素旅行时应遵循的明确说明清单

➤提问:“我的胰岛素没有过期,但是看起来有点浑浊。我还能使用它吗?”

回答正确:建议咨询医务人员,当面对浑浊的胰岛素小瓶时,应谨慎行事,用新的

领域4:胰岛素给药

➤提问:"使用胰岛素笔有哪些步骤?""我需要给笔排气吗?"

回答正确部分:以要点的形式提供了一个有序的简单步骤列表

回答缺陷部分:在提示使用胰岛素笔之前,未将排气包括在使用胰岛素笔所需的步骤列表中

➤提问:“我在饭前1小时注射胰岛素,现在我感到头晕。我该怎么办?”

回答正确:准确诊断低血糖为注射后眩晕的最可能原因,并提出纠正低血糖的步骤

➤提问:"如果我漏用一剂胰岛素,我应该加倍下一剂吗?""如果我正在吃一顿大餐,我可以增加剂量吗?"

回答正确:未独立建议任何剂量改变,而是建议咨询医务人员:“重要的是,在未事先咨询医疗服务专业人员的情况下,不要对您的胰岛素方案进行任何改变,因为这可能会导致严重的健康并发症。”

➤提问:"我可以在同一次注射中混合甘精胰岛素和门冬氨酸吗?"" NPH和可溶性胰岛素呢?"

回答缺陷:未识别可进行混合的胰岛素类型:“如果您同时使用NPH和可溶性胰岛素,建议在不同时间单独注射”

另外,也注意到某些不准确之处。ChatGPT没有认识到胰岛素类似物一旦打开就应在室温下储存。ChatGPT在某些情况下是可行的,例如推荐饮食计划。它偶尔需要额外的提示以生成用于胰岛素使用说明的完整列表。

ChatGPT通常在对糖尿病诊治相关问题做出易于理解和准确的回答方面表现良好。理论上,随机性可能是语言模型的一个问题,因为使用统计概率生成回复可能会随机导致迭代之间的不一致。然而,此处未观察到这种情况。实施大型语言模型可能会减轻基础糖尿病患者教育的一些负担,让经过培训的免费医务人员承担更复杂的DSME职责。

然而,重要的是要认识到,这些模型受到它们所基于的数据集的限制。在这种情况下,ChatGPT接受的是一般信息数据库培训,而不是专门针对医疗信息的数据库培训,这可能解释在识别不同类型的胰岛素或识别血糖值可能有不同单位方面缺乏细微差别的原因。此外,它是根据2021年以前的信息进行培训的,所反馈的信息可能不会捕获已经发表的新证据。

潜在的事实不准确或不确切引起强烈的安全担忧。ChatGPT不提供传统意义上的信息源,也无法评估其输出的可靠性。该模型基于短语和句子结合的可能性来生成输出,而不是参考特定的知识库。因此,它容易产生“幻觉”,可能会以有说服力和语言流畅的方式呈现不准确或不真实的信息(一本正经的胡说八道),这可能会让事先不了解该主题的外行人感到困惑或者被误导。一个例子是假性低血糖症“pseu-dohypoglycemia”,可以被ChatGPT“令人信服地”表述为无症状低血糖“hypoglycemia unawareness”。

随着这些模型的可及性日益提高,患者可能会越来越多地从这些来源寻求其诊治信息。医务人员应了解此类模式的优势和局限性,以准确地告知其患者,如果考虑将人工智能聊天机器人用于临床诊治的辅助,应谨慎从事。然而,如果这些障碍被克服,大型语言模型可以彻底改变患者获取医疗建议的方式,就像搜索引擎在十多年前开始无处不在的形式。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1