近日,医学信息出版巨头Wolters Kluwer Health委托进行的一项调研显示,美国医生对于在医疗实践中应用生成式AI的态度正在发生积极的转变,越来越多的临床医生对生成式AI寄予厚望。
其中,68%的美国医生在过去一年内改变了对生成式AI的观点,现在认为AI对医疗行业更有益。
随着大型语言人工智能模型(Large Language Models, LLM)的突破性进展,以ChatGPT为代表的生成式AI(Generative AI, GenAI)迅速成为各行各业关注的焦点。
在医疗保健领域,生成式AI同样蕴含巨大潜力,有望成为帮助医生优化临床决策、提升诊疗效率的得力助手。
这项于2024年2月开展的调研访问了100位在大型医院/医疗系统工作、日常使用临床决策支持工具的美国医生,68%的受访者表示,相比一年前,他们现在更倾向于认为生成式AI在医疗领域大有可为。
其中,40%的医生计划在今年年底前,就开始在面对面诊疗中使用生成式AI技术。医生们对生成式AI如此乐观,究其原因,主要基于以下几点考量:
68%的医生认为,生成式AI可以快速搜索医学文献,帮他们迅速获取所需的专业知识;
59%的医生则相信,生成式AI能够自动总结电子病历(EHR)中的患者数据,梳理出关键信息,大大减轻医生的工作负荷。
总体而言,超过半数(54%)医生估计,在生成式AI的加持下,他们为辅助临床决策而查找数据的时间能节省20%以上。如果这一憧憬成真,医生将能投入更多时间在病人身上,用"聆听"和"共情"搭建起更温暖的医患关系。
医学的精细化发展使得医疗服务日益专业化、碎片化,如何打通"信息孤岛",让各科室、各岗位紧密配合,及时响应患者需求,是现代医院管理的一大挑战。
81%的医生认为,生成式AI可以改善医疗团队与患者之间的互动;
57%的医生希望生成式AI为他们的继续教育提供助力;
56%的医生认为生成式AI有助于简化医护人员的日常工作;
46%的医生更是相信,生成式AI可以协调不同部门的排班,为患者提供更及时的医疗服务。
由此可见,医生已不再把生成式AI视为简单的信息整理工具,而是寄希望其在更高层面重塑医疗流程,激发团队协作的活力。
然而,在对生成式AI的憧憬之余,医生们也明确表示,只有足够安全可靠、源自权威的生成式AI工具,才能赢得他们的信任和青睐。
高达58%的医生表示,选择生成式AI工具时最看重的是内容源的透明度,必须明确其使用的数据和知识是由医学专业人士创建。
针对具体应用场景,
91%的医生认为,只有源自医生和医学专家之手的材料,才有资格被生成式AI用于辅助临床决策;
89%的医生则表示,如果生成式AI供应商能够透明地披露其知识来源、创作者背景和数据汇集方式,他们将更乐于在临床决策中使用相关工具。
此外,76%的医生更信任老牌、成熟的生成式AI技术提供商。
显然,医生对医疗生成式AI的要求很高,这对相关企业是一个提示:唯有以循证医学为指导,以临床需求为依归,以伦理为底线,才能研发出经得起考验、服务于患者的生成式AI产品。
医生对生成式AI的认知正在加速成熟,与患者的观念也存在一定差异。
另一项于2023年开展的美国公众调研发现,近半数(48%)受访者表示,即便明确告知医生在使用生成式AI辅助诊断,他们对诊断结果的信心也不会提升。
而在医生这边,66%的受访者认为,只要向患者说明用了生成式AI,患者就会对诊断更有信心。
同样,有80%的公众担心生成式AI被用于诊断决策,但只有20%的医生意识到这一顾虑。
此外,医患双方在生成式AI落地时间表上的预期也有分歧:
34%的医生认为生成式AI将在1-2年内被应用于临床,高于公众的17%;
36%的医生预计3-5年后生成式AI才能普及,而患者中持这一看法的比例为34%。
总的来说,医生对生成式AI的接受度要高于患者,双方在对生成式AI能力、落地时间的判断上也存在一定差异。
综上所述, 美国医生对生成式AI在医疗保健领域的应用前景持乐观态度,并对其在节省时间、优化流程、辅助决策等方面的潜力充满期待。
但他们也明确表示,对医疗生成式AI工具有着极高的要求, 呼吁供应商以循证和伦理为指导、以透明和专业赢得信任。
本文来自微信公众号“见智研究Pro”(ID:gh_34389d0696ba),作者:申思琦,36氪经授权发布。