最近,聊天机器人ChatGPT火了。作为一种新形式的人工智能工具,它不仅能够较为流畅地与人类对话,甚至还能吟诗作对、撰写论文和报告、编写代码等。“这个工具太省事了。”“它会不会取代我的工作?”……一时间,有的人对此技术感到既兴奋又惊慌。而就医疗健康行业来说,这样的人工智能技术会带来哪些益处,又有哪些风险?
撰写讲稿
完成文字工作的“研究助手”
ChatGPT是美国一家名为OpenAI的人工智能公司在2022年11月发布的大型语言模型(LLM)。它可以从数据中自主学习,经过大量数据集训练之后,可以产生复杂且看似智能的“写作能力”。
“这有可能影响对学生语言和逻辑思维能力的培养。”这是来自国际教育界的担忧。为此,有大学将“使用AI”列入作弊手段。而美国斯坦福大学更是开发了算法技术对抗,研究人员推出了DetectGPT技术,可以检测出通过人工智能生成的文本。
2月3日,发表在期刊《自然》上的一篇题为《ChatGPT为研究带来的五个机会》的文章指出:人们目前已使用ChatGPT和其他大型语言模型来撰写论文和演讲、总结文献、编写计算机代码、统计分析等,“它可能会加速创新过程,缩短出版时间,并通过帮助人们流利地写作,使科学更加公平,并增加科学观点的多样性。然而,它也会带来担忧,如可能降低研究的质量和透明度,可能会歪曲科学事实并传播错误信息等。”
对此,多数研究者认为,ChatGPT是现有教学科研工作的一种补充,但是由于其潜在的不良影响,需要在实际使用中格外审慎。“对科学研究领域来说,现在不是拒绝使用的问题,而是如何避免错误使用的问题。”第二军医大学海军医学系退休教授、上海交通大学兼职教授孙学军表示,“由于这种系统不够成熟,目前使用时要坚持对信息进行人工确认,将来也可以利用多种技术来解决。”
孙学军分析了使用这一系统的3点益处:首先,有利于科学问题的提出。通过先和人工智能进行对话和讨论,至少能快速从文献中获得相关信息,以增加科研思路的科学性。其次,论文发表可能会逐渐失去意义。学术论文是科学家交流思想的载体,但如果能利用人工智能技术和网络存储潜力,学术论文可能会被更有效且具有一定个性化的学术资料库取代,甚至可能逐渐发展出更多新的思想交流模式。最后,大量伪学术研究逐渐失去市场。如果人工智能具有客观评价学术的能力,那许多垃圾论文将会无法立足。这对于净化学术空气,减少无效学术信息,是非常有价值的。
诊断疾病
改善就医体验的“加速器”
医疗和人工智能的结合是很有前途的话题,ChatGPT在医学领域的用途还在不断探索和研究中。
不久前,德雷克塞尔大学研究团队将GPT- 3与神经学诊断联系起来。他们从既往研究中得知,阿尔茨海默病患者早期说话方式会发生微妙变化,如停顿、发声质量等。如果能通过人工智能技术捕捉到这些变化,就可以帮助快捷地筛查出早期患者,及早进行干预和治疗。基于这一思路,研究人员使用阿尔茨海默病患者和正常人的语音记录数据集,重新训练了GPT-3。
经过努力,研究人员实现了这样一个场景:只需要提供一段音频,这个算法能从人群中精准地检测出阿尔茨海默病患者语言上的细微差别,并给出受检测者的认知测试得分,而且整个过程不需要知道其他个人信息。
那么,ChatGPT在医学领域能发挥哪些作用?智慧医疗行业的资深人士张迅杰分析了几大方向:第一,提供个性化健康支持。它可以通过从大量医学数据中学习,并生成详尽、准确的医学报告,帮助人们更好地了解自己的健康状况和风险。第二,改善就医体验。比如,快速回答患者问题、减少等待时间等。第三,简化临床工作流程,如安排预约和管理医疗记录,为医务人员节省时间。第四,分析健康数据,可以为医务人员和研究人员提供更好的决策支持,并为医疗机构提供有关患者治疗结果等方面的见解,还可以辅助远程医疗。
虽然前景广阔,但ChatGPT技术要想在医疗保健领域广泛采用还面临着一些挑战。“其一,用于训练算法的信息仅持续到2021年,这限制了它对2021年后任何事物的实用性。第二,用户还需要帮助以确保算法提供的答案准确无误。”张迅杰指出。
有不确定性
拥抱未来要明确边界
人工智能作为最具代表性的颠覆性技术,在给人类社会带来潜在巨大益处的同时,因其不确定性可能带来许多挑战。数据安全、算法偏见等问题,是医疗和人工智能结合的热点议题。
“ChatGPT是一个机器学习模型,仍属于弱人工智能,它不具备个人意识,其应用价值巨大,但同时也引发一系列伦理、法律和社会问题,必须引起注意,尽快着手研究和治理。”从事生命伦理学研究的张迪副教授从社会分工、教育行业、知识产权和公平公正4个方面进行分析。
第一,当下和未来,哪些人类活动能够被此类技术取代?张迪举例说:“信息的搜集与整理,文本编辑与翻译等,可以帮助人类节省更多时间,提升生产效率。但这并不意味着人类就没有必要去做这些事情。人类只有在亲自行动的过程中,才能真正体验到生命的意义和生活的幸福感。”
第二,该技术促使人类反思当下的教育,如教育的目的、内容和形式。“人工智能技术如何更好地服务于教育,能否有助于促进教育的公平性?”张迪指出,“要为人工智能的使用划清边界。如学生作业的哪些部分允许使用ChatGPT,哪些不允许,如何识别和防止使用AI作弊等。”
第三,关于知识产权,目前一些研究者在研究过程中也使用此类语言模型,甚至将其列为作者。这样署名合适吗?通过语言模型开展研究能否体现对前人研究功绩的尊重?张迪认为,关于署名,研究者和期刊应遵循当前的署名规则,如果语言模型仅仅完成了以往翻译者或文字编辑的工作,显然不应将其列为作者。但如果其提出了研究创意或研究方案,则需要反思现有的署名规则是否还适用。
第四,公平公正是重点议题。“首先要注意的是,歧视和污名化问题。”张迪解释,由于语言模型涉及海量的训练数据集,其中不乏一些带有歧视和偏见类的数据,最终导致其输出的结果存在或加深歧视。这里还有可能涉及数据安全问题,不排除有人可能会恶意制造大量歧视信息,训练语言模型或诱使其捕捉这些数据,以有意加深歧视。“此外,ChatGPT背后有大量资本投入,其未来的使用必然涉及为资本服务,这会引发社会公正问题。”张迪直言,目前中国并不在ChatGPT可使用的国家之中,即使未来在中国上线,也并非所有人都可以获得。“语言模型技术的可及、可负担的问题也很值得讨论。比如,国家是否应当投入资源研发此类技术以促进公平可及,企业是否应当为贫困人群提供可负担的技术服务。”
数据所属权及个人隐私也需要关注。“目前,从互联网搜集个人信息和数据可使用爬虫程序或人工检索,但随着语言模型的出现和迭代,很有可能会使已经去标识的信息或数据再次变成可识别信息。所以,如果没有相应的隐私保护规则内嵌于语言模型之中,必将导致大量个人信息和数据的泄露,破坏个人隐私。”张迪说。
文:健康报记者 王潇雨
编辑:杨真宇
校对:于梦非
审核:徐秉楠 王乐民
喜欢就告诉我们您“在看”