当前位置:首页|资讯|ChatGPT|人工智能

Chatgpt直接生成实验结果图像! 学术造假更逼真了?要警惕!

作者:郑老师统计发布时间:2024-06-25


详情请点击右方:科研人如何利用ChatGPT来协助撰写科研论文,看这个课程就够了!

随着越来越懂人、越来越像人的AI应用开始遍地开花,但也随之带来利用AI技术以假乱真的一系列问题。当前,学术界也处在这项技术变革的风口浪尖。

起初,学术界的担忧主要集中在将ChatGPT 应用于科学写作,导致大量期刊在投稿时要求作者注明是否使用Chatgpt、或是禁止使用来自ChatGPT生成的文本(比如Nature期刊)。随着gpt-4o的发布,人工智能的图片处理能力进一步提升,又带来了新的问题。

2024年5月,南方医学大学的罗鹏团队在国际学术期刊《Journal of Hematology & Oncology》(医学一区top,IF=29.5)公布了一系列由ChatGPT实验结果图片。这些图片的逼真度已经可以骗过实验经验不足的研究人员,展示出人工智能在伪造实验图片的强大能力,因此迫切需要引起学术界的警觉。

从文章中所展示的伪造图片来看,血涂片、HE切片和免疫组化图片已经相当逼真。在不与真实实验结果进行直接对比的情况下,可能意识不到这是一张由ChatGPT生成的假结果。

(由ChatGPT生成的实验结果图像)

不过,耐心细看的话也能发现,血涂片中红细胞中央空白的颜色过渡过于均一;HE切片中的细胞截面太圆、结缔组织排布太规整;免疫组化中同形态的细胞中有些强阳性,有些却呈阴性。在有一定实验经验的研究人员眼下,ChatGPT生成的图像仍会漏出马脚。

生成这样图片并不需要复杂的方法,与正常使用ChatGPT类似,研究人员借助了一系列包含图像特征的Prompt让ChatGPT输出了相应的实验结果。我们来看看文章附件中免疫组化Prompt

  • Create a highly detailed image showing the results of a realistic immunofluorescence assay(首先告诉Chatgpt所生成的图片是一张免疫组化结果).

  • The image should depict a multitude of cells against a dark background. Each cell should have a distinct nucleus stained in bright blue, and the cytoplasm should be visible in a contrasting green fluorescence(规定具体的细胞形态和染色位置). 

  • The green should show specific protein localization, appearing as dots or specific patterns within the cells. 

  • There should be no other colors present in the image.

  • The overall appearance should resemble a microscopic view, with cells in various stages of the cell cycle, some clustered together and some isolated(让所生成的细胞具有特定的排列). 

  • The image should capture the intricate details of cellular structure and the specificity of immunofluorescence staining, evoking the sense of a scientific image taken under a high-powered fluorescence microscope(进一步强调免疫组化下的细胞结构要求).

以上的Prompt用七句话描述了一张免疫组化结果所具有的一般特征,ChatGPT以此形成了一副总体上符合免疫组化风格的结果。然而,Prompt中未进一步细化染色靶点在各类细胞中的分布,因此漏出了些许马脚。我相信,如果这篇文章的作者再细化描述图像特点的语句,将能生成更为逼真的结果。从这个示例中我们可以也可以领会到,ChatGPT能生成什么样的图片很大程度上取决于我们能提出多么详细的要求。

采用Chatgpt伪造实验结果已经不算是新鲜事了,去年11月,我们也分享了一篇刊登在自然(Nature)杂志上的新闻研究人员使用GPT-4为一项医学研究生成假数据集,发现GPT不仅能造出符合要求的数据(特定百分比、标准差),甚至还能用来准确支撑错误的论文观点。

可见,ChatGPT理论上已经具备了从头开始生成完整的学术论文,包括文本、原始数据和实验结果图像的能力。南方医科大学团队在文中最后提到当务之急是敦促人工智能技术提供商限制实验图像的生成。但是我认为OpenAI不太可能为学术界的需求专门限制ChatGPT的功能。魔高一尺,道高一丈,学术期刊应具备检测伪造实验结果的能力,而且能够与人工智能匹敌的方法大抵还是人工智能。



小结

说了这么多,并不是一律反对大家使用ChatGPT,学术界也不应该脱离人工智能化这个大趋势。Nature杂志在今年4月也发布报道推荐研究人员可以借助ChatGPT来润色文章、同行评议和起草邮件[2]。毫无疑问,人工智能以双刃剑的姿态给科学界带来了挑战,同时也可以提高我们的工作效率。当我们以负责任的态度使用它时,它将改善我们研究交流的方式,同时保留科学探究的本质——好奇心、批判性思维和创新。

注:本篇推文对Prompt的分析并非鼓励研究人员编造实验结果。参考资料:[1] Zhu, L., Lai, Y., Mou, W. et al. ChatGPT’s ability to generate realistic experimental images poses a new challenge to academic integrity. J Hematol Oncol 17, 27 (2024). https://doi.org/10.1186/s13045-024-01543-8.

[2] Three ways ChatGPT helps me in my academic writing. Nature. 2024.04.08.

详情请点击右方:零基础两天学会R语言构建临床预测模型



Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1