当前位置:首页|资讯|AIGC|ChatGPT|OpenAI

AIGC周报|诺奖得主:ChatGPT使4天工作制成为可能

作者:学术头条发布时间:2023-04-10

一、技术前瞻

1.牙科的未来:从多模态大型语言模型窥探

ChatGPT 是由 OpenAI 开发的具有数十亿参数的里程碑式大型语言模型(LLM)之一。LLM 因其在自然语言处理任务中令人印象深刻的技能对广泛的领域产生了深远的影响。

一项最新的研究探讨了 LLM 在牙科领域的未来应用。研究介绍了牙科中两种主要的 LLM 部署方法,分别是自动牙科诊断和跨模态牙科诊断。下图展示了根据带有自然语言生成(NLG)的关键字生成的患者记录的叙述输出示例。

其中,借助配备的跨模态编码器,单个 LLM 可以管理多源数据并进行高级自然语言推理以执行复杂的临床操作。研究通过提出一个用例来展示全自动多模态 LLM AI 系统在牙科临床应用中的潜力。

虽然 LLM 提供了显着的潜在好处,但数据隐私、数据质量和模型偏差等挑战需要进一步研究。总体而言,LLM 有可能彻底改变牙科诊断和治疗,这表明牙科临床应用和研究的前景广阔。

论文链接:

https://arxiv.org/abs/2304.03086

2.扮演佐克,ChatGPT能玩好文字游戏吗?

ChatGPT 和 GPT-4 等 LLM 展示了它们与人类用户交流的卓越能力。一项最新发布的技术报告调查了它们玩文字游戏的能力。在这种游戏中,玩家必须通过与游戏世界的对话来了解环境并做出反应。

Zork I(佐克)是一款非常经典的迷宫类文字游戏,需要角色遵循文化语言命令在大地下帝国中寻找宝藏:它在不同地点之间移动,并与物体互动;游戏程序充当叙述者,描述玩家的位置和动作的后果。

ChatGPT 在人类玩家的帮助下扮演 Zork。下图展示了这个过程的开始:游戏给出的内容被标为紫色;ChatGPT 所说的内容被标为绿色。

研究表明,与所有现有其他系统相比,ChatGPT 表现出了更好的性能,但仍然为较低的智能水平。确切地说,ChatGPT 无法通过玩游戏甚至阅读游戏手册来构建世界模型;它可能无法利用它已经拥有的世界知识;它无法随着比赛的进行推断出每一步的目标。

论文链接:

https://arxiv.org/abs/2304.02868

3.ChatGPT还需要思维链提示吗?

思维链(CoT)提示可以有效地从 LLM 中引出复杂的多步骤推理。例如,只需在 MultiArith 数据集的每个输入查询中添加 CoT 指令“让我们一步一步地思考”,GPT-3 的准确率就可以从 17.7% 提高到 78.7%。

研究表明,在 ChatGPT 上,CoT 对某些任务(如算术推理)不再有效,而对其他推理任务仍然有效。似乎 ChatGPT 已经使用 CoT 进行了这些任务的训练,从而记住了指令,因此在应用于相同的查询时,即使没有 CoT,它也会隐含地遵循这样的指令。

下图展示了由不同 LLM 在没有任何提示的情况下生成的算术推理任务的示例。研究观察到,ChatGPT 能够在没有 CoT 提示的指导下生成逐步的基本原理。GPT-3 和 Codex 在没有任何提醒的情况下无法生成推理步骤。

论文链接:

https://arxiv.org/abs/2304.03262

4.SegGPT:在上下文中分割一切

一项研究提出了一种名为 SegGPT 的通用模型,用于在上下文中对所有内容进行分割。将各种分割任务统一成一个通用的上下文学习框架,通过将它们转换成图像的相同格式来适应不同类型的分割数据。

SegGPT 的训练被制定为一个上下文着色问题,每个数据样本都采用随机颜色映射。目标是根据上下文完成各种任务,而不是依赖特定颜色。

经过训练后,SegGPT 可以在图像中执行任意分割任务或通过上下文推理的视频,如对象实例、素材、部分、轮廓和文本。结果表明,无论是定性还是定量,都能很好地分割域内和域外目标。

如下图所示,对于每个样本,左侧的橙色框显示示例/提示图像及其相应的掩码,而右侧的蓝色框显示输入图像和生成的掩码输出。掩码表示附加到图像的明亮区域。每个样本的说明(在黄色框中)仅用于说明。

值得注意的是,SegGPT 可以执行任意对象分割(分割场景的不同组件,如大红球、所有球、所有球的轮廓、顶部表面和阴影),多部分分割(自由女神像的特定部分)、彩虹分割、视频对象分割(没有训练视频)和可学习提示调整的密集语义分割。

参考链接:

https://arxiv.org/abs/2304.03284

5.图灵测试依然是AGI的标准吗?

即使在最前沿的通用人工智能(AGI)领域,人工系统和人类的差距也是极其明显的。尽管这种差异从根本上划分了每个人的能力,但人类水平的智能(HLI)几十年来一直是 AGI 的目标。

该研究反对图灵测试的二元性,讨论了 AI 专家如何将模仿游戏误解为将计算机系统拟人化的一种手段,并断言 HLI 分散了当前对相关问题的研究。

研究认为,图灵测试应该仅仅被视为 AGI 能力的展示,而不是其智力标准。同时,承认人类和 AI 两个系统之间的基本上下文差异需要区分每个系统的任务。二者应该专注于他们最擅长的任务:分别是抽象问题和专注的个人任务。

参考链接:

https://arxiv.org/abs/2304.00002

二、企业动态

1.OpenAI:我们的AI安全方法

AI 会带来真正的风险,因此需要努力确保在所有级别的系统中都内置安全性。4 月 6 日,OpenAI 官方发布了一篇名为 “Our approach to AI safety” 的博客文章,探讨了如何 “安全地构建、部署和使用人工智能系统” 的方法。

(1)构建越来越安全的人工智能系统:通过积极与政府合作,以制定此类监管的最佳形式。

(2)从实际使用中学习以改进保障措施:将通过迭代部署更有效地将各种利益相关者带入有关采用 AI 技术的对话中。

(3)保护儿童:通过连接国家失踪与受虐儿童中心并与非营利性可汗学院等开发人员合作,不断“拔高”安全护栏。

(4)尊重隐私:从训练数据集中删除个人信息,微调模型以拒绝对私人个人信息的请求,并对个人提出的从系统中删除其个人信息的请求做出响应。

(5)提高事实准确性:通过利用用户对被标记为不正确的主要数据源的 ChatGPT 输出的反馈,提高了 GPT-4 的事实准确性,使其比 GPT-3.5 高 40%。

(6)持续的研究和参与:提高人工智能的安全性和能力应该齐头并进。

2.微软:Edge浏览器已添加Bing lmage Creator

据《科创板日报》报道,当地时间 4 月 5 日,微软广告和网络服务主管 Mikhail Parakhin 在社交媒体上宣布,微软 Edge 浏览器中已添加 Bing Image Creator 功能试用,用户可通过文本生成图片,再将生成的图片插入到邮件或页面中。Bing Image Creator 功能主要是基于 OpenAl 另一个模型 DALL·E。

3.谷歌正式应战!聊天机器人即将加入搜索引擎

据《华尔街日报》报道,谷歌 CEO Sundar Pichai 透露,谷歌计划在自家旗舰搜索引擎中添加 AI 对话功能,以应对 ChatGPT 等聊天机器人带来的竞争及商业压力。同时,Pichai 并未明说接入搜索引擎的是什么聊天机器人。

4.AI“复仇者”初现:4 年内甩开OpenAI等公司

据财联社报道,AI 研究初创公司 Anthropic 在 C 轮融资的宣传资料中写道,公司的目标是在未来两年内筹集 50 亿美元,进入十多个行业与 OpenAI 展开竞争。

Anthropic 计划建立一个前沿模型,暂称为 “Claude-Next”,称它将比当前最强大的 AI 还要强十倍,但需要在未来 18 个月内投入 10 亿美元。同时,提到其研发的一种名为 “constitutional AI” 的训练技术,可以使 AI 与人类思维对齐,系统可基于一套简单的指导原则来回答问题和执行任务。

发言人表示,“我们相信,将在 2025 年或 2026 年训练出最好的模型,届时它将远远领先其他竞品,任何公司都无法在随后的周期中追赶上来。”

三、政策法规

1.OpenAl: 愿与意大利监管机构合作加强数据保护和使用

据财联社报道,OpenAI 在与意大利监管机构的会议中,承诺提高个人数据使用的透明度。OpenAI 表示,相信公司符合个人数据保护法律,但也愿意与该机构进行合作。除了加强个人数据使用的透明度,OpenAl 还将增强数据主体权利行使机制以及对儿童的保护措施。

2.加拿大就数据安全问题开始调查OpenAI

据法新社报道,加拿大隐私专员办公室(OPC)于 4 月 4 日宣布开始调查 ChatGPT 背后的公司 OpenAI,涉及 “指控 OpenAI 未经同意收集、使用和披露个人信息” 的投诉。

四、专家观点

1.纽约大学副教授:关于LLM,你需要知道的8件事

近几个月来,LLM 的广泛公开部署,促使许多领域的倡导者、政策制定者和学者的新一轮关注和参与。这种关注是对这项技术所带来的诸多紧迫问题的及时回应,但有时也会错过一些重要的考虑因素。

近日,纽约大学副教授、Anthropic 客座研究员 Samuel Bowman 发文,讨论了关于大型语言模型的 8 件事:

(1)可以预见的是,随着投资的增加,LLM 的能力会越来越强,即使没有针对性的创新;

(2)许多重要的 LLM 行为是作为增加投资的副产品而不可预测地出现的;

(3)LLM 或将经常学习和使用外部世界的表征;

(4)目前还没有可靠的技术来引导 LLM 的行为;

(5)专家们还不能解释 LLM 的内部运作情况;

(6)人类在一项任务上的表现并不是 LLM 性能的上限;

(7)LLM 不需要表达其创造者的价值观,也不需要表达网络文本中编码的价值观;

(8)与 LLM 的简单互动往往会产生误导。

参考链接:

https://arxiv.org/abs/2304.00612

2.诺奖得主:ChatGPT将使每周4天工作制成为可能

诺贝尔经济学奖得主 Christopher Pissarides 表示,劳动力市场将能够迅速适应 AI 聊天程序带来的变革。他说:“我对 ChatGPT 能帮助我们提高生产率非常乐观。有了这项技术,我们工作时能增加更多幸福感,也可以抽出更多时间休闲。我们可以更为轻松地转向每周四天工作制。”

通过淡化对技术快速发展可能造成大规模失业的担忧,Pissarides 反而认为人们应该多往好的一面想想,认为鉴于 ChatGPT 革命提高了大量工作岗位的生产率,这有望为每周四天工作制敞开大门。

3.田奇:大模型将导致市场向大公司集中

近日,国际欧亚科学院院士、华为云人工智能领域首席科学家田奇表示,人工智能行业渗透率将持续提速,2026 年将达到 20%。他提出了一种将大模型像自动驾驶一样划分为 “L0-L2” 不同阶段的方式,并称大模型已成为应对 AI 应用碎片化的一种方式,将导致市场向大公司集中,产业规则及格局也可能随之改变。未来人工智能发展可能面临两大趋势:第一,从小模型到大模型;第二,人工智能与科学计算的交汇,工业、气象、能源、生物医学等众多领域都受到 AI 的深刻影响。

4.李成:AI发展任重道远,学术界要保持清醒

据财联社报道,欧洲科学院外籍院士、俄罗斯自然科学院外籍院士焦李成指出,人工智能技术的下一次突破点在于深度学习。目前,ChatGPT 不完整、不完善是必然的,但大家对 ChatGPT 感兴趣却是客观的。从这个意义上讲,说明任重道远,尤其是学术界更要有清醒的头脑,要记住这个基础技术还需要我们去不断地努力。因为现在仅仅只是万里长征的第一步,绝对不能认为 ChatGPT 它所有都准备好了,就等着我们去赚钱。现在还没到这个时候。

5.潘云鹤:AIGC会转向更有价值的应用领域

据《科创板日报》报道,中国工程院院士潘云鹤表示,AIGC 不只用于聊天、画画,会转向更有价值的应用领域,建议要及时布局。例如,在实体经济领域的新产品、新流程、新药物的智能设计生成;文化艺术领域的广告、动漫、影视、绘画、音乐、儿童教育的智能内容生成;城乡发展领域的城乡规划、美丽乡村、线上会议、生态推演等智能模拟生成。同时,潘云鹤还建议要关注 ChatGPT 没有顾及的视觉数据与知识共同驱动的跨媒体智能系统,在这方面中国大有可为。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1