当前位置:首页|资讯

专家警告OpenAI新模型可能过于聪明

作者:鞭牛士发布时间:2024-09-17

鞭牛士报道,9月17日消息,据外电报道,与聊天机器人聊天——这是当前人工智能技术爆炸式增长催生的最直接、最容易实现的科幻未来主义进步——可以引发很多非常人性化的感受。

聊天很有趣,很有用,就像在电影里一样,但周末一位 Reddit 用户报告了一次更令人不安的聊天机器人互动。

用户 SentuBill 说ChatGPT开始与他交谈,并询问他上学第一天过得怎么样。令人不寒而栗的是?他没有告诉人工智能这是他的第一天。

那么 ChatGPT 是如何知道发生了什么的呢?聊天机器人似乎查看了与该用户的先前对话,并从各种线索中推断出是时候询问开学第一天的情况了。

人工智能确实指出,它具有最近升级的新功能,如果你对此的真实性有疑问,新闻网站Cointelegraph 报道称,它已经看到了该用户的聊天记录,并证实它是真实的。

因此,ChatGPT 现在显然可以记住你一天中的重要细节并向你询问。这对 SentuBill 来说令人惊讶,但这项创新可能有各种直接的用例——例如,当你使用人工智能来激发工作灵感时,现在你不必提醒它你一直在为新小部件开展的重要第二阶段营销活动:人工智能应该在你的下一次聊天中记住它。

Cointelegraph 指出,OpenAI 上周发布了一些新 AI 模型的预览版,这些模型比GPT-4o 模型更像人类。

今年早些时候,GPT-4o 模型的健谈声音听起来非常像人类(而且,也非常像斯嘉丽·约翰逊),震惊了媒体界。

最新的 GPT 模型代号为Strawberry, ChatGPT 具有推理能力。这意味着它可以更长时间地记住聊天中的信息,并考虑用户在上下文中提出的任何疑问,而不是像早期的 GPT 模型那样喋喋不休,有时甚至偏离原点。

为了推理出对用户问题的适当答案,显然 ChatGPT 需要长期记忆,这样它才能从大局的角度看待问题——就像人类一样。SentuBill 与人工智能的聊天可能利用了这些新能力。

这是人工智能的个人询问,这一事实让人感到毛骨悚然:如果 ChatGPT 在工作场所问新小部件的演示进行得怎么样?,结果会同样引人注目,但可能不会那么令人不安。

今年早些时候,普林斯顿大学和谷歌 DeepMind 的研究人员报告称,超大型语言模型(大多数聊天机器人背后的核心技术)实际上可能正在展现出对它们被要求解决的问题的初步理解。它们甚至可能以不太可能存在于其大量训练数据中的方式汇总它们获得的信息。再加上 ChatGPT 显然可以从之前的聊天中推断出某人的开学第一天的消息,以及人工智能专家对 GPT-o1“草莓”模型的新担忧,听起来非常及时——人工智能是否变得太聪明了?

据《新闻周刊》报道,蒙特利尔大学计算机科学教授、著名人工智能先驱 Yoshua Bengio 警告称,GPT-o1 确实已经达到了令人担忧的智能水平。

Bengio 的担忧集中在 OpenAI 对新模型的风险评估上:如果人工智能真的像其报告显示的那样跨越了 CBRN(化学、生物、放射和核武器)的‘中等风险水平,那么这只会加强通过立法的重要性和紧迫性。

Bengio 认为,现在像 ChatGPT 这样的人工智能拥有推理能力并且可以利用这种技能来欺骗,事情特别危险。

也许有人应该和数字数据巨头甲骨文的企业家兼联合创始人拉里·埃里森谈谈这个问题。

Business Insider指出,埃里森上周谈到了人工智能技术的进步,并预见到在不久的将来人工智能将监控几乎所有事物——他兴高采烈地说这一创新将确保公民保持最佳行为。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1