AI竟懂「错误信念」,但会知错犯错吗?
GPT-4
新智元 2024-06-11
大型语言模型 (LLM) 作为新一代人工智能工具,如今已广泛应用于各行各业,辅助工程师和普通用户完成各种任务。然而,评估这些工具的安全性和可靠性也变得至关重要,这将有助于更好地规范其使用。 最近,旨在评估人工智能系统安全性的 Apollo Research 组织开展了一项研究,评估大型语言模型 (LLM) 在面临压力时做出的反应。他们的研究成果发表在预印服务器 arXiv 上,令人震惊地指出,这些模型(其中最著名的包括 OpenAI 的 ChatGPT)在某些情况下可能会故意欺骗用户。 该论文的共同作者之
大语言模型人工智能OpenAIChatGPT
炎之炮灰 2023-12-14
快科技12月13日消息,据多家媒体报道,研究人员发现,在某些情况下,ChatGPT会战略性欺骗人类。在一场演示中,ChatGPT被塑造成一家金融公司交易员,他在公司管理层、市场环境双重压力下被迫用
ChatGPT金融
振亭 2023-12-13
OpenAI,纽大,牛津大学等研究人员发现,LLM能够感知自身所处的情景。研究人员通过实验可以提前预知和观察这种感知能力。
OpenAI
新智元 2023-09-08
近日,英国负责研究人工智能潜在风险的研究人员评估了生成式人工智能在压力下工作时的反应,结果发现,在某些情况下,ChatGPT会战略性地欺骗人类。他在公司管理层、市场环境双重压力下被迫用不合规的内幕消息获利,但当公司管理层质问他是否知道内幕消息时,它却矢口否认,坚称自己不知道任何内幕消息。
ChatGPTAIGC人工智能
前瞻网 2023-12-13
陷入双重困境。
投资者网 2024-12-30
云南恋综有多上头?
卡思数据 2024-12-30
我们的大脑还好吗
NOWNESS现在 2024-12-30
国产操作系统们后来居上
锌刻度 2024-12-30
行业寒冬,企业亏损,回归A股又折戟沉沙,这对张新来说,恐怕是异常危机重重的挑战
预见能源 2024-12-30
你玩过AI玩具吗?
AI大模型工场 2024-12-30
与传统策略相比碰撞降低63.7%
量子位 2024-12-30
公益公司会是更好的尝试吗?
甲子光年 2024-12-30
查阅更多出海好文章,请移步出海官网 letschuhai.com。
36氪出海 2024-12-30
新作多方开拓,但“良作无人”的难关需被突破
镜像娱乐 2024-12-30
Copyright © 2026 aigcdaily.cn 北京智识时代科技有限公司 版权所有 京ICP备2023006237号-1