据媒体援引一项新研究表示,随着大型语言模型(LLM)变得越来越强大,它们似乎也越来越容易编造事实,而不是避免或拒绝回答它们无法回答的问题。这表明,这些更聪明的 AI 聊天机器人实际上变得不太可靠。
该研究发表在《自然》杂志上,研究人员研究了一些业界领先的商业 LLM:OpenAI 的 GPT 和 Meta 的 LLaMA,以及由研究小组 BigScience 创建的开源模型 BLOOM。研究发现,虽然这些 LLM 的回答在许多情况下变得更加准确,但总体上可靠性更差,给出错误答案的比例比旧模型更高。
瓦伦西亚人工智能研究所在西班牙的研究员 José Hernández-Orallo 对《自然》杂志表示:“如今,它们几乎可以回答一切。这意味着更多正确的答案,但也意味着更多错误的答案。”
大忠电子 2024-12-03
雁鹏工业软件 2024-12-03
元初空间网络营销获客 2024-11-29
迅杰光远 2024-12-03
大忠电子 2024-12-02
苏州新联电机有限公司 2024-11-29
苏州新联电机有限公司 2024-11-30
迅杰光远 2024-12-03
大忠电子 2024-11-29