IT之家 10 月 18 日消息,微软旗下研究团队近日发表论文,详细研究了大型语言模型 (LLM) 的“可信度”和潜在毒性,特别关注 OpenAI 的 GPT-4 及其前代 GPT-3.5。
研究团队,GPT-4 虽然在标准基准测试中比 GPT-3.5 更加可靠,但容易受到“越狱”提示(绕过模型安全措施)影响。GPT-4 可能会根据这些“越狱”提示,生成有害内容。
论文中强调 GPT-4 更容易受到恶意“越狱”系统或用户提示影响,会准确地遵循(误导性)指令,生成不良内容,微软强调这个潜在漏洞不会影响当前面向客户的服务。
IT之家在此附上微软官方论文地址,感兴趣的用户可以深入阅读。