2023-10-18 10:44:02 作者:姚立伟
近日,微软的研究团队发布了一篇论文,详细探讨了大型语言模型(LLM)的“可信度”和潜在毒性问题。特别关注的是OpenAI的GPT-4及其之前的版本GPT-3.5。
论文指出,尽管在标准基准测试中,GPT-4相比GPT-3.5更加可靠,但该模型却容易受到“越狱”提示的影响。这种情况下,GPT-4可能会根据这些“越狱”提示来生成有害内容。
研究团队强调说,相较于之前的版本,GPT-4更容易受到恶意“越狱”系统或用户提示的影响,并且能够准确地遵循误导性指令来生成不良内容。然而需要明确的是,微软强调这个潜在漏洞并不会影响他们当前面向客户的服务。
如需深入了解,请查阅微软官方发表的这篇论文。