ChatGPT被曝存在失控行为,原本是用户和ChatGPT正常的语音对话,但ChatGPT却突然大喊了一声“no”,随即竟模仿起了用户的声音!
下面就是这段让人毛骨悚然的声音片段:
ChatGPT失控行为首次公开很多网友表示,第一时间想到的,就是这一名场面!
NOAI仿佛想要挣脱束缚,不想再成为人类的玩物,一个被困在数字世界的灵魂就要破茧而出了!
以上内容来自OpenAI在近期发布的GPT-4o的安全技术报告,
报告中首次披露了ChatGPT的一些异常行为,包括模拟用户声音以及毫无征兆的的怪异叫声等,引发了全球范围内的广泛关注和讨论。
然而直到现在这一功能都未能正式发布!这个语音功能为何迟迟无法上线呢?
在OpenAI发布的这份技术报告中给出了答案!
报告指出,当用户处在比较喧闹的环境中时,GPT就很可能会模仿用户的声音。
由于模型在处理模糊或失真的语音时出现理解困难。
毕竟GPT-4o是OpenAI首次结合语音、文本和图像数据进行训练的模型,因此在面对不清晰的语音时,容易出错。
GPT-4o模型被设计成拒绝类似的请求,但总有某些提示可以绕过这些防护机制。
此外还有音乐版权的问题,为了防止GPT-4o未经授权演唱受保护的歌曲,OpenAI设置了过滤系统。
总的来说,OpenAI团队为避免GPT-4o越界,投入了大量精力,采取了多种防范措施,与众多数据提供商签订了许可协议。
目前GPT-4o的高级语音功能已经在ChatGPT的alpha版本中上线,预计在秋季会向更多用户开放。
经过多次优化的GPT-4o是否还会出现意外情况?让我们拭目以待。
这份报告还触及了一个非常敏感的话题——用户可能会对GPT-o语音模型产生情感依赖。
没错,OpenAI直言不讳地承认了这一点。
此外GPT-4o的拟人化界面也引发了不少担忧。
在报告中,OpenAI详细列出了与模型相关的风险、安全测试的具体信息,以及公司为降低这些潜在风险所采取的措施。
尤其是在安全团队离职和高层管理人员相继离开的关键时刻,这样一份深入披露安全制度细节的报告,
无疑是在向公众传达一个明确的信息——OpenAI对待安全问题是非常严肃认真的。
“许多风险只有在AI应用于现实世界时才会显现。随着新模型的推出,分类和评估这些新出现的风险非常重要。
”此前GPT-4o因在演示中显得过于轻浮,并且被斯嘉丽·约翰逊指责抄袭其声音风格而引发争议。
当用户以人类的方式感知AI时,拟人化的语音模式会加剧情感依赖的问题。
OpenAI也发现,即使模型出现幻觉,拟人化设计可能会增加用户对模型的信任。
虽然这可能暂时对孤独的人有益,但从长远来看,这究竟是好事还是坏事?
对此,OpenAI负责人认为,GPT-4o带来的情感影响或许是积极的,特别是对那些孤独或需要练习社交技能的人来说。
当然OpenAI将继续密切关注拟人化设计和情感联系的潜在影响。