据彭博社报道,谷歌(Google)的员工在内部信息中多次批评该公司的聊天机器人Bard,称该系统是“说谎成性”的,并恳求公司不要推出它。
彭博社援引了18名现任和前任谷歌员工的讨论以及内部信息的截图。在这些内部讨论中,一名员工指出,Bard经常会给用户危险的建议,无论是关于如何降落飞机或潜水等话题。另一名员工说,“Bard比无用还要糟糕:请不要推出。”彭博社称,该公司甚至“否决了”一个由内部安全团队提交的风险评估,称该系统还没有准备好供普通用户使用。但谷歌还是在3月份提前开放了对这个“实验性”的机器人的访问。
彭博社的报道显示,谷歌为了跟上竞争对手微软(Microsoft)和OpenAI的步伐,显然忽视了道德方面的担忧。该公司经常宣扬其在AI方面的安全和道德工作,但长期以来一直因为优先考虑业务而受到批评。
在2020年底和2021年初,该公司解雇了两名研究人员——Timnit Gebru和Margaret Mitchell——他们撰写了一篇揭露了与Bard等聊天机器人相关的AI语言系统缺陷的研究论文。现在,随着这些系统威胁到谷歌的搜索业务模式,该公司似乎更加专注于业务而非安全。
Bard是谷歌为了与ChatGPT和必应(Bing)的AI聊天功能竞争而推出的一款基于自然语言理解(NLU)和自然语言生成(NLG)技术的聊天机器人。它可以与用户进行自由对话,回答各种问题,甚至创作故事或诗歌。但是,由于它是基于大量文本数据训练出来的,它可能会产生不准确、不合适或有害的回复。
您怎么看<谷歌AI聊天机器人Bard惹众怒,内部员工痛斥“说谎成性”>,欢迎在评论区分享您的看法!
如果感兴趣,欢迎点赞关注转发给朋友!