当前位置:首页|资讯|谷歌|AI聊天机器人|Bard

谷歌AI聊天机器人Bard惹众怒,内部员工痛斥“说谎成性”

作者:薅毛工发布时间:2023-04-20

原标题:谷歌AI聊天机器人Bard惹众怒,内部员工痛斥“说谎成性”

据彭博社报道,谷歌(Google)的员工在内部信息中多次批评该公司的聊天机器人Bard,称该系统是“说谎成性”的,并恳求公司不要推出它。

彭博社援引了18名现任和前任谷歌员工的讨论以及内部信息的截图。在这些内部讨论中,一名员工指出,Bard经常会给用户危险的建议,无论是关于如何降落飞机或潜水等话题。另一名员工说,“Bard比无用还要糟糕:请不要推出。”彭博社称,该公司甚至“否决了”一个由内部安全团队提交的风险评估,称该系统还没有准备好供普通用户使用。但谷歌还是在3月份提前开放了对这个“实验性”的机器人的访问。

彭博社的报道显示,谷歌为了跟上竞争对手微软(Microsoft)和OpenAI的步伐,显然忽视了道德方面的担忧。该公司经常宣扬其在AI方面的安全和道德工作,但长期以来一直因为优先考虑业务而受到批评。

在2020年底和2021年初,该公司解雇了两名研究人员——Timnit Gebru和Margaret Mitchell——他们撰写了一篇揭露了与Bard等聊天机器人相关的AI语言系统缺陷的研究论文。现在,随着这些系统威胁到谷歌的搜索业务模式,该公司似乎更加专注于业务而非安全。

Bard是谷歌为了与ChatGPT和必应(Bing)的AI聊天功能竞争而推出的一款基于自然语言理解(NLU)和自然语言生成(NLG)技术的聊天机器人。它可以与用户进行自由对话,回答各种问题,甚至创作故事或诗歌。但是,由于它是基于大量文本数据训练出来的,它可能会产生不准确、不合适或有害的回复。

您怎么看<谷歌AI聊天机器人Bard惹众怒,内部员工痛斥“说谎成性”>,欢迎在评论区分享您的看法!

如果感兴趣,欢迎点赞关注转发给朋友!


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1