今年3月份,谷歌面向公众推出了人工智能聊天机器人巴德(Bard),以对抗微软支持的OpenAI更早推出的ChatGPT。
然而,据媒体周三报道,在Bard推出前不久,对Bard进行内测的谷歌员工对这款聊天机器人的表现并不满意。他们对Bard给出了一系列负面评价。
据媒体获得的内部讨论截图,在测试完Bard后,一名员工称其“令人尴尬”,另一名员工称其为“病态的骗子”。
其他人则认为Bard可能存在潜在危险。一名员工表示,他们向Bard询问了降落飞机的技巧,Bard给出的建议可能会导致碰撞。另一位员工表示,巴德给出的水肺潜水建议“可能会导致严重伤害或死亡”。
据报道,一名员工甚至恳求谷歌在推出Bard之前三思而后行。该名员工在今年2月的一条内部消息中写道:“Bard比无用更糟糕:请不要发布。” 近7000人看到了这条消息。
为追赶对手 降低AI伦理优先级
今年2月,谷歌就向公众展示了Bard,在那次灾难性的演示中,Bard犯了一个事实性错误,令谷歌颜面大失。谷歌员工将谷歌此次行动称之为“仓促”、“拙劣”、且“毫无谷歌风范”。
在一片批评声中,一个月后,Bard正式开放公测,可惜,并没能给早期体验的用户留下深刻印象。多数用户对Bard的评价是平淡无奇,沉闷乏味,一些用户甚至声称Bard传播错误信息,抄袭文章,并搞错了基本的算术,和对手ChatGPT“出道即巅峰”形成了鲜明的对比。
负责评估谷歌新产品安全性和道德规范的员工告诉媒体,谷歌不希望他们做出任何延缓人工智能技术开发的尝试,这降低了他们的士气。
他们还表示,谷歌正在降低AI伦理的优先级,以便尽快发布能够击败ChatGPT的一款聊天机器人。
谷歌前经理梅雷迪思·惠特克 (Meredith Whittaker)告诉媒体,随着像微软这样的科技巨头继续发布他们自己的AI聊天机器人,这些公司将如何解决其AI工具伦理的问题仍然存在。
“AI伦理已经退居次要地位。”他表示,“如果伦理不能优先于利润和增长,它们(AI技术)最终就不会起作用。”
来源:财联社
老周聊数码 2024-11-16
汽势Auto-First 2024-11-16
哲哲爱分享 2024-11-16