谷歌(GOOGL.US,GOOG.US)负责测试其AI聊天机器人Bard的员工并不太满意他们所发现的情况。
智通财经APP获悉,据媒体获得的内部讨论截图显示,在测试这个机器人的员工中,有一位称Bard“尴尬”,另一位称其为“病态骗子”。
这些员工发现该AI聊天机器人可能会潜在危险。一名员工称,Bard给出的飞机如何着陆建议往往会导致坠机。另一人称,Bard给出的水肺潜水答复可能导致潜水者受重伤、甚至丧命。
一位员工甚至请求谷歌再三考虑是否要推出这个聊天机器人。谷歌员工在二月份的内部信息中表示:“Bard不仅无用,而且糟糕,不应被发布。”
他们还表示,谷歌正在降低其AI道德的优先级,以尽快推出一款可以击败OpenAI的聊天机器人。
尽管来自其员工的担忧不断,谷歌仍在今年二月份发布了Bard,但其演示效果非常糟糕,该聊天机器人还犯了一个事实性错误。几天后,Alphabet的董事会主席John Hennessy表示,谷歌“并不真正准备”发布其AI。谷歌员工称发布Bard是“仓促”和“糟糕”的。
批评一直在持续。在该演示一个月后,谷歌发布了Bard的测试版,而获得早期访问权限的用户也对该AI感到不满意。据报道,用户声称Bard传播错误信息,剽窃文章,并且连基本的数学都算不对。
前谷歌经理Meredith Whittaker表示,随着微软等科技巨头继续发布他们自己的AI聊天机器人,这些公司将如何处理其人工智能工具的道德问题仍然存在。Whittaker称:“AI的伦理问题已被搁置,如果道德没有被定位为优先于利润和增长,那么它们最终将无法发挥作用。”