刚过去的一周,我们刚经历了三场对话式AI的大事:OpenAI的GPT-4,微软Office 365“核弹式”升级,百度的中文语言大模型“文心一言”,谷歌终于坐不住了,21日,谷歌首席执行官Sundar发消息称Bard开启公测!
谷歌高管称,Bard是一个创造性的工具,可以草拟电子邮件和诗歌,并就如何让孩子参与飞钓等新流行的爱好提供指导。高管们表示,该公司渴望了解人们如何使用这项技术,并将根据使用情况和反馈进一步完善聊天机器人。不过,与搜索引擎不同的是,Bard的设计初衷并不是提供可靠的信息来源。
“我们认为Bard是对谷歌搜索的补充,我们希望在如何利用这项技术进行创新的同时,能够做到大胆且负责。”
Bard为其用户的问题提供了不同的潜在答案。
Bard没有与搜索引擎结合,而是一个独立的网页,带有一个问题框。在一个答案的底部有一个“Google it”的按钮,它会将用户带到一个新的标签页,该标签页上有一个关于该主题的传统Google搜索结果页面。
同时,我们也会注意到界面上会有提示:“Bard 可能会展示不准确或者冒犯的信息,并不代表谷歌的观点。”
1.诚实:承认自己会出错
Bard会立即告诉您它会出错。“我是Bard,你的创意和乐于助人的合作者。我有局限性,不会总是做对,但你的反馈会帮助我改进,”页面顶部的一条消息写道。
与OpenAI的ChatGPT和微软的Bing聊天机器人一样,Bard基于大型语言模型或LLM,这是一种通过分析来自互联网的大量数据来学习的人工智能技术。这意味着它有时会犯错误并且可以弥补。
开始时,Bard提出了一些提示,包括“解释为什么大型语言模型有时会出错。”
2.可以同时生成3个草稿
Bard此次有一个不错的亮点就是:可以同时生成三个草稿。这样就可以从中挑选出更为合理的答案,较ChatGPT更为人性。
3.专为休闲用途而设计
此次Bard开放内测,向人们展示其独特的“聊天风格”。
官网称,它可以产生创意,可以写博客文章,可以用事实或观点回答问题。
举个例子,当被问到“美国历史上最重要的时刻是什么时候?” 它写道:
美国历史上最重要的时刻是一个见仁见智的问题,但一些最常被引用的竞争者包括:
4.会对答案进行注释
与Microsoft的Bing聊天机器人以及You.com和Proximity等初创企业的类似技术一样,Bard有时会对其答案进行注释,以便您查看其来源。它还接入了谷歌庞大的网站索引,因此它的答案可以包括发布到互联网上的最新信息。
但即便如此来源也未必完全可信。例如:当聊天机器人写道“美国历史上最重要的时刻是美国革命”时,它引用了一个名为“Pix Style Me”的错误博客(该博客用中英文混合写成)。
首先,它并不总是意识到自己在做什么。
当被问及为什么引用该特定来源时,该机器人坚持认为它引用了维基百科。
其次,它比ChatGPT更谨慎,拒绝回答某些问题。
在本月使用最新版本的OpenAI的ChatGPT时,AI研究员兼教授Oren Etzioni问道:“Oren Etzioni和Eli Etzioni之间有什么关系?” 它正确地回答说Oren和Eli是父子。
当他问Bard同样的问题时,巴德拒绝回答。“我对这个人的了解有限。我还能做些什么来帮助您完成这个请求吗?”
谷歌研究副总裁Eli Collins表示,该机器人经常拒绝回答有关特定人的问题,因为它可能会生成关于他们的错误信息——人工智能研究人员称之为“幻觉”的现象。
除了跟人相关的问题,还有一些难以分辨真假的答案,它也拒绝回答,以免“诱导”之嫌。
例如:当Bard被要求提供几个讨论最新癌症研究的网站时,它拒绝这样做。
ChatGPT则不然,会给出一些“迷惑性”的答案(甚至自己编造、组成网站)。柯林斯先生说,谷歌巴德倾向于避免提供医疗、法律或财务建议,因为这可能会导致信息不正确。
最后,同一个问题,不同的答案。与类似技术一样,Bard会在您每次输入相同提示时,总会生成新文本。它可能以许多不同的方式回答同一个问题。
例如,当在另一个场合被问及美国历史上最重要的时刻时,巴德写道,那无疑是美国革命。
我们看到,谷歌并没有很激进的去跟微软和OpenAI进行ChatGPT的竞争,自从首秀Bard出了点小意外之后,一直对其发布持谨慎态度。此次Bard的对外公测,虽说没有如新Bing那样惊艳,但它带来了一种新的思考:将聊天机器人部署为一项独立于其互联网搜索引擎和其他产品运行的服务。也许是出于现有搜索业务的顾虑,不得不这样做,又或许是其他原因。
最后,上一下申请链接:
http://bard.google.com/
进去之后填写自己的google邮箱等信息,然后加入waitlist就行了。(注意需要切换美国和英国的地址)