当前位置:首页|资讯|文心一言|编程|百度

一周工作5分钟完成!新版文心一言实测:秒秒钟出广告片,几句话搞定代码,办公科研生产力直接ProMax

作者:量子位发布时间:2023-08-17

原标题:一周工作5分钟完成!新版文心一言实测:秒秒钟出广告片,几句话搞定代码,办公科研生产力直接ProMax

金磊 发自 凹非寺

量子位 | 公众号 QbitAI

家人们,百度文心一言的插件,现在可以联动着用了——

只要几十秒,立马给你生成一个专业广告大片!

话不多说,直接先来看一下成品:

已关注

关注

重播分享

关闭

观看更多

更多

正在加载

    正在加载

    退出全屏

    视频加载失败,请刷新页面再试

    刷新

    视频详情

    不信?

    没关系,我们现在就来手把手地实操演示一下。

    首先就是要把要用到的文心一言的相关原生插件“火力全开”:

    • 百度搜索:也就是大家常说的“联网”,可以保证大模型的时效性和准确性(默认开启);
    • 说图解画:把图片丢进去,就可以根据它写故事、文案、回答问题等;
    • 一镜流影:根据主题词、语句或段落,一键创作生成视频(依托文心跨模态大模型,突破了不同模态之间语义对齐等技术难题,创新融合文本、视觉、语音、跨模态等一系列技术能力)。

    然后我们将一张可爱的奶牛照片丢进去:

    让文心一言先做一个理解

    从解析的结果上来看,文心一言精准无误地做到了“看图说话”:

    一头黑白相间的奶牛,站在蓝天下,正凝视着镜头。它似乎有些好奇或惊讶,又或许在思考着自己的存在和命运。它的耳朵竖立,眼睛炯炯有神,仿佛在寻找什么重要信息。它是一只充满生命力的动物,充满了活力与好奇心,让人不禁想要靠近观察它的世界。

    接下来,我们让文心一言帮忙取一个品牌名称

    在给出的品牌名称的风格之上,我们再让文心一言写一段广告语

    最后,只需要求文心一言根据以上内容生成一个视频,“啪的一下”,数十秒时间,广告视频就诞生了!

    或许有朋友要说了,职场人拍个广告片,前期可是要做大量的调研工作才能保证视频内容的真实性与精准度。

    确实如此,不过现在,借助文心一言多个插件的联动,这项工作也会变得异常轻松容易:

    • 览卷文档:根据给定的文档,可以完成摘要、问答和创作等任务;
    • E 言易图:仅需简单的数据图表需求,或输入待生成图表的数据内容,即可生成可交互图表,已支持7类图表的生成,包括数据图、饼状图、折线图、雷达图、漏斗图、思维导图、散点图。

    在将文档“喂”给文心一言之后,不论是对内容的总结亦或是对数据的分析,都变成了一句话的事了:

    如此一来,原本要消耗数天甚至数周的工作,直接压缩到了几分钟的时间里。

    网友们在看到这般效果之后,也是纷纷惊呼“泰酷辣”、“给工作带来了很多帮助”。

    为了能够打造更多的插件,文心一言还发布了大模型插件统一开发范式及工具集,邀请第三方为文心一言开发插件。感兴趣的小伙伴可以去尝鲜了(链接见文末)

    (注:除百度搜索外,目前可最多联动3个插件。)

    而以文心一言为代表的大语言模型,也意味着跨入了一个新的台阶,正如百度首席技术官王海峰在大会中首次对外所表示的那般:

    人工智能具有多种典型能力,理解、生成、逻辑、记忆是其中的核心基础能力。这四项能力越强,越接近通用人工智能,而大语言模型具备了这四项能力,为通用人工智能带来曙光。

    升级后的文心大模型,还能做什么?

    作为开发者大会,定然是少不了代码场景下的能力升级。

    百度集团副总裁吴甜在现场便抛出了一个让很多程序员头疼的问题——接手代码

    “前人”留下的代码太难懂、太晦涩了。

    现在,程序员们再遇到这样的问题就不用愁了,一个“复制粘贴”的动作,把烦恼统统交给文心一言来解决。

    它会逐行地对代码的功能做出解释,并且在结尾处会总结整个代码的作用:

    这个函数的功能是计算给定文本中单词的频率,并按照频率对结果进行排序。

    若是依旧不是很好理解,也只需让文心一言对代码做一个改写:

    当然,我们还可以让它写一个测试用例,并给出运行结果。

    至于在代码输出能力,吴甜在现场也演示了生成展示词云的代码,并将它实时运行了出来:

    可见文心一言已经具备了很强的代码解释、代码改写、代码注释、代码生成等能力。程序员防秃头,就用文心一言呀。

    WAVE SUMMIT大会上百度为开发者提供的福利可不止这个。大模型社区“星河”上线了!

    在星河大模型社区,开发者可以获得一体化大模型开发体验。飞桨+文心贯通全开发流程,与开发者持续共创大模型项目和应用。

    它的前身其实很多小伙伴都已经比较熟悉了,正是飞桨的AI Studio(星河社区),专门为大模型增设了一块新的“专区”。

    据了解,星河大模型社区目前已经有300多个大模型创意应用,还有创意配方可以分享和使用,同时也提供了稳定的应用部署环境(登录AI Studio访问“社区”栏目,能玩儿上好一阵)

    不过刚才提到的种种新能力,也还只是文心一言升级表现的一隅。

    工作生产力方面,百度智能工作平台“如流”也得到了相应加持——重磅发布超级助理,不仅是工具那么简单,而是会更懂你、专业、实时陪伴的那种。

    例如,百度集团副总裁、百度集团首席信息官李莹和同事在现场演示了一句话完成请假:

    下周五我要休一天假,去参加社区公益活动。

    更复杂的,如申请差旅,也是可以一句话搞定了:

    我后天上午去上海研发中心开会,当天返回北京,请帮我规划行程。

    不仅为已有日程让出时间,就连机酒组合也一并奉上,还不用操心报销问题,秒级完成操作。

    另外,找文档、学知识、查文献,在文心一言的加持下,现在也都简化成了一句话搞定:

    除此之外,聚焦到开发者,百度程序员都在用的编程助手Comate,也基于文心一言来了个大升级——发布X版本,覆盖研发全生命周期、全场景,全面帮助工程师“想”“写”“改”代码,已支持30+语言,十多种IDE。

    同样是一句话,李莹和同事现场一分钟便开发出了邀测激活码功能代码:

    用Java写一个方法,来生成唯一的激活码。

    同样的,在Comate X中也可以继续追问,例如“解释这段代码”、“生成注释”、“生成测试”等。

    不仅如此,这届WAVE SUMMIT还推出了开发套件Comate Stack,让更多、更大的开发项目变得越发容易。

    例如若是想在超级助理里开发一个休假政策的插件,那么现在只需两个步骤即可:第一步对Prompt做评估,第二步用iPlayground少量配置即可完成。

    一套操作下来之后,也是让网友们惊叹于开发的简易与高效:

    那么在纵览这波技术“肌肉秀”之后,随即而来的一个问题便是:

    怎么做到的?

    左手文心大模型右手飞桨,这便是此次能力升级背后的秘笈。

    正如刚才王海峰所述,现在文心产业级知识增强大模型已经具备了理解、生成、逻辑、记忆四项能力。

    至于它们的获得方式,我们不妨以文心一言为例来窥知一二。

    文心一言首先从数万亿数据和数千亿知识中融合学习得到预训练大模型。

    在此基础上采用有监督精调、人类反馈的强化学习和提示等技术,并具备知识增强、检索增强和对话增强等技术优势。

    进一步地,通过多种策略优化数据源及数据分布、基础模型长文建模、多类型多阶段有监督精调、多任务自适应有监督精调、多层次多粒度奖励模型等技术创新,全面提升基础通用能力。

    在检索增强和知识增强的基础上,通过知识点增强,提升对世界知识的掌握和运用;通过大规模逻辑数据构建、逻辑知识建模、多粒度语义知识组合以及符号神经网络,提升逻辑能力;通过构建数据、内容、模型和系统安全的全面安全体系,保障大模型的安全性。

    也正因如此,文心一言自3月份开放测试以来的短短5个月,技术和应用效果都在大幅提升。

    吴甜在此次大会中也公布了一组数据:

    过去5个月“文心一言”成长迅速,现在已经熟练掌握的创作体裁超过了200个。内容丰富度是发布初期的1.6倍,给用户提供了更加丰富、言之有物的文案书写。大语言模型非常让人欣喜的一个能力是它的逻辑思考能力,通过思维链长度的提升,今天的“文心一言”思维链长度已经是发布初期的2.1倍,思维链长度使得“文心一言”思考的过程具备了更好的深度。同时通过知识点覆盖的加强,使得“文心一言”在给大家提供帮助的时候有更广阔的思维,如今知识点覆盖达到了发布初期的8.3倍。

    而大模型效率的提升,也离不开飞桨的加持,例如在训练方面,百度对此总结了自己的一套打法:

    • 第一,与硬件集群协同优化,提升有效训练时间占比。对于长时间、高负荷的大模型训练而言,降低训练集群的故障率和训练恢复成本无疑是至关重要的。
    • 第二,与芯片/存储/网络协同优化,提升训练吞吐速度。这也是飞桨一直以来持续优化的方向。
    • 第三,与模型算法协同优化,提高收敛效率。特别是在大模型训练中,优化收敛效率和稳定性,可大幅度减少训练时间,达到事半功倍的效果。

    推理方面,飞桨则是从模型压缩、推理引擎、服务部署三个关键环节进行协同优化。

    例如采取了自适应Shift-SmoothQuant压缩算法、结合场景的混合量化推理方案、动态插入批处理技术等,飞桨持续结合算子融合加速、变长输入处理加速等。

    除此之外,为了更好的支撑大模型生产与应用,飞桨的大模型套件围绕大模型开发、训练、精调、压缩、推理、部署的六个阶段全流程进行了升级,持续降低大模型开发和应用成本。

    整体而言,通过飞桨端到端自适应混合并行训练技术以及压缩、推理、服务部署的协同优化,文心大模型训练速度达到了原来的3倍,推理速度则达到了原来的30多倍。

    至于飞桨开源框架自身,也升级到了最新的2.5版本:

    • 基础框架持续升级:微分功能更完善,性能优化更通用。
    • 更好支持AI for Science:正式发布飞桨科学计算工具组件赛桨PaddleScience v1.0;螺旋桨PaddleHelix发布HelixDock蛋白-化合物构象亲和力预测大模型。

    当然,生态依旧是非常关键的因素之一。

    正如百度AI技术生态总经理马艳军在大会中所述:

    在研发的过程当中我们也发现,软硬件的互联互通标准非常关键,所以我们也积极参与到这个标准的研制当中,由中国电子技术标准化研究院牵头,包括百度等其他厂商一起起草了国家标准《人工智能 深度学习框架多硬件平台适配技术规范》。

    据了解,基于这个技术规范,飞桨已经跟30多家硬件厂商开展联合适配;目前已经跟12家硬件伙伴开展文心大模型的适配。

    技术两手抓,生态亦兼顾,也就不难理解为什么百度可以做到了。

    百度飞桨+文心大模型,落地势能在加速度

    最后,纵观整场大会,或许给人最为直观的感受便是“加速度”了。

    不仅是技术的发展的加速度,更是落地势能的加速度。

    技术层面上的加速度显而易见,例如上述的各项能力的大幅提升,便是非常好的印证。

    而落地势能的加速度,也并非是一蹴而就的信号,而是贯穿每一届WAVE SUMMIT的那种。

    早在2019年,王海峰就提到:

    深度学习正在推动人工智能进入工业大生产阶段。

    王海峰当时认为,正因深度学习具备通用性,以及深度学习平台在不断发展,所以它们正在推动AI步入一种新的模式。

    这种模式可以归结为“三化”,即标准化、自动化和规模化,这也就意味着人工智能在进入工业大生产阶段。

    要做人工智能时代下的普及,就需要先让框架、大模型在企业,尤其是龙头企业加速铺展开来;而后通过反馈和优化,逐层向下更深入的应用起来。

    除此之外,生态,生态,还是生态。

    正如苹果、安卓在移动时代下的生态大战一般,得生态者为王;人工智能时代下,亦是如此。

    百度可以说是幸运的,早早的布局,让它立于现在这个时间节点上,已然显现出了“先发优势”——

    以飞桨生态为例,可以说是愈加繁荣,已凝聚800万开发者,服务22万家企事业单位,基于飞桨创建了80万个模型。

    而本届大会中,百度在落地势能加速度上又发出了一个新信号——AI原生。

    这正是得益于大模型在全球的火爆发展,诸如企业办公等产业领域所迎来的新机遇、新范式。

    不是简单的调入接口等操作,而是从开发到应用,自下而上将AI原生贯穿的那种。

    就目前来看,百度在这方面也是抢占了先机,尤其是在产业领域展开了布局,并发布“生态号召令”,以共创的方式再提速。

    至于如此“百度速度”何时能够完全引爆智能时代的生产力,我们拭目以待。

    文心一言的插件能力正式启动邀测,欢迎开发者加入:

    yiyan.baidu.com/developer

    「中国仿生机器人产业全景报告 · 量子位智库」下载

    AGI 的火热发展为仿生机器人的实现补全了最后一块拼图,仿⽣机器⼈将在技术创新和商业模式上迎来新周期。量子位智库发布《中国仿生机器人产业全景报告》,扫描下方二维码即可查看并下载完整报告。

    9月6日,我们将在北京举办仿生机器人行业沙龙,欢迎感兴趣的企业联系活动负责人王琳玉,联系方式见下方。

    点这里👇关注我,记得标星哦~

    一键三连「分享」、「点赞」和「在看」

    科技前沿进展日日相见 ~


    Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1