当前位置:首页|资讯|百度|李彦宏|融资|AIGC

「AI 周刊」第四期:平静的一周,却暗流涌动(2023.06.02)

作者:AI探索基地发布时间:2023-06-04

百度创始人、董事长兼首席执行官李彦宏在摩根大通全球中国峰会期间宣布,百度将设立 10 亿元人民币的百度文心投资基金,旨在推动大模型生态繁荣,同时启动“文心杯”创业大赛,最高奖项为价值1000 万元早期投资。

在财报电话会上,针对 AI 相关问题,美团创始人王兴表示,坚信 AI 将改变我们生活的方方面面,对 AI 的应用也绝不仅仅局限在手机或互联网行业。AI 的应用方式多种多样,AIGC(人工智能生成内容)只是其中的一部分。AIGC 将改变人们创作、生成内容的基本方式,同时也将对美团的业务造成影响。

王兴还表示,在美团内部,我们一直对 AI 相关的发展机会保持开放态度, 美团将致力于打造自身的 AI 功能,并将其应用至用户。多年的运营让美团积累了大量专有数据,正因如此,美团将在能力允许的范围内积极对 AI 技术进行投资,以期让 AI 技术造福所有人。

创新工场董事长、首席执行官李开复在 2023 中关村论坛“人工智能大模型发展”分论坛上表示,要接受现阶段的 AI大 模型是不完美的事实,但它仍然具有几十万亿美元规模的商业价值。李开复还认为,AI 大模型是一个绝对不能错过的历史机遇,“这是有史以来最大的一个平台”。

詹姆斯・卡梅隆透露他正在创作下一部「终结者」电影的剧本,他同时表示新剧本的灵感得益于 OpenAI 的 ChatGPT。

「终结者」作为影史经典科幻电影系列,目前已经推出了 6 部,而詹姆斯・卡梅隆现在希望以某种方式为「终结者」电影的制作增添更多值得玩味的元素。

早在 1984 年的第一部「终结者」便描绘了未来世界中的 AI 元素——防御系统 「天网」。受电影上映影响,当时的专家们警告人类需要警惕可能出现的 「天网末日」。然而直至如今,全能性的 AI 还未出现,当下的 AI 更强调在某一方面的特定能力,因此 AI 为新「终结者」书写剧本不在话下,但电影中的场景目前还没有发生的可能性。

5 月 29 日,NVIDIA 宣布推出一款新型大内存 AI 超级计算机——由 NVIDIA® GH200 Grace Hopper 超级芯片和 NVIDIA NVLink® Switch System 驱动的 NVIDIA DGX™超级计算机,旨在助力开发面向生成式 AI 语言应用、推荐系统和数据分析工作负载的巨型、下一代模型。

DGX GH200 集成了 256 个 GH200 超级芯片,该超级芯片使用英伟达的 NVLink 连接技术将 Grace CPU 和 Hopper GPU 连接在一起。中央处理单元(CPU)是作为服务器的主要计算大脑;而图形处理单元(GPU)则用于游戏和人工智能计算。

NIVIDIA 宣称其 GPU 可以大幅降低训练大型语言模型(LLM)的成本和耗能。在同样的成本和更少的电力消耗下,使用 GPU 集群和 CPU 集群能做到的训练数量比是 44:1。

作为英伟达“掌门人”的黄仁勋,日前在 Computex 2023 上发表主题演讲,分享了他们在 AI、图形及其他领域的最新进展。

在黄仁勋近两个小时的演讲中,他为用户带来了一系列重磅产品和消息,其中包括向游戏开发商提供的 AI 模型代工服务、算力大幅提升的 DGX GH200 人工智能超级计算机以及与其他头部科技公司的合作进展。黄仁勋向人们更具体地描绘了 AI 赋能的未来。

① 黄仁勋表示,加速计算和人工智能重塑了计算机行业,CPU扩张的时代已经结束了。当下需持续提升运算能力的数据中心需要的CPU越来越少,需要的GPU越来越多。人类已经到达了生成式AI的引爆点。② 黄仁勋认为,人工智能意味着每个人现在都可以成为计算机程序员,因为人们所需要做的就是与计算机对话,他为“数字鸿沟”的终结而欢呼。③ 黄仁勋强调,企业和个人应该了解人工智能新浪潮,并迅速推动新技术的创新,否则将会被淘汰。同时,人工智能也将成为辅助工具,提高工人的生产力和效率,并创造新工作岗位,而一些传统工作岗位则会消失。④ 黄仁勋透露,世界上首款拥有巨大内存的加速计算处理器GH200 Grace Hopper现已全面投产,微软、Meta以及谷歌云预计将成为该超级计算机的首批用户。⑤ 此外,黄仁勋还将英伟达2019年以69亿美元收购超级计算机芯片制造商Mellanox称为其有史以来做出的“最伟大的战略决策之一。

最近 OpenAI 创始人 Sam Altman 在一次访谈中讨论了 OpenAI 的 API 和他们的产品计划。Sam 非常坦诚地讨论实际的开发者问题,OpenAI 的使命和 AI 的社会影响。以下是主要的要点:

目前客户对 OpenAI 最大的抱怨是关于 API 的可靠性和速度。Sam 承认他们的担忧,并解释说,大部分问题是由于 GPU 短缺造成的。

更长的 32k 上下文还不能推广给更多的人。OpenAI 还没有克服技术上的障碍,所以虽然他们似乎很快就会有 100k - 1M tokens 的上下文窗口,但任何更大的窗口都需要研究上突破。

微调(Fine-Tuning)API 也目前受到 GPU 可用性的限制,他们还没有使用像 Adapters 或 LoRa 这样的高效微调方法,所以微调运行和管理非常计算密集,将来会有更好的微调支持。他们甚至可能会托管一个由社区贡献的模型市场。

专用容量提供受到 GPU 可用性的限制。OpenAI 还提供专用容量,为客户提供模型的私人副本。要使用这项服务,客户必须愿意预付 $100k 的费用。

OpenAI 的近期路线图包括更便宜、更快的 GPT-4,更长的上下文窗口、微调 API,以及有状态的 API。

Sam分享了他认为OpenAI的API的临时近期路线图。

2023年:更便宜、更快的GPT-4 —— 这是他们的首要任务。总的来说,OpenAI的目标是尽可能降低“智能的成本”,所以他们将努力继续降低API的成本。

更长的上下文窗口 —— 在不久的将来,高达一百万 tokens 的上下文窗口是可能的。

微调(Fine-Tuning)API —— 微调API将扩展到最新的模型,但这的确切形式将由开发者表明他们真正想要的东西来塑造。

支持会话状态的 API —— 现在当你调用聊天 API 时,你必须反复传递同样的对话历史,并反复支付同样的 tokens。在未来,API将有一个记住对话历史的版本。

2024年:多模态 —— 这在 GPT-4的 发布中进行了演示,但不能扩展到所有人,直到更多的 GPU 上线。

相当多的开发者说,他们在使用 OpenAI 的 API 构建产品时,担心 OpenAI 可能最终会发布与他们竞争的产品。Sam 说,OpenAI 不会发布除 ChatGPT 以外的产品。他说,历史上一个伟大的平台公司都会有一个杀手级应用,ChatGPT 将允许他们通过成为自己产品的客户来改进 API。ChatGPT 的愿景是成为一个超级智能的工作助手,但 OpenAI 不会触及许多其他的 GPT 用例。

虽然 Sam Altman 呼吁对未来的模型进行监管,但他并不认为现有的模型是危险的,他认为对它们进行监管或禁止是一个大错误。他重申了他对开源的重要性,并说 OpenAI 正在考虑开源 GPT-3。



Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1