当前位置:首页|资讯|OpenAI|ChatGPT

GPT-4o 可能才是 AI PC 的真正形态

作者:C哥聊科技发布时间:2024-05-15

关注 C 哥,AI 不迷路

这次 OpenAI 的 GPT-4o 发布会演示了人和 AI 无比丝滑的实时语音和视频交流。其中一个演示场景是我在看直播的时候就想到了一件事——ChatGPT 新推出的 PC 客户端,可能是 AI PC 的一个不错的初始形态。
「AI PC」这个概念,主要是在去年开始火的。英特尔公司在发布 Core Ultra 处理器的时候,直接使用了AI PC这个词语。后来很多厂商发布新款的笔记本电脑的时候,也使用了AI Ready、AI PC 这样的的宣传词。

从去年年初开始,大量AI PC陆续上市,它们的共性就在于本地部署了一个小模型,也就是3B、7B这样的模型。

由于可以在本地执行 AI 运算,解决了 AI 的隐私性和离线使用的问题,并可以和操作系统深度绑定,降低使用 AI 的成本。

但是,如果我们把视线看长远一点,思考得更深入一点:本地部署大语言模型,甚至是多模态大模型有意义吗?AI PC 是炒作还是全村的希望?

我一直对大规模地在 PC 本地部署 AI 大模型的必要性和可行性抱有怀疑。

PC 不是手机,除了少数专业人世和对安全性要求很高的场景外,我并不觉得离线极端环境下一定要保持 AI 的全时全能。一方面笔记本续航会大大下降,另一方面长期离线办公本身场景也不太存在。而本地部署的大模型由于算力的限制,能力又必然不如在线服务。

其实安全也不是本地离线部署的刚需。毕竟你要知道现在默认情况下,无论是电脑还是手机,大多数中文输入法默认都是把文本数据发到云端来做联想输入的(甚至包括 Windows 10/11 的自带输入法)。

要知道输入法可是可以获取到你在电脑上输入的一切字符的。但也没见几个人因此而不使用常用中文输入法的,在设置选项里关掉这个功能的也只是极个别人,毕竟关掉云端联想会影响输入准确性。绝大多数普通人是不在乎的。

所以,低延迟和高用户体验才是本地部署 AI 大模型的主要竞争力。但这样的竞争力,随着 OpenAI 推出的 GPT-4o,似乎也成了伪命题。

在 GPT-4o 的发布会上,我们可以看到 GPT-4o 的在线语音和视频交互的延迟低至百毫秒级别,这个级别的延迟可以说能够秒杀所谓「AI PC」,因为本地的算力限制,即使去掉网络延迟也很难达到这个延迟。如果硬要实现,那 PC 的算力成本会十分高昂。

即使是最近苹果在 iPad Pro 上首发的 M4 芯片,其 AI 算力已经是目前 PC 芯片中最高的之一,但和云端动辄「万卡集群」相比,也是九牛一毛的。

苹果的 M4 芯片

微软之前宣布今年下半年会发布 Windows 11 2024H2,它预计将搭载本地 AI Copilot 助手。而截至目前,我所看到的 AI Copilot 助手,也是类似另一个 Siri,做些简单的帮你调整黑暗模式、问问今天的天气如何之类的服务。算不上革命性的创新。

所以哪怕你加载了英特尔的高算力芯片,这样的 PC 能否称之为 AI PC,我想也是打个问号的。或者说,消费者愿不愿意为这样的 AI 功能而更换硬件甚至忍受价格的上涨?

而无需更换硬件、网络化的 GPT-4o,通过极低延迟的语音和视频交互,辅以实时投屏,或许才是更适合普通的「AI PC」的形式。

想更多了解 AI,可以加入 C 哥的小圈子:



Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1