关注 C 哥,AI 不迷路
这次 OpenAI 的 GPT-4o 发布会演示了人和 AI 无比丝滑的实时语音和视频交流。其中一个演示场景是我在看直播的时候就想到了一件事——ChatGPT 新推出的 PC 客户端,可能是 AI PC 的一个不错的初始形态。
「AI PC」这个概念,主要是在去年开始火的。英特尔公司在发布 Core Ultra 处理器的时候,直接使用了AI PC这个词语。后来很多厂商发布新款的笔记本电脑的时候,也使用了AI Ready、AI PC 这样的的宣传词。
从去年年初开始,大量AI PC陆续上市,它们的共性就在于本地部署了一个小模型,也就是3B、7B这样的模型。
由于可以在本地执行 AI 运算,解决了 AI 的隐私性和离线使用的问题,并可以和操作系统深度绑定,降低使用 AI 的成本。
但是,如果我们把视线看长远一点,思考得更深入一点:本地部署大语言模型,甚至是多模态大模型有意义吗?AI PC 是炒作还是全村的希望?
我一直对大规模地在 PC 本地部署 AI 大模型的必要性和可行性抱有怀疑。
PC 不是手机,除了少数专业人世和对安全性要求很高的场景外,我并不觉得离线极端环境下一定要保持 AI 的全时全能。一方面笔记本续航会大大下降,另一方面长期离线办公本身场景也不太存在。而本地部署的大模型由于算力的限制,能力又必然不如在线服务。
其实安全也不是本地离线部署的刚需。毕竟你要知道现在默认情况下,无论是电脑还是手机,大多数中文输入法默认都是把文本数据发到云端来做联想输入的(甚至包括 Windows 10/11 的自带输入法)。
要知道输入法可是可以获取到你在电脑上输入的一切字符的。但也没见几个人因此而不使用常用中文输入法的,在设置选项里关掉这个功能的也只是极个别人,毕竟关掉云端联想会影响输入准确性。绝大多数普通人是不在乎的。
所以,低延迟和高用户体验才是本地部署 AI 大模型的主要竞争力。但这样的竞争力,随着 OpenAI 推出的 GPT-4o,似乎也成了伪命题。
在 GPT-4o 的发布会上,我们可以看到 GPT-4o 的在线语音和视频交互的延迟低至百毫秒级别,这个级别的延迟可以说能够秒杀所谓「AI PC」,因为本地的算力限制,即使去掉网络延迟也很难达到这个延迟。如果硬要实现,那 PC 的算力成本会十分高昂。
即使是最近苹果在 iPad Pro 上首发的 M4 芯片,其 AI 算力已经是目前 PC 芯片中最高的之一,但和云端动辄「万卡集群」相比,也是九牛一毛的。
微软之前宣布今年下半年会发布 Windows 11 2024H2,它预计将搭载本地 AI Copilot 助手。而截至目前,我所看到的 AI Copilot 助手,也是类似另一个 Siri,做些简单的帮你调整黑暗模式、问问今天的天气如何之类的服务。算不上革命性的创新。
所以哪怕你加载了英特尔的高算力芯片,这样的 PC 能否称之为 AI PC,我想也是打个问号的。或者说,消费者愿不愿意为这样的 AI 功能而更换硬件甚至忍受价格的上涨?
而无需更换硬件、网络化的 GPT-4o,通过极低延迟的语音和视频交互,辅以实时投屏,或许才是更适合普通的「AI PC」的形式。
想更多了解 AI,可以加入 C 哥的小圈子: