Apple Intelligence 今天终于来了,但又没完全来。
随着 iOS 18.1 Beta 版的推送,注册开发者从现在开始就能体验到部分苹果牌 AI 功能了。
不少提前尝鲜的海外网友已经玩嗨了。火爆程度如下图所示:
从贯穿整个系统的写作工具到最为重要的 Siri,让我们一起来见识由苹果定义的 Apple 智能。
介绍之前,先说一下体验的前置条件:
iOS 18.1 Beta 版仅限注册开发者使用,普通用户需等待。
建议将设备地区设为美国,并将 Siri 语言设为英语。
仅 M 系列和 A17 Pro 芯片设备兼容,比如最新版 Pro/Pro Max。
用户需在设置中加入候补名单,目前通过速度比较快。
博主 @Brandon Butch 在 YouTube 上分享了他第一时间的实测结果。
从分享的视频信息来看,新版 Siri 迎来了焕然一新的 UI 设计,看起来更酷了,比如触发后会有一个跑马灯的效果,顺带附有一个触发的音效。
不过,iOS 18 Beta 1 的 Siri 还是 1.0 版本,尚未接入 ChatGPT,预计 2.0 版本将在 2025 年推出。
也正是如此,Siri 的智商也有待提高,比如当博主问 Siri 4 个小时后的具体时间时,Siri 只淡淡地回了一句「To who」。
召唤 Siri 的方式也增添了一种方式,轻点一下 iPhone 底部就会亮起横条,而点击两次后就能调出 Siri。
渐变色的新键盘界面搭配全新的文字输入,这下 Siri 真的大变样了。并且似乎打字版的 Siri 也能回答上面语音回答不了的问题。
几个月前,我们给 Apple Intelligence 下的定义是,Apple 智能是生而为系统的功能,而这一点在更新的 Writing tools(写作工具)功能展现得尤为淋漓尽致。
在信息、备忘录里输入文字,你会发现手机键盘的右上方会有一个 Apple 智能的按钮,点击后就能得到完整的写作工具功能,包括但不限于三种不同类型重写句子的方法——「友好」「专业」「简洁」。
简言之,这项功能在于帮助你找到一种更好的方式来表达你真正想说的话。
和友人聊天时,让 AI 把握语调的轻重缓急、避免不必要的误解矛盾,既能让其写得更专业、更友好,也能更简洁、对于不太擅长说话的低情商 i 人来说,这简直就是宝藏功能。
网友 @techdroider 也对比了与三星 Galaxy AI 类似功能的表现。没有任何悬念,「Apple 智能 1:0 三星 Galaxy AI 」。
当然,如果你对写作工具修改后的措辞不是很感冒,那也可以一键还原,就是这么任性。
此外,这项功能也适用于 Safari,长按选择段落,然后就会弹出写作工具,再自行执行上述操作。
而摘要、分点总结等功能则更适用于长文阅读。
作为一名邮箱里塞满了外网新闻报道的编辑,现在可以利用页面右上角的默认摘要按钮帮我们提高效率,一键摘要,节省的可不止一点点时间。
点击按钮后,Apple 智能将会自动浏览并阅读信息,然后只需要大约 1 分钟的时间,就会在顶部留下短小精悍的摘要,即便是普通的电子邮件也同样适用这个功能。
写作工具里提供的「prooffread(校对)」更是语法的天敌。输入文字后,校对错误的记录一目了然,甚至标点符号的使用不规范,它都能帮你指出。
心心念念的通话录音功能终于来啦。
怎么用录制?录音效果如何?识别精准吗?一条视频给你讲清楚。
通话时,点击左上角的新增录音键,就可以开启录音,同时对方的电话里面也会收到录音已开启的语音提示。
通话结束后,录音文件还会自动保存到备忘录当中,里边除了有音频文件,还会有实时转录的语音文字。
与此同时,录音文件也可以转存到文件 App 当中,录音文件是 m4a 的格式,整体的录音文件会被压缩的很小,所以最后的效果只能算是够听,而转录的文字还可以区分发言人。
另外,我们还测试了方言的转录效果,不妨点击观看上方视频号吧,像是和普通话比较接近的北方方言转录的效果就比较精准,但是像粤语这一类和普通话差别比较大的方言,可能 iPhone 就听得不太懂了。
怎么样,这个功能你还满意不?
另外,也还有一些小功能,比如用户能通过自然语言创建幻灯片和搜索具体的照片及视频等。
在之前的文章中, 我们简单揭秘了 Apple 智能是怎么炼成的,甚至即使没有 GPT-4o 也能打。
而在今天,苹果也发布了全面的技术报告,披露了关于 Apple 智能的更多细节。
先来感受一下苹果官方给出的测试结果:
简单来说,这份技术报告详细介绍了 3B 参数大小的端侧模型 AFM-on-device,以及一种更大参数的云端模型 AFM-server。
苹果报告显示,前者端侧模型主要用来实现摘要的功能,比如适用于上文提到的电子邮件,消息和通知的摘要。苹果还特地与设计团队合作制定了电子邮件、消息和通知摘要的规范。
虽然端侧模型在生成一般摘要方面表现良好,但难以生成严格符合规范的摘要。为了解决这一问题,项目团队在 AFM 端侧模型上应用了 LoRA 适配器进行微调,以改善摘要生成的准确性。
后者云端模型则基于规则的过滤器采用启发式方法,如长度、格式、视角和语态限制;基于模型的过滤器用于处理更复杂的摘要问题,来提高摘要的质量。
AI 发展的三要素无非算法、数据和算力。
在数据方面,AFM 预训练数据集由多种高质量的数据混合而成。其中包括苹果从出版商处获得授权的数据、精心策划的公开可用或开源数据集,以及由网络爬虫 Applebot 抓取的公开可用信息。
其中报告也着重提到了尊重网页使用标准的 robots.txt 指令选择不被 Applebot 抓取的权利,不对劲,怎么感觉有在内涵 Anthropic。
苹果也强调,训练数据中不包含任何私人苹果用户数据,甚至特意过滤掉个人身份信息后才将其纳入预训练混合数据中。
值得注意的是,AFM 云端模型核心训练是从头开始进行的,而 AFM 端侧模型则是通过蒸馏和剪枝从更大的模型中获得的。
硬件方面则采用了 Google TPU,其中云端和端侧分别用了 8192 和 2048 颗 TPUv5p 芯片。
如果你想在电脑上制作视频,那你需要安装一些额外的应用程序。在 AI 模型的世界里,苹果模型背后用到的「适配器」也是同样的道理。
简单来说,适配器即一些模型权重的小集合,相当于一个小型的插件,让模型能够快速适应不同的任务。
例如,模型处理邮件和通知的总结,看起来差不多,但实际上有许多细微的差别,所以苹果给模型加上了一个叫做 LoRA 的适配器,让它能更好地完成这种任务。
附上技术报告全文:
https://machinelearning.apple.com/papers/apple\_intelligence\_foundation\_language\_models.pdf
写在最后,一个不争的事实是,当下手机端侧 AI 无论是在技术层面还是产品应用层面都难称成熟。但也正是如此,我们才会对苹果牌 AI 抱有极大的期待。
从苹果发布会之后,我们得到的关于 Apple 智能的消息谈不上好。在一众泄露的小道消息中,Apple 智能的推出日期也一再「跳票」。
包括最近彭博社也报道称,苹果将在 10 月底前向用户推送「Apple 智能」的软件升级,但比今年发布的 iOS 18 和 iPadOS 18 操作系统还要晚数周。
今天推出的 iOS 18.1 Beta 虽然只是发布了 Apple 智能的一些细枝末节,但起码也给我们吃了一个定心丸。
那就是 Apple 智能至少不是空中楼阁,它正在向我们走来。
没错,我点的就是 OpenAI 那个反面例子,即官宣大半年了,还处在如来状态的「期货」Sora。
当然,我们也希望 Apple 智能的全貌能早日亮相,这对消费者来说是一件好事,也能给许多终端厂商打一个样。
本文来自微信公众号“APPSO”,作者:APPSO,36氪经授权发布。