苹果依靠iPhone可以说赚得盆满钵满,iPhone也是一款综合性能十分出色的产品,不过在AI时代,苹果似乎落后其他厂商不少,特别是大语言模型更是苹果的弱项,在其他厂商都如火如荼推广自家的AI模型的时候,苹果似乎还在内部评估,距离正式商用还有很长的路要走。不过苹果却表示自家的ReALM模型的性能表现得不错,已经超过了现在大红大紫的OpenAI打造的GPT-4。
目前苹果研究人员发表了一篇论文,在该论文中,苹果表示自研的ReALM模型在特定领域可以获得比GPT-4更加出色的成绩。ReALM模型更加偏向于实用性,称可以理解用户在屏幕上的实际操作与内容。苹果表示与GPT-3.5相比,在输入文字的情况下,ReALM模型的识别准确率比原来提升了5%。而在小型语言模型中,ReALM模型与GPT-4的表现相差无几,模型越大,ReALM模型的领先幅度就越大。换句话说就是ReALM模型所使用的语言模型参数更小,因此所需要的处理器性能也宽松,对于提升手机续航等有着一定的帮助。
当然现在更多的大语言模型需要厂商进行专门的优化和适配,尤其是一些专用大语言模型,在特定场景下其性能能够提升数倍,而在其他通用场合的表现就不尽如人意,显然苹果的ReALM模型与iPhone、iPad等产品是高度契合的,因此可以将其效率到达最大化,也比GPT-4这样的通用语言模型更加出色。大家也希望苹果能够在WWDC 2024上公布更多关于大语言模型的消息,进而让目前的Siri更加智能。
只不过有消息称苹果内部对于大语言模型还十分地保守,暂时没有让其植入到Siri之中,或者采用第三方的语言模型以避免不必要的麻烦,看起来ReALM模型更像是一个期货,估计在iOS 18未来的版本中陆续推送。