据报道,OpenAI正在秘密研发代号为“草莓”(Strawberry)的新AI大模型项目,该项目旨在显著提升AI的推理能力和处理复杂科学与数学问题的技能。不同于当前的生成式AI模型主要侧重于语言理解和生成,“草莓”项目的目标是使AI能够像人类一样具备前瞻性和规划性,从而自主且可靠地在互联网上进行深度探索,这一能力目前仍是大语言模型所缺失的。
尽管OpenAI对“草莓”项目守口如瓶,但有迹象表明,这一项目可能基于之前开发的Q算法模型,该模型擅长解决复杂的科学和数学难题。Q模型曾在公司内部引起广泛关注,甚至影响到了高层决策,导致前CEO萨姆·奥特曼(Sam Altman)因推进策略与董事会意见不合而离职。有分析认为,Q*模型可能是OpenAI通往通用人工智能(AGI)道路上的一个重要里程碑,其进展之快令部分内部人士担忧AI技术的迅速成熟可能带来的安全风险。
OpenAI的“草莓”项目采用了所谓的“后训练”技术,即在模型经过大规模数据预训练后,对其进行额外的调整,以优化其在特定任务上的性能。这种技术与斯坦福大学开发的“自学推理者”(STaR)方法类似,后者允许AI模型通过自我生成训练数据来提升自身的智能水平。如果“草莓”能够达到预期的效果,那么它将推动AI从简单的对话机器人向具备人类水平推理能力的“推理者”进化,最终可能实现博士级别的智能,预计这一目标将在一至一年半内达成。
除了推理能力的提升,OpenAI还在致力于增强AI执行长时间任务(LHT)的能力,这类任务要求AI能够预先规划并在较长时间内执行多步骤操作。为此,“草莓”项目将致力于构建能够自主进行“深度研究”的模型,利用“计算机使用代理”(CUA)在互联网上独立搜索信息并根据所得情报采取行动。
若“草莓”项目获得成功,AI将不仅限于辅助性的角色,而是能够进行重大科学发现、开发新软件以及自主完成复杂任务,这将标志着人类向实现通用人工智能迈出了一大步。然而,随着AI能力的增强,如何确保其安全可控,避免潜在的风险,也将成为亟待解决的问题。