参考消息网4月17日报道《日本经济新闻》3月22日刊登题为《日企找到大幅压缩AI学习时长的新方法》的文章,内容编译如下:
由曾经就职美国谷歌公司的研究人员创立的初创企业SakanaAI21日宣布,他们开发出一种结合多个人工智能(AI)生成性能更加优越AI的新方法。如果能够在短时间内反复“交配”促进AI进化,将有可能把AI学习海量数据的周期压缩至现有水平的几百分之一。
SakanaAI由谷歌出身的戴维·哈(音)、利昂·琼斯和曾经供职外务省并担任过Mercari公司执行董事的伊藤炼于2023年创建。2017年谷歌发表的论文为生成式AI的发展奠定基础,琼斯正是这篇论文的共同作者之一。
他们开发的新方法并不涉及从头开始构建AI模型,而是使用设计信息已公开的开源技术。世界各地的开发者正在改进和修改开源技术,创造出具有多样化特征的AI。
SakanaAI所做的就是组合其中彼此相异的模型,以类似于生物进化的模式获得高性能AI。
首先,将多个种类的“亲代”AI以各种各样的方式组合,形成“子代”模型,选拔出其中性能最为优越的AI再组合,创造出“孙代”AI。
实验中,他们在一代AI中创建了多达100个不同的模型,并在数百代中重复这一过程。据说通过这样的流程,最终能够创造出在无数组合的“竞争”中都能胜出的优秀AI。
生成式AI的开发通常需要高性能半导体和用于学习的海量数据,这使得研究先进基础技术的能力仅限于少数资金雄厚的科技企业。SakanaAI采用与以往不同的方法,改变研发生成式AI的游戏规则。
自2022年美国开放人工智能研究中心发布聊天机器人ChatGPT以来,飞速普及的现有生成式AI都以“大规模语言模型”作为核心技术。美国科技企业一直在利用大型计算机让AI学习巨量文本数据,提高语言处理能力。
SakanaAI采用了与这些传统方式不同的操作,他们的目标是通过将小规模AI组合以实现高水平的智能。此次发布的成果可以说是向实现这一目标迈出了第一步。
SakanaAI的新方法在组合和选拔工序中不需要人类参与,仅凭借算法自主工作。实验中跨越数百代的组合也只需要一天,不需要使用耗电量巨大的大型计算机。
美国科技公司开发自己的大规模语言模型耗费的时间通常要以年来计算。由于条件和方法不同,无法简单类比,但SakanaAI的新方法很有可能将迄今为止通过学习大量数据提高语言处理能力的周期压缩到现有水平的几十或几百分之一。
SakanaAI使用这种新方法尝试生成以下三种模型:用日语解决数学问题的大规模语言模型;使用日语正确回答与图像相关问题的模型;根据日语指令快速生成图像的模型。
不过由于研究尚处初级阶段,目前使用SakanaAI的方法还很难获得性能优于美国科技企业的AI。该公司以发表论文的方式公布这一研究成果,就是希望以此促成更先进更优秀的AI出现。
今年1月,SakanaAI宣布获得45亿日元(约合0.29亿美元)融资,由美国科斯拉风险投资公司和乐仕资本公司领投。NTT集团等日本大企业也有出资。
世界范围内,越来越多的大企业通过注资和合作等方式,圈占前景看好的生成式AI初创企业。美国科技企业和亚洲一些实力雄厚的投资者也都表达出资SakanaAI的意愿,私下的磋商与谈判可能正在进行中。