当前位置:首页|资讯|人工智能|机器学习

未来的人工智能算法有可能像人类一样学习

作者:BFT白芙堂机器人发布时间:2023-07-27

原创 | 文 BFT机器人


记忆对于机器来说,可能和人类一样,感到棘手。为了准确理解为什么人工智能在其认知过程中会出现漏洞,俄亥俄州立大学的电气工程师通过探究机器的“持续学习”过程,从而分析它们整体表现中的影响程度。


“持续学习”是指计算机经过训练,能够不断学习一系列任务,利用从旧任务中积累的知识,来更好地学习新任务。



然而,要想达到这样的高度,科学家们仍然需要克服机器学习中记忆丧失的障碍一一这一记忆丧失的过程在人工智能代理中被称为“灾难性遗忘”。


俄亥俄州著名学者暨俄亥俄州立大学计算机科学与工程教授Ness Shroff表示,随着人工神经网络在一个接一个的新任务上不断接受训练,它们往往会丢失从在旧任务中获得的信息,但伴随着社会对人工智能系统的依赖性逐渐增强,这一漏洞就成为了会影响社会正常运行的问题。



Shroff说:“在自动驾驶应用程序或其他机器人系统学习新任务时,最重要的是不要丢失他们已经习得的经验,这么做是为了双方的安全,在我们深入研究了这些人工神经网络中持续学习的复杂性后,我们的研究成果开始弥补机器学习方式与人类学习方式之间的差距。


Shroff说,据研究人员发现,就像人们可能很难回忆起类似场景的对比事实,但却能轻松地记住本质上不同的情况一样,当连续面对不同的任务时,人工神经网络可以更好地记忆信息,而不是共享相似特征的任务。


该团队包括俄亥俄州立大学博士后研究员林森和朱培忠,以及梁英斌和Shroff教授,将于本月在夏威夷火奴鲁鲁举行的第40届国际机器学习年会上介绍他们的研究,这是一次机器学习的旗舰会议。


虽然教会自主系统展示这种动态、终身学习的能力是十分具有挑战性的一件事,但拥有这种能力将使科学家能够以更快的速度来扩展机器学习算法,并轻松调整它们,以应对不断变化的环境和意外情况。从本质上讲,这些系统的目标是让它们有朝一日能够模仿人类的学习和运用知识的能力。


传统的机器学习算法是一次性在数据进行训练的,但该团队的研究结果表明,任务相似性、负相关性和正相关性,甚至是算法学习任务的顺序等因素,对人工网络保留某些知识的时间长短都有影响。


例如,为了优化算法的记忆,Shroff说,不同的任务应该在持续学习过程的早期进行教授。这种方法扩展了神经网络接收新信息的能力,并提高了后续继续学习更多类似任务的能力。   


Shroff说,他们的工作尤为重要,因为了解机器和人脑之间的相似性可以为更深入地理解人工智能铺平道路。


他说,“我们的工作预示着一个智能机器的新时代,他们可以像人类一样学习和适应。”


这项研究得到了美国国家科学基金会和陆军研究办公室的支持。


初稿 | Tina

终稿 | 居居手

排版 | 居居手



更多精彩内容请关注公众号:BFT机器人

本文为原创文章,版权归BFT机器人所有,如需转载请与我们联系。若您对该文章内容有任何疑问,请与我们联系,将及时回应。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1