当前位置:首页|资讯|ChatGPT

【花师小哲】鉴定网络热门(?)AI(19)——神经网络学会了“举一反三”?

作者:花师小哲-中二发布时间:2023-11-02

前几天说了要讲的一篇论文(至于为什么先讲ChatGPT参数可能是20B的那一篇,主要还是因为那一篇和我的方向更接近,还是以个人学术研究角度选择阅读顺序,当然,也是因为上一篇好写)

不要因为是Nature的论文就觉得一定很高大上,实际上这篇文章的内容还是很简单的。

1.元学习

没错,元学习又来给我们带来一点小小的震撼了。

元学习和强化学习比较像,大家对强化学习可能更熟悉,毕竟AlphaZeroChatGPT这俩明星模型都用了强化学习。

这两种方法本身领域研究其实并不算火热(而且都存在很多各自的问题),但是和其他领域一结合往往能搞出来很多神奇的东西,或者说爆点(什么,强化学习又搞事情了)

这不巧了嘛,前不久总算是简单填了一下元学习的坑,这次就不展开了:

【花师小哲】鉴定网络热门(?)AI(16)——元学习

2.系统组合与系统泛化

本文研究的是系统泛化中的系统组合能力。过去,一些专家认为神经网络是没有系统组合能力的,系统组合能力,简单来说就是举一反三,例如人类知道“跳”和“走两步”就很容易推导出“跳两次”。

直接看这个有点复杂的图吧,当然我们就看一小部分:

小球场景

Primitives中有四个字符串代表四个小球,这些就是基本元素,例如dax代表红球。Function 1中我们很简单就能看出来,fep是一个函数,代表重复三次,它的使用方法是放在基本元素词的后面。

没错,我们要能做到举一反三,实际上就是在玩一些推理小游戏,理解已知成分和产生新组合,现在我们就是要让神经网络学会“举一反三”。

3.模型架构

当然,在拥有极强泛化能力的ChatGPT和GPT-4面前,我是不太相信这些模型不会基础的举一反三的。不过毕竟这俩模型都太大了,实在不行就用统计来反驳嘛,况且也没人真的拆开ChatGPT去看看里面是不是真的存了“跳”和“走两步”而没有存“跳两次”。

没错,要说明这个问题,还是要上小模型,本文用到的模型就140万个参数(在大模型时代真的算很小了),基本上是标准的Transformer

简单介绍下吧,我们看到,下方的输入分为查询和示例,中间用一些特殊符号隔开,输出就是查询对应的输出。在小球这个例子中我们输入就是伪语言查询和一些“伪语言-小球表示”对,其他例子中会有不同的输入。

没错,就这么简单。

4.元学习的应用

不要忘记本文是元学习方法(实际上本文的元学习叫做组合性元学习 (Meta-learning for Compositionality,MLC),也就是适合这个问题的元学习方法)

也就是说我们有很多个类似小球的例子,这也回答了为什么不能直接拿ChatGPT说系统组合问题被解决了,因为单一的问题说服力并不强。

OK,元学习分内循环和外循环(不清楚的可以看上面链接),内循环就是一个个具体的任务了,而“举一反三”的能力就是在外循环中学习的,这样在测试的时候用新的场景,就能确保模型不是记住了某一特定场景的情况,而是真的学会了从示例中寻找规则并组合一些示例。

实验结果表明,MLC确实能让神经网络达到人类的泛化水平。当然,我们还是要承认,这任务其实并没有特别复杂,不过这篇研究也足够有意义了。



Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1