今天分享的是【OpenAI全网疯传的53页PDF文档:计划2027年前开发出通用人工智能(英)】 报告出品方:GSMA
“深度学习”这个概念本质上可以追溯到上世纪50年代AI研究的初期。第一个神经网络是在50年代创建的,而现代神经网络只是“更深”,这意味着,它们包含更多的层一-它们要大得多,而且要用更多的数据来训练。
今天人工智能中使用的大多数主要技术都源于20世纪50年代的基础研究,结合了一些小的工程解决方案,如“反向传播”和“变压器模型”。总的来说,Al的研究70年来没有发生根本性的变化。所以,最近Al能力爆炸的真正原因只有两个:大小和数据。
该领域越来越多的人开始相信,几十年来,我们已经解决了AGI的技术细节,只是直到21世纪才有足够的计算能力和数据来构建它。显然,21世纪的计算机比20世纪50年代的计算机强大得多。当然,互联网是所有数据的来源。
那么,什么是参数你可能已经知道了,但给一个简单易理解的总结,它类似于生物大脑中的突触,是神经元之间的连接。生物大脑中的每个神经元与其他神经元有大约1000个连接。显然,数字神经网络在概念上类似于生物大脑。
如果大脑中的每个神经元有1000个连接,这意味着猫有大约2500亿个突触,而狗有5300亿个突触。突触数量通常似乎预示着更高的智力,但也有少数例外:例如,从技术上讲,大象的突触数量比人类高,但表现出较低的智力。
对于较低智力水平的突触数量越多,最简单的解释就是质量数据量越少。从进化的角度来看,大脑是在数十亿年的表观遗传数据中“训练”出来的,人类的大脑是从比大象更高质量的社会化和交流数据中进化出来的,这导致了我们超强的推理能力。无论如何,突触计数绝对是重要的。
同样,自2010年代初以来,人工智能能力的爆炸性增长是计算能力和数据量大幅增长的结果。GPT-2有15亿个连按,比老鼠的大脑(约100亿个突触)还要少。GPT-3有1750亿个连接,有点接近猫的大脑。
一个猫脑大小的人工智能系统比一个比老鼠脑小的人工智能系统要优越,这难道不是很明显的直觉吗?
免责声明:以上报告均系本平台通过公开、合法渠道获得,报告版权归原撰写/发布机构所有,如涉侵权,请联系删除 ;资料为推荐阅读,仅供参考学习,如对内容存疑,请与原撰写/发布机构联系