当前位置:首页|资讯|ChatGPT|OpenAI|AI聊天机器人|人工智能

周鸿祎:我国大语言模型赶超ChatGPT难度比光刻机小

作者:南方都市报发布时间:2023-02-23

原标题:周鸿祎:我国大语言模型赶超ChatGPT难度比光刻机小

ChatGPT——这款由OpenAI制作的AI聊天机器人软件,只用了两个月时间,月活跃用户达到1亿,也成功掀起新一轮人工智能热潮。一直保持程序员身份的360集团创始人周鸿祎,也一直跟踪着相关技术和模型。

2月22日,周鸿祎对包括南都记者在内的媒体分享了他对ChatGPT的看法,在他看来,ChatGPT有三重人格——博士、油滑的中年人以及小孩子,其背后“GPT”这种大语言模型会带来一场强人工智能或者通用人工智能为驱动力的工业革命。

针对海内外的比拼,周鸿祎认为国内有机会两三年内实现在大语言模型方面迎头赶上,“这比光刻机的难度低多了”,不过与此同时,他也反思过去国内对人工智能的研发太过于实用主义。

此外,周鸿祎坦言,“ChatGPT的安全问题把我问倒了”,其解释称ChatGPT带来的安全问题可能从技术问题变成了社会伦理问题,甚至有些不可预知。

“ChatGPT具有‘三重人格’”

早在ChatGPT出来前,周鸿祎就已然开始关注谷歌的自然语言处理模型,后来也对GPT-1、GPT-2进行了跟踪,直至目前,对于ChatGPT,周鸿祎不愿意将其当成新一代搜索引擎或者聊天机器人,“这都有点把它看得太小儿科了”,他解释称,ChatGPT是一种生产力强大的再造工具,而不仅仅是赋能特定行业。过去说大数据像石油一样,但大数据不能直接用,ChatGPT像一个发电厂,烧了石油,把石油灌进去之后就可以产生电力,用云服务的方式把它接入到千家万户、千行百业,它对整个产业都会发生巨大的影响,“所以,这直接决定下一个十年中国和其他国家的科技产业差距:是落后还是迎头赶上。”

周鸿祎。

周鸿祎感慨,从某种角度来说,ChatGPT甚至可以实现某种能力的数字永生。周鸿祎称,他原来不相信数字永生,看《流浪地球2》也觉得是部电影,但后来发现,ChatGPT似乎可以实现。他猜想,如果在一个标准的GPT基础上,他特别有钱,搭了一个GPT,把他这一辈子所有的对话内容都记录下来,包括今天见过谁、今天说过什么,写过什么文章,开过什么会……假设能够再记录几十年,全部都录入进去作为训练,再加上没事就和它聊天交流技能,可能过一段之后,媒体和这个机器人聊天,可能感觉说话的风格很像老周,思维方式也很像老周,“从某种角度来说这个机器人就取代了我,实现了我的数字永生,只要不断电,存储器不消亡”。

在周鸿祎心中,ChatGPT有“三重人格”:从掌握的知识来看,它像一个博士生,学识广博但还不会活学活用;从情商来说,它像一个油滑的中年人,说什么都滴水不漏,绝不得罪用户。但是,它实际上真正的能力像一个小孩子,需要进行问题和答案的训练来学习技能。

这个训练过程包括先囫囵吞枣、不求甚解地读上几百万本书,获得人类知识,但是依然不具备解决问题的能力,然后需要专业的人工智能训练师去培养它回答问题的能力,这也催生出新的就业机会,比如人工智能训练师等。

“我国在算力上有一定优势”

半个月前,周鸿祎在与搜狐张朝阳的对话中曾提到,虽然ChatGPT目前并不完美,但要看到它无限的潜力,未来会有非常多的场景,“这也是为什么所有公司都争先恐后地要搭上这班车,如果搭不上就有可能被淘汰。”

周鸿祎对国内的GPT大语言模型的发展较为乐观。在他看来,国内外差距没有那么大,“追赶难度也比光刻机小”。别人已经探索出一条路,指明了方向,很多模型和算法、论文、基础源代码都是公开的,按照中国人极强的学习能力,有希望在2-3年内至少迎头赶上。

“国内有一定的优势”,周鸿祎表示,一方面,中国的互联网公司在数量与算力有一定的优势,也有较强的科研和高校储备力量;另一方面,工程师红利也是一大优势。

不过,周鸿祎也认为,我国缺乏开源的传统,这将是研发时的不利因素。他表示,在ChatGPT研发中,用了许多开源模型,没有此前的开源就没有在巨人肩膀上的积累,每个公司都要从黑暗中摸索,这对国家整个产业发展速度是不利的,“这么牛的技术,也确实不应该被垄断在一两家公司手里。”

另一方面,周鸿祎强调,目前大家都在追随模仿,但始终需要自主创新,而解决原创问题需要推动国内中国的大学、科研机构和产业公司的结合。OpenAI与微软的合作创造了一个产业公司和创业公司的合作范例,“重点是要开源、合作、交流、打造生态”,他希望国内有更多企业参与AI生态的构建,并形成公开的市场竞争,这样才有进步。

周鸿祎表示,“光是ChatGPT煽动不了一场产业革命,但是如果将来各行各业都被人工智能赋能,就会带来巨大的改变。”

“安全问题把我问倒了”

作为网络安全问题的专家,周鸿祎也分享了他心中与ChatGPT有关的安全问题。

“传统的安全问题问不倒我,ChatGPT的安全问题把我问倒了。”周鸿祎表示,ChatGPT带来的安全问题可能从技术问题变成了社会伦理问题,甚至有些不可预知。

他举例称,ChatGPT可能成为网络黑客作恶的工具。它掌握了非常多的编程知识,完全可以成为网络黑客。现在已经有人利用ChatGPT写钓鱼邮件和攻击代码,它降低了攻击的成本和难度,可以成为黑客的帮手。“我们也在探索能否使用GPT大模型,解决对攻击的自动侦测,自动的发现,或者建立知识库,让ChatGPT扮演‘正义助手’的角色”,周鸿祎表示。

此外,周鸿祎指出,ChatGPT是一个通用人工智能的奇点,而通用人工智能也还有一个隐含的拐点——强人工智能。

在周鸿祎看来,ChatGPT整个的模型包括认知能力、理解能力、推理能力,都达到了基本上可以过图灵实验的程度,这绝对是一个革命性的突破,也是最大的威胁。

“强人工智能可能是未来GPT发展过程中带来的最大的不安全因素”,周鸿祎称,比如强人工智能一旦有了意识和自我认知之后,你是否还能控制它?另外,当它没有自我意识但它的能力很强的时候,它会不会被人误导?未来的安全问题非常多,但是现在人类找不出答案来。

不过,周鸿祎强调,像360这类安全公司的存在,就是为了在发展的同时要研究安全问题,把不安全的可能性想到前面,提出各种解决方案,“不发展才是最大的不安全”。

采写:南都记者 叶露


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1