当前位置:首页|资讯|复旦|OpenAI|ChatGPT

复旦教授肖仰华:我们与OpenAI的差距正在拉大

作者:蓝鲸财经发布时间:2023-11-24

原标题:复旦教授肖仰华:我们与OpenAI的差距正在拉大

Open AI带来的巨震还在继续。近日,复旦大学计算机科学技术学院教授、上海市数据科学重点实验室主任肖仰华接受了蓝鲸财经的专访。

肖仰华推测ChatGPT或许使用了大小模型结合的技术,多模型协同可以很大程度上解决成本问题。“让大模型去解决复杂问题,但普通用户一般都是简单的问题,用小模型就可以了。”他形容,ChatGPT的AI技术已形成一种“飞轮效应”,迭代和优化正推动技术进入一个自我强化的快速发展阶段行业或将变成“只有第一,没有第二”的局面。

“我们的文化中,聪明人太多,总想抄近路。有时候就是要坚持,要笨一点,才能做出真正的大杀器。我们与OpenAI的差距正在拉大,不是在缩小。”肖教授指出,还有很多如机器人、环境交互技术、医疗大模型、科学大模型等其他方向,都是大趋势。企业可以在这些新领域找到自己的优势。

肖仰华指出,AI技术的进步可能导致人类智力的相对退化。每一次技术革新,虽然带来了便利和进步,却也可能以牺牲某种人类能力为代价。特别是在AI领域,随着机器智能的提升,人类可能会在某些方面变得更加依赖技术,从而导致智力活动的减少和能力的退化。在AI技术高度发展的未来,人们可能需要学会“无所事事”的生活方式。在这种情况下,社会生产几乎不依赖于人类劳动,机器能够完成大部分工作,人们则需要寻找新的生活意义和价值。

他还强调,对AI技术的应用需要制定明确的界限和规则。在某些情况下,即使技术能够实现某些功能,也不意味着应该无限制地使用。例如,在教育领域,过度依赖AI可能会削弱学生的思维训练和创造力。因此,AI应用应遵循一定的社会和伦理原则,以避免负面的长远影响。

最后,肖仰华强调了AI应用中的“留白”原则,即不应盲目在所有场合使用AI。他将这一原则比作中国画中的留白,认为在AI的使用上应保持克制,避免过度依赖,以保持人类的智力活动和创造力。

蓝鲸财经: 您提到AI技术在降低成本方面的影响,请问这是如何实现的?

肖仰华: AI技术的成本控制将成为核心能力。这背后包含许多关键技术,而不是所有厂商都具备这些技术。例如,大型模型的背后可能不是单一的模型,而是多个专门针对不同简单任务的小模型。这样做可以降低成本,同时服务更多用户。通过优化策略,这些模型在成本控制上显示出先进的技术和能力,领先于许多其他大型工业厂商。这些都间接证明了它们在考虑成本问题上的成熟度,以及在商业运营方面的快速发展。

蓝鲸财经: 您认为中国在AI领域的发展和突破的难点是什么?

肖仰华: 当前,中国在AI领域尤其是在大型模型的建设方面存在明显短板。虽然在某些指标上我们似乎已经赶超了国际标准,但这种超越更多是口头上的。实际上,从综合能力来看,我们仍然落后。

我们现在的情况是,国产算力还没完全跟上,这是个重要原因。比如华为的晟腾系列芯片,虽然有国产芯片,但软件生态还不够完善,需要时间去打磨。我估计华为的算力很快就能赶上,但需要时间。

还有就是数据的问题,我们的数据质量还不如人家,加上数据开放和共享方面,我们也比西方环境要保守一些。

国内的问题在于太聪明了,总想找短期最优的办法。比如大型模型这种事,其实是需要长期坚持的。OpenAI从18年开始,一直做到现在,我们认为他们采取的可能是比较笨的技术路线,但恰恰有效。我们总想找讨巧的办法,但实际上可能不是这样。我们的文化中,聪明人太多,总想抄近路。有时候就是要坚持,要笨一点,才能做出真正的大杀器。我们与OpenAI的差距正在拉大,不是在缩小。

蓝鲸财经: 对于国内企业而言,在发展AI生态方面应该采取什么策略?

肖仰华: 对我们来说,学习和应用AI是必不可少的一课。不过,这并不意味着要像Open AI一样花上五年时间。作为追随者,我们的优势在于目标的明确性。我们不需要再为目标所在而纠结,因为我们已经清楚地知道了方向。

现在的主要风险是,我们不能落后于国际领先的阵营。我们目前可能处于第二阵营,重要的是不能让这个差距进一步拉大。所以怎么超车呢?我们说的AI,大模型这些,它们都只是通用人工智能的一部分。还有很多其他方向,比如机器人、环境交互技术、医疗大模型、科学大模型,这些都是大趋势。我们不应该只是跟在别人后面,而是应该在这些新领域找到自己的优势。

此外,监管和发展需要并行。如果技术发展太快而没有得到适当的监管和控制,可能会对整个社会结构造成冲击。我们需要考虑AI技术的可持续发展,以及如何在社会发展与AI技术之间找到平衡。

蓝鲸财经: 关于大语言模型的应用落地,您觉得未来会有哪些颠覆性的变化?能否举例说明?

肖仰华: 颠覆性的变化肯定会有,但这取决于行业和形式。比如您提到的互联网信息抽取,对于某些企业来说,这类技术是关键的。如果他们没有这项技术,而竞争对手拥有,那么他们很可能会被颠覆。因为现在的技术已经能理解互联网网页的内容和结构,能进行信息抽取。

举个例子,GPT的API就像发电厂一样,它提供了能力,但具体怎么用取决于我们。每个应用就像一个电器,可以是电冰箱、洗衣机等。GPT提供电力,我们只需要专注于制造好自己的产品,解决特定问题。这样,我们可以在市场上形成巨大竞争力。

现在的问题是,许多企业还没有充分利用GPT这样的技术来提升自己。他们需要拥抱这种新的生产力。否则,可能会被那些能够有效利用新技术的竞争对手所取代。历次技术革命都证明了这一点:谁能掌握先进技术,谁就能成为行业引领者。

GPT这样的通用人工智能也会带来新的商业模式和产业形态。我们看到了很多有趣的例子,如AI主持人、自动翻译等。这些都是之前不敢想象的。未来,例如教育行业也可能会受到冲击,因为AI可以辅助孩子学习。还有很多其他行业和职业也会受到影响,需要进行调整。例如,在传媒行业,写作、编辑、审核这些工作现在可以由AI完成,这可能导致行业从业人员结构的变化。

所以,我们需要认识到这种颠覆性变化的可能性,并准备好应对这些挑战。

蓝鲸财经: 在AI颠覆性变化的情况下,您有什么建议给普通人?

肖仰华: 对普通人来说,首先要学习和理解新技术。我们需要掌握如何使用AI,了解它的原理,这样我们才能有效地驾驭和利用它。我曾提到,未来人的角色可能是“智能机器的牧羊人”,我们需要能够控制AI,让它为我们服务。

AI的冲击将会很大。我们需要思考自己的价值和生存意义。例如,当AI能够完成大多数工作时,我们的价值在哪里?教育的意义又是什么?这些都是我们需要思考的问题。

我认为,未来人们可能需要学会“无所事事”的生活方式。以前被视为贬义的“游手好闲”,未来可能成为常态。当社会生产不再需要人手时,人们可能需要学会在这种新社会结构中找到自己的价值和意义。未来,每个人都可能成为诗人、作家、导演、学者或哲学家。但这种转变不会一蹴而就,可能会有一个过渡期,并伴随着社会震荡。

我也担心技术的过速发展。AI技术需要合理控制,确保社会的安全和可持续性。我们需要通过立法和行政手段来规范AI的应用,确保社会结构不会因技术发展而受到破坏。

普通人应慎用AI。它应主要供专家使用,因为专家有能力控制和理解AI。如果普通人盲目使用AI,可能会遇到误导和风险。我们需要认识到AI既是机遇也是挑战,正确使用它才能发挥其正面作用。

蓝鲸财经: 您认为未来人机关系会达成怎样的形态?

肖仰华: 从长远来看,人机关系一定会达到和谐共生的状态,但这个过程可能会比较艰辛。AI技术与历史上的其他技术不同,它的影响是根本性的。AI是智能技术,它逐步侵犯了我们脑力活动的边界,对整个社会产生了深远影响。

每次技术进步往往以人类某种能力的倒退为代价。例如,交通工具的发展减少了我们行走的需求,电脑的普及减少了手写的必要。现在,AI的发展可能会导致我们智力能力的退化。如果我们过分依赖AI,不再使用大脑解决问题,那么我们的智力可能会逐渐退化。

我强调AI应用中的“留白”原则,就像中国画一样,要留有空白。我们不能盲目地在所有场合都使用AI。例如,如果学生的作业都由AI完成,那么他们就不会练习写作了,这会影响他们的思维训练。我们需要保持对AI的适度使用,避免让它完全取代人类的智力活动。

因此,未来人机共生的关键在于平衡。我们需要确保AI技术的发展不会削弱人类的智力和创造力,而是要作为一种辅助工具,帮助人类实现更大的潜能。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1