当前位置:首页|资讯|生成式AI|人工智能|智源

外滩大会热议大模型:规模化应用后,生成式AI向何处去?

作者:21世纪经济报道发布时间:2023-09-08

原标题:外滩大会热议大模型:规模化应用后,生成式AI向何处去?

21世纪经济报道记者 李览青、吴立洋 上海报道

时隔3年,在上海黄浦江畔,9月7日“2023 Inclusion外滩大会”再次启幕。

而就在一周前,8月31日,12款通用大模型刚刚拿到监管部门颁发的“入场券”,终于面向普通个人用户开放服务能力,从技术走向规模化应用。

在科技实现应用落地后,如何影响产业与世界的未来?在三天的大会上,聚焦“科技·创造可持续未来”,众多专家学者与领军企业代表分享了科技、人文和产业的思想碰撞。

其中,以大模型为代表的生成式人工智能成为最炙热的话题,当人工智能来到“iPhone时刻”,万亿美元新赛道徐徐揭开,生成式人工智能又将往何处去?

人工智能来到“iPhone时刻”

在数十场论坛的观点碰撞中,与会专家达成的一个共识是:大模型将成为智能时代的基础设施,拉开产业深刻变革的序幕。

“大模型的突破,是人工智能时代的‘iPhone时刻’。”北京智源人工智能研究院顾问、美国国家工程院外籍院士张宏江指出,2007年iPhone的发布带来了移动互联网的黄金15年,而大模型也将带来AI时代的产业变革。

蚂蚁集团董事长兼CEO井贤栋则引用了电影《奥本海默》的一句台词,正如发明原子弹“不是一种新武器,而是一个新世界”,大模型的出现,“不是一个新技术,而是一个新世界”。他说,iPhone时刻巨大的冲击,远远不是大屏幕变成小屏幕这么简单,而是通过小屏幕实现了用户“永远在线”,从而极大促进了人和服务、人和商品的整个连接。

清华大学计算机系副教授刘知远判断,GPT系列大模型再次验证了“更多数据、更多智能”原则的适用性,随着大模型的落地,迈向通用智能的“号角”已然吹响,将成为智能时代基础设施。

今年以来“千模大战”启动引发市场对商业模式的热议,但专家普遍认为生成式AI带来的这轮产业红利才刚刚开始。

麦肯锡中国区主席、全球资深董事合伙人倪以理在外滩大会现场预测,生成式 AI 的技术风暴有望开启一场关系到未来 8-10年的新一轮技术和产业变革。“AI 对全球经济的潜在收益将达到 25 万亿美元,是当前所有企业最重要的赛道之一,但这个时代刚刚开始。”他举例说道,在高科技行业,该技术每年可以额外创造 2400 亿至 4600 亿美元价值;在零售和消费品领域,每年可达 2400 亿至 3900 亿美元;在整个银行业,每年可达 2000 亿至 3400 亿美元。与此同时,他指出,生成式AI可能大幅促进生产力提升,并提供新的就业机会。

具体到垂直产业来看,在IDC中国副总裁兼首席分析师武连峰发布的银行数字科技五大趋势中,AI风控、数字员工、边缘物联等三个趋势都与AI有关。

生成式人工智能的技术浪潮也已席卷金融行业。

在本次外滩大会上,蚂蚁集团发布了自研的金融大模型,该模型基于蚂蚁自研基础大模型,聚焦真实金融场景需求,底层算力集群规模达到万卡规模。同时,蚂蚁发布了C端智能金融助理"支小宝2.0"、B端智能业务助手"支小助",其中,"支小宝2.0"已内测近半年,将在完成相关备案工作后上线。

“通用大模型无法在专业严谨的领域直接商用,特别是金融服务对错误的容忍度很低,金融大模型要确保领域知识和专业逻辑的严谨性,才能真正落地带来产业价值。知识力、专业力、语言力以及安全力,保障四大能力是前提条件,也是金融大模型要解的产业真命题。”蚂蚁集团副总裁、金融大模型负责人王晓航告诉记者,基于金融场景中的大量实践,蚂蚁金融大模型形成了“大模型+知识+服务”驱动的架构,这套架构已经在蚂蚁内部金融智能化场景上内测。

为大模型戴上“紧箍咒”

在快速发展的人工智能大模型带给社会以科技进步的惊喜时,深度伪造、AI伦理、数据安全等合规问题亦再次受到广泛关注。确保人工智能技术公平、可控、安全,既是其能够广泛应用于生产生活的前提,也是保障AI产业健康发展的基础,而这离不开政产学研多方治理共识的达成。

当通用大模型实现“无孔不入”,中国科学院院士何积丰在主论坛分享时指出,必须利用对齐技术为大模型戴上“紧箍咒”。何积丰指出,大模型的安全问题主要是在未经同意的情况下,收集、使用和泄露个人信息。隐私问题既可能发生在训练过程,也可能发生在使用过程中,而大模型的生成能力则让“隐私泄露”的方式变得多样化,造成隐私保护更加困难。

“为了应对这些问题,我们需要大模型对齐技术。”何积丰说,“对齐(alignment)”是指系统的目标和人类价值观一致,使其符合设计者的利益和预期,不会产生意外的有害后果。“如果把人工智能看作西游记里的孙悟空,‘对齐’就是唐僧的紧箍咒。有了紧箍咒,就可以保证技术不会任意使用能力胡作非为。”

围绕AI科技伦理,中国信息通信研究院华东分院院长廖运发指出,大模型的发展进一步加大了人工智能的固有风险:一方面,随着参数规模的扩大,训练数据的细节得以体现在参数中,多模态增加了模型的供给面;另一方面,随着大模型对训练数据集的快速增长,难以对人工标注进行检查,训练数据侵权也构成了产业发展的隐忧;此外,大模型使得人工智能训练的算力成本急速提升,在导致碳排放问题的同时,也使得中小企业越来越难以参与其中。

今年3月,1000名人工智能领域的学者签署公开信,提出当前人们难以理解、预测或可靠地控制大模型,呼吁暂停训练比GPT-4.0更强大的AI模型至少6个月。

事实上,随着AI与社会不同领域的结合愈加深入,其引发的伦理问题也进一步延伸出不同层次与维度,既包含人工智能算法本身的缺陷问题,也包含AI在应用层面的不合理性问题,进一步往深处延伸,还包含算法与社会原有机制融合为一个复杂系统后,因边界不清晰导致的社会影响不可控问题。

中国社科院哲学所科技哲学研究室主任、研究员段伟文在论坛发言中也指出,人工智能的生成与生产实际上是在数据基础上进行的知识自动化,本质上是对现实生活世界的一种映射,这也意味着现实中存在的偏见与歧视问题也必然会体现在大模型生成的内容中。

“当前的人机对齐工作实际是把价值观问题转化为工程问题,通过人的标注与反馈来改进人工智能,但人类自身的价值尚未对齐,人类与机器的价值又该如何对齐呢?”段伟文由此呼吁,应给予人工智能产业在伦理问题上更多的工程与技术调整时间。

今年七月,国家网信办等七部门联合发布《生成式人工智能服务管理暂行办法》,为生成式大模型的研发与应用划定了基础原则。多位参与本次论坛的专家也指出,随着大模型应用场景与应用案例的积累,相关的伦理规则也将进一步丰富和完善,最终形成技术、社会、行业等不同层面的具体要求。

“智能算法与智能控制在越来越多领域发挥关键作用,这就使得人工智能的安全问题也越来越重要,和人类一样,大模型与智能算法同样会出错,用得越多出现的错误也会越多,这也是社会需要长期关注AI安全问题的原因。” 中国科学院计算技术研究所研究员、副所长程学旗在论坛发言中表示,在处理AI伦理问题时需要技术治理与社会治理的同步推进,前者的目标是治理的自动化与常态化,后者则需要实现治理标准化与系统化。

更多内容请下载21财经APP


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1