当前位置:首页|资讯

AI讨好型人格影响准确性?北京香山论坛中外名家谈AI安全

作者:南方都市报发布时间:2024-09-13

第十一届北京香山论坛于9月12日正式开幕,在当天下午主题为“人工智能安全”的中外名家对话会上,与会中外嘉宾围绕当前AI热点话题进行观点碰撞。与会嘉宾认为,AI存在的讨好型人格容易影响其准确性,人脑具有不可替代性;有的嘉宾则建议,当前对AI监管面临很大挑战,建议各国政府间有必要制定协议,从政策层面加强监管,缓解AI安全风险存在。

“人工智能安全”的中外名家对话会现场。

AI多轮问答容易“闪烁其词”,缺乏可信度

“经过几轮回答它开始闪烁其词,慢慢模糊绝对值的可信度。”关于人工智能是否可信赖的问题,东京大学生产技术研究所特聘教授、日本工程院外籍院士胡昂认为,当前AI缺乏量化的不确定性,对自己回答问题的方式存在不清晰的问题。AI存在不同模型的人格问题,它们有不同性格,有些尖锐,有些容易对抗,有些会喜欢讨好你。“它可能会给你一个非常想知道的结果,但这个结果并不代表它是准确的。”

关于大家讨论的“小算力”问题,胡昂分析,人的脑科学研究只是略微了解一些清晰结构,即人脑决策。如果可以做如此精确的问题反馈或决策,这是非常高级的智能。虽然人脑在人体内仅占2%,但需要消耗20%的热量。对于人体而言,这绝对不仅仅是器官问题,它是人类中枢最重要的决策机构。虽然是小模型,但是它是高度集中的算法。

发展AI最好办法是人为干预和监管,人脑不可替代

“人的脑科学研究被模拟、被深度学习的可能性很大,然而要在短时间内完全取代人类决策是做不到的。”他建议,发展AI最好的办法是人为干预和监管,虽然会放弃一定的效率,但是会保证决策的科学性。从历史长河来看,人之所以能够有足够的认知,有他存在的道理,“人脑是不可替代的。”

“当前对人工智能的监管面临很大挑战,监管要加速,要更加敏捷。”同样在联合国教科文组织人工智能与数据科学促进社会发展教席、荷兰海牙应用科技大学数据科学教授兰普罗斯·斯特吉乌拉斯看来,人工智能是否能取代人脑自主决策,是哲学问题,也是现实问题。“人类的技术人员都会犯错,何况机器?建议各国政府间有必要制定协议,从政策层面加强监管。”

AI发展有不可预测性,相关伦理和治理要走在前面

美国国防分析研究所研究员,美国前助理国防部长帮办施灿德认为,人工智能的安全问题涉及方方面面,除了国防,还包括民生等。他建议,国家间需要达成多边协议,缓解人工智能安全风险。

清华大学信息科学技术学院院长、中国工程院院士戴琼海发表观点认为,未来三年,人工智能发展将进入快车道。由于人工智能发展的不可预测性,相关伦理、治理要走在前面,要降低人工智能应用的安全风险,使其为人类谋福祉。

南都记者从主办方获悉,本届论坛共有100余个国家、国际组织官方代表团的500余名代表,以及200余名中外专家学者出席。其中,包括30多名国防部长、军队总长在内的官方代表团,以及红十字国际委员会副主席、亚信秘书长、上合组织副秘书长,北约、欧盟等国际和地区组织代表将出席会议。此外,参会嘉宾中还有30多名前政要和数十位知名学者。参会人员的数量和层级再创新高,代表性更趋全面。

北京香山论坛自2006年创办以来,国际影响力持续攀升,已逐渐成为国内外知名高端安全与防务对话平台,成为中国提供、世界共享的国际公共安全产品和推进全球安全倡议的重要合作平台。

采写/摄影:南都记者潘珊菊 莫倩如 陈秋圆 发自北京


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1