专家声音
●AI内生安全个性问题是当前AI应用推广中的最大障碍,在不确定性中构建更安全的AI应用系统是当前人类必须破解的安全难题
●AI尚未迎来“奥本海默时刻”,当前基于算法的人工智能还没有自我意识,距离通用人工智能AGI还有很长的路要走,不过GPT等大模型出现将加速这一进程
深圳商报记者 陈姝
日前,在“2024搜狐科技年度论坛”上,多位院士、科学家与产业界领袖齐聚一堂,畅谈人工智能、深空宇宙、脑机接口等前沿科技,奔赴科技的星辰大海。
科学家、业界领袖解读AI“双刃剑”
从国内外科技巨头开启“百模大战”到Sora横空出世、GPT-4o发布,人工智能一路高歌猛进,将把人类带向何方?如何朝正确的方向发展人工智能?论坛上,科学家、业界领袖们共同探讨了AI大模型当前面临的技术瓶颈与商业化落地的困境。
以深度学习为核心的人工智能技术是一把双刃剑,对其带来的安全挑战,业界一直保持冷静思索。中国工程院院士、国家数字交换系统工程技术研究中心主任、复旦大学大数据研究院院长邬江兴指出AI内生安全个性问题是当前AI应用推广中的最大障碍,在不确定性中构建更安全的AI应用系统是当前人类必须破解的安全难题。中国信息通信研究院云计算与大数据研究所所长何宝宏分析,不同于AI大模型的“动口”,AI Agent是“动手”,在缺乏对人类价值伦理的充分理解和合规的情况下,可能会产生不当的有害行为。
应用方面,AI大模型的滥用和恶意使用也触动着业界的安全“神经”。人工智能学者、中国计算机学会科普工委执行委员、搜狐视频关注流播主高庆一表示,技术是无罪的,有罪的应该是错误使用技术的人性。长寿投资人、Bold Longevity Growth Fund基金联合创始人、XPRIZE基金会创新委员会成员、畅销书《年龄革命》作者谢尔盖·扬指出,生物结构的人类将在20年后被AI“改造”,社会和监管需要为此做好准备。
围绕AI技术成熟度、伦理边界和未来发展前景,清华大学苏世民书院院长、清华大学人工智能国际治理研究院院长薛澜,第十三届全国政协常委、中国科协原副主席、国际核能院院士张勤,中国人民大学高瓴人工智能学院教授、北京智源研究院文澜团队成员卢志武,三星电子中国研究院院长张代君,境成资本管理合伙人向江旭等多方代表展开了一场AI思辨圆桌。他们一致认为,AI尚未迎来“奥本海默时刻”,当前基于算法的人工智能还没有自我意识,距离通用人工智能AGI还有很长的路要走,不过GPT等大模型出现将加速这一进程。
“驯服”机器人、火星办奥运
未来6G网络将实现物理世界与数字世界的深度融合,全息通信、数字孪生人、通感互联、超能交通等场景应用均将成为现实。中国工程院外籍院士、英国皇家工程院院士王江舟强调,6G网络相比5G在关键指标上将实现量级提升,是一种革命而非改良,最终的6G网络将服务多种多样的垂直行业。中国工程院院士、浙江大学求是特聘教授、博士生导师谭建荣则聚焦“驯服”机器人,称通过安全规范、大样本训练、安全警戒线三个路径,可以防范其“做坏事儿”。
人类在物理世界探索时,也从未停止对深空的探索。国家天文台研究员、中国天眼FAST首席科学家李菂分享中国天眼的科研发现,解释“宇宙触角”将提高宇宙现象的探测效率,“存在大量不好解释的新现象,我们很可能处在整体系统重大突破的前夜。”月球及火星探测器副总设计师、博士、博士生导师贾阳以“奥运之父”皮埃尔·德·顾拜旦的“新身份”,萌生“火星奥运会”想法,称从技术角度已能够解决火星上水、电、氧气等问题。