“AI孙燕姿”火爆全网、迪丽热巴、杨幂这些明星开始直播带货了、朋友借钱视频确认身份依然被骗……
近年来,随着人工智能技术的不断发展,AIGC产业也迎来了爆发式增长。AI实时换脸已从最初的娱乐“整活”,向直播等多个应用场景发展。通过智能后台的AI换脸技术,主播可以实现形象的实时替换。
当AI实时换脸出现,人工智能技术还能整出多少花活?
杨幂、迪丽热巴直播带货?
假的!AI实时换脸下场整活
最近一段时间,不少网友点开直播软件发现,不少“当红女明星”正在直播间里卖力吆喝带货,而等观众仔细一看,就不难发现这些正在带货的“明星”,其实只是使用了AI实时换脸技术的普通主播。
目前,杨幂、迪丽热巴、Angelababy等当红女星,已经成为了AI换脸的重点对象。
封面新闻注意到,目前相关的实时换脸项目已经在GitHub站内开源,相关技术可利用深度学习识别和交换图片和视频中人脸的工具,进而做出更加逼真的动态实时换脸效果,使用者可以在两天的时间内完成机器学习的训练。值得注意的是,开发者还在项目内包含了包括迪丽热巴、埃隆·马斯克、憨豆先生、成龙等已经完成训练的人脸模型。
此外,一家提供“换脸软件”的网站客服也曾对媒体表示,他们提供的全套模型购买价格仅为3.5万元,AI实时换脸可适用于各大直播平台。借助AI实时换脸技术,可以实现0延迟的动态换脸,而直播画面传输的延迟则取决于使用者的网络配置和进行直播的平台。
对此,不少直播间的消费者表示:“看了好几个直播间,我都惊呆了,全都把脸换成明星带货了,那还要我们这些普通的主播干什么?”“昨天我刷到殷桃,好吓人啊。”“我还看过一个一直用杨幂的脸的。”“上次还刷到了刘亦菲呢。”
网聊10分钟被骗430万
视频核实身份不可信
被冒用人脸的不仅仅是明星。公安部治安管理局官微“中国警方在线”发文提示称“警惕AI换脸骗局”,并表示“AI诈骗正在全国爆发”。
此前,包头市公安局的在线警务平台“平安包头”公布的消息披露,随着人工智能的快速发展,诈骗团伙的诈骗手段也日益科技化,甚至采用了AI换脸技术。包头市公安局电信网络犯罪侦查局发布一起使用智能AI技术进行电信诈骗的案件,警银联动成功紧急止付涉嫌电信诈骗资金330多万元。
据了解,福州市某科技公司法人代表郭先生突然收到好友的微信视频,称想要借用其公司的账户“走一下账”,而在他先后分两笔把430万元打到对方账户后,却发现电话联系的好友并不知道此事。在报警后,当事人才意识到遭遇了AI实时换脸诈骗,最终诈骗账户内的336.84万元被骗资金被成功拦截,但仍有93.16万元资金尚未追回。
值得注意的是,这不只是个案,最近一段时间国内外都出现了 AI 诈骗案例,用户损失惨重。
AI也可形成反噬
人工智能时代的技术不作恶,会是什么样的?
作为新生事物,因人工智能而引发的风险还尚未引起大多数人的关注,但实际上随着AI技术的加速变革,如何营造创新生态、重视防范风险,正在成为整体AI技术行业亟待解决的关键性问题。
此前,清华大学人工智能研究院等部门发布的《深度合成十大趋势报告(2022)》显示,创作者在互联网平台中发布的深度合成内容的数量高速增长,以视频为例,2021年新发布的深度合成视频的数量,较2017年已增长10倍以上。显然,如何让AI合成视频在法律允许的快车道内行驶,成为当前解决问题的关键。
封面新闻采访了泰和泰律师事务所曾维宇律师,曾律师表示,未经允许运用AI换脸等深度合成技术易产生侵犯肖像权、侵犯名誉权等民事侵权风险,同时亦有可能构成刑事犯罪。根据《民法典》第1019条的规定,任何组织或者个人不得以丑化、污损,,或者利用信息技术手段伪造等方式侵害他人的肖像权。其中“不得利用信息技术手段伪造等方式侵害他人的肖像权”即主要是指利用人工智能合成技术深度伪造他人肖像,形成高度逼真且难以甄别的影像等。
此外,曾律师也提到,我国近年来涌现出一批以“AI换脸”技术为手段,通过装亲戚等套近乎的方法来实施财产诈骗犯罪,此时AI换脸技术成为了一种诈骗的手段,侵害了他人的财产权。该类别下,除了可能涉及诈骗罪,还可能涉及的罪名包括敲诈勒索罪,非法侵入计算机信息系统罪,非法获取计算机信息系统数据,非法控制计算机信息系统罪,提供侵入、非法控制计算机信息系统程序、工具罪等。
封面新闻记者 温彦博