当地时间周四,欧盟启动了一项针对大型科技公司使用生成式人工智能(AI)的调查,加大了对这项技术的审查力度,官员们担心这项技术可能会扰乱选举,以及对公共安全、隐私构成危险。
据悉,这项调查主要针对Meta、微软、Snap和X等公司,在这些科技巨头越来越多地推出面向消费者的AI工具之际,重点关注它们计划如何管理相关的风险。
根据声明,欧盟委员会已经向这些公司正式发出了通知。不过这次的调查更多是倾向于防控AI的风险,而不是为了打击或处罚这些公司。
欧盟官员声称:“欧盟委员会要求这些科技公司提供更多信息,说明它们各自针对与生成式AI相关的风险采取的应对措施,例如AI产生的幻觉(提供虚假信息)、深度伪造的病毒式传播,以及可能误导选民的自动操纵服务。”深度伪造指的是由AI生成或操纵、可能看起来是真实的图像、音频或视频。
还有官员表示,他们特别担心,在今年夏天的欧洲议会选举前夕,生成式AI可能会引发混乱。在线平台必须在4月5日之前回答有关他们采取了哪些措施来防止AI传播选举错误信息的问题。
欧盟委员会的部分目标是深入了解这些公司是如何处理深度造假问题的,但同时也要让它们注意到,根据欧盟《数字服务法》,AI相关的事故可能会导致罚款或其他处罚。《数字服务法》适用于为欧盟用户服务的数字服务提供商,包括在线购物平台、社交媒体平台、搜索引擎等。
此外,此次调查还涵盖了一系列更广泛的主题,包括平台如何解决生成式AI对用户隐私、知识产权、公民权利、儿童安全和心理健康等方面的影响。
一名欧盟官员告诉记者:“我们希望自己做准备,我们希望各个平台做准备,并提醒平台真正为可能发生各种与即将举行的选举有关的事件做最充分的准备。当然,特别是欧洲议会选举。”
此前一天,欧洲议员们批准了迄今全球最全面的人工智能(AI)法案,为AI系统开发者制定了全面的规则,并对如何使用AI技术做出了新的限制。
虽然该法案只适用于欧盟,但预计会在全球产生影响,因为大型AI公司不太可能愿意放弃进入拥有约4.48亿人口的欧盟。其他司法管辖区也可能将该新法作为其AI法规的范本,从而产生连锁反应。
新规将要求那些最强大AI模型的开发商对这些AI模型进行最先进的安全评估,一旦AI模型发生严重事故,必须上报监管部门。新规规定,这些公司还必须实施潜在风险缓解措施和网络安全保护措施。
来源:财联社