当前位置:首页|资讯|剑桥|人工智能

对于AI而言,一场“剑桥分析式”的丑闻或许难以避免?

作者:DeepTech深科技发布时间:2023-04-26

原标题:对于AI而言,一场“剑桥分析式”的丑闻或许难以避免?

你能想象一家汽车公司让一辆没有内置安全功能的新车上路吗?这种情况不太可能出现,对吧?但人工智能公司正在做的事情,有点像发布没有安全带或好用的刹车的赛车,然后尝试在车辆行驶过程中解决问题。

这种方法让他们遇到了麻烦。例如,OpenAI 正面临欧洲和加拿大数据保护部门的调查,因为它收集个人数据并在其流行的聊天机器人 ChatGPT 中使用数据的方式。意大利已经暂时禁止了 ChatGPT,OpenAI 必须在本周末之前遵守欧洲严格的数据保护规定——《通用数据保护条例》(General Data Protection Regulation,GDPR)。但一些专家告诉我,该公司可能无法遵守这些规定,因为人工智能收集数据的方式是在互联网上抓取内容。

欧盟数据监管机构的沃奇赫·维维奥罗夫斯基(Wojciech Wiewiórowski)说,令人目不暇接的发展速度,意味着数据保护监管机构需要做好准备,可能迟早会有另一起“剑桥分析”那样的丑闻。

维维奥罗夫斯基是欧洲的数据保护主管,他是一个强有力的人物。他的职责是让欧盟对自己的数据保护做法负责,监控技术的前沿环节,并帮助协调欧盟各国的执行工作。我和他讨论了我们应该从过去十年的技术工作中学到哪些经验教训,以及关于欧盟的数据保护哲学,美国人需要学习什么。

(来源:EUROPEAN DATA PROTECTION SUPERVISOR)

科技公司应该了解的是:产品应该从一开始就设计好隐私功能。然而,他说:“当这些公司必须实现快速交付时,要说服他们采用根植于设计中的隐私模式并不容易。”维维奥罗夫斯基说,如果公司在数据保护方面偷懒,剑桥分析公司是我们看到的最大的教训。这家公司已经成为脸书(Meta)最大的公关丑闻之一,他们从脸书账户中窃取了数千万美国人的个人数据,以影响他们的投票方式。他补充说,“我们看到另一桩丑闻只是时间问题。”

美国人需要了解欧盟的数据保护理念,他们需要理解的是:“欧洲的方法与你使用数据的目的有关。因此,当你改变使用数据的目的时,特别是如果你违背自己向公众提供的信息,那么你就违反了法律。”以剑桥分析为例。

最大的法律问题不是该公司收集数据,而是它声称是为科学目的和小规模测验收集的数据,但却将其用于另一个目的——主要是创建人们的政治倾向档案。这也是此次意大利数据保护部门暂时禁止 ChatGPT 时提出的质疑。意大利当局声称, OpenAI 收集了它想要非法使用的数据,并没有告诉人们它打算如何使用这些数据。

监管是否扼杀了创新?这是技术爱好者的一个有力主张。维维奥罗夫斯基说,我们应该问的真正问题是:“我们真的确定我们希望让公司无限制地访问我们的个人数据吗?我不认为这些法规……真的在阻止创新。他们正努力让它更文明。”毕竟,GDPR 不仅保护个人数据,还保护数据的交换和自由流动。

欧盟是大科技公司的噩梦吗?欧洲并不是唯一一个对科技行业态度强硬的地区。美国政府正在考虑人工智能问责制规则,联邦贸易委员一旦发现问题,甚至会要求公司删除他们的算法和任何涉嫌非法收集和使用的数据,一个最近的例子是 2022 年的慧俪轻体。

维维奥罗夫斯基表示,他很高兴看到拜登总统呼吁科技公司为其产品的安全性承担更多责任,而且发现美国的政策思维正与欧洲预防人工智能风险的努力不谋而合,这令人鼓舞。他说:“一个科技巨头曾经说过,‘欧洲的立法,加上美国的执法,才是真正的噩梦’。”

支持:Ren

原文:

https://www.technologyreview.com/2023/04/25/1072177/a-cambridge-analytica-style-scandal-for-ai-is-coming/


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1