当前位置:首页|资讯|ChatGPT|OpenAI|人工智能

涉嫌数据泄露,意大利暂时禁用ChatGPT

作者:上观新闻发布时间:2023-04-02

原标题:涉嫌数据泄露,意大利暂时禁用ChatGPT

据外媒4月1日报道,OpenAI公司已在意大利下线其人工智能(AI)聊天机器人ChatGPT。此前,意大利数据保护局Garante已暂时禁用ChatGPT,并对其涉嫌违反隐私规定展开调查。这让意大利成为首个对ChatGPT采取行动的西方国家。近日,AI技术的飞速发展已引发巨大争议。分析认为,由于AI对安全、就业和教育的潜在影响,政府部门迅速介入并加强监管已成为当务之急。

意大利:暂时禁用

据报道,意大利暂时禁用ChatGPT的直接原因是此前发生的一起数据泄露事件。

OpenAI此前称,他们不得不在3月20日让ChatGPT离线,修复一个允许查看其他用户聊天记录的程序错误。该公司还称,调查发现,1.2% 的ChatGPT Plus用户的个人信息可能泄露。

对此,意大利数据保护局Garante3月31日称,ChatGPT平台已出现用户对话数据和支付信息泄露的情况。该平台也缺乏法律依据,证明收集和存储大量个人数据来训练聊天机器人是正当的。

Garante还称,尽管OpenAI声称ChatGPT只面向13岁以上用户,但平台缺乏能够验证用户年龄的机制,让未成年人接触与自身发育程度和意识不匹配的答案。

Garante要求OpenAI必须在20天内回应并采取补救措施,否则将面临最高2000万欧元或公司全球年营业额4%的罚款。

对此,OpenAI回应称,目前已在网站设置限制,阻止意大利用户访问。OpenAI还称,公司正致力于在训练AI系统时减少个人数据,他们希望让AI系统更了解世界,而不是了解个人。在与Garante密切合作后,公司期待很快在意大利再次推出ChatGPT。

监管机构采取行动

舆论指出,意大利已成为首个对AI聊天机器人采取限制行动的西方国家。在其他国家和地区,AI技术的迅速发展也已引起监管机构的注意。

欧盟委员会发言人近日就表示,希望所有在欧盟活跃的企业都能遵守欧盟的数据保护规定,执行《通用数据保护条例》(GDPR)是欧盟数据保护当局的责任。

欧盟委员会执行副主席韦斯塔格则在社交媒体上称,欧盟委员会正在讨论AI法案,可能不会倾向于禁止AI,但无论使用何种技术,都必须以保护人们的权利为先。她认为,不应监管AI技术,而是应监管AI的使用,不要“在几年内将花了几十年才建立的东西扔掉”。

另据英国广播公司(BBC)报道,爱尔兰数据保护委员会也表示,正就后续行动与意大利数据保护局沟通,了解他们采取行动的相关依据,并将与欧盟其他数据保护机构就禁令进行协调。

英国独立数据监管机构英国信息专员办公室(ICO)也表示,将支持AI的发展,但也准备挑战那些不遵守数据保护条例的行为。3月29日,英国公布关于建立AI监管框架的提议,但称将“避免可能扼杀创新的严厉立法”。

此外,包括摩根大通、高盛集团、花旗集团、德意志银行、埃森哲在内的一批金融机构、咨询公司和律师事务所也对员工使用ChatGPT加以限制。这些公司担心,员工将客户信息上传到ChatGPT时,很可能会暴露敏感数据和信息。

“AI热”担忧加剧

自去年年底ChatGPT在全球掀起一股AI“军备竞赛”以来,微软、谷歌、Meta、百度等科技公司均已加入赛道,试图成为该领域的领跑者。

瑞银此前发布的一项研究显示,在推出仅两个月后,ChatGPT在今年1月的月活跃用户就已达到1亿,成为史上用户增长最快的消费者应用。

然而,随着AI技术的发展和应用,背后的风险也已浮出水面。在意大利叫停ChatGPT之际,人们对“AI热”的担忧正日益加剧。

近日,包括特斯拉创始人马斯克、图灵奖得主约书亚·本吉奥(Yoshua Bengio)在内的1000多名科技界大佬和AI业内人士签署联名信,呼吁立即暂停研究比OpenAI开发的GPT-4更强大的AI系统。

联名信在业内外引发巨大争议。有业内人士指出,AI的风险正在被夸大,说服各公司和研究人员一起按下“暂停键”也不现实。

但也有舆论指出,AI被滥用的趋势值得警惕。AI很可能被恶意使用,被用来作弊、传播错误信息或实施犯罪。

欧盟执法机构欧洲刑警组织此前就警告称,ChatGPT可能被用于网络钓鱼、虚假信息和网络犯罪,引发对法律和道德问题的担忧。

对此,分析认为,由于AI对国家安全、就业和教育的潜在影响,制定新的法规来监管AI已成为当务之急。

欧洲消费者组织(BEUC)就呼吁欧盟和各国政府的数据保护机构迅速调查ChatGPT和其他聊天机器人。

欧洲消费者组织称,尽管欧盟目前正在制定全球首个AI法案,但这可能需要多年时间才能落地,这将让消费者因监管不力面临风险,受到AI技术的伤害。

瑞典于默奥大学AI研究员约翰娜·比约克隆德(Johanna Björklund)则指出,OpenAI等公司并未提供有关如何训练AI模型的细节,但缺乏透明度是真正的问题所在,“如果你进行AI研究,应该对如何做到这一点非常透明”。

(编辑邮箱:ylq@jfdaily.com)


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1