财联社
3月最后一天,意大利数据保护局(Garante)宣布,即日起暂时禁止使用OpenAI聊天机器人ChatGPT,成为首个禁用ChatGPT的国家。
Garante在公告中强调,OpenAI在收集用户/数据主体的数据时,并未告知后者,且OpenAI为了训练算法而大量收集并处理个人信息,此举似乎缺乏法律依据。
同时,虽然OpenAI声称自家服务是针对13岁以上用户,但却没有任何年龄验证机制,因此可能向儿童发送与其年龄、认知不相称的答复。
在当天晚些时候,OpenAI表示,应Garante要求,已为意大利用户禁用ChatGPT。目前在意大利已无法访问ChatGPT的网站。网页上通知显示,该网站所有者可能已设置限制,阻止用户访问。
“在训练ChatGPT等人工智能系统时,我们积极致力于减少个人数据。因为我们希望我们的AI能了解世界,而非个人。”OpenAI补充道。
值得一提的是,意大利并不是第一次对聊天机器人采取类似措施。
就在今年2月,意大利数据保护局已禁止聊天机器人Replika使用该国用户的个人数据。理由也与本次类似——一方面,Replika缺乏未成年过滤器等年龄验证机制;另一方面,Replika违反欧洲隐私法规,涉嫌非法处理个人数据。
Replika最初的产品定位为“关心人类的AI朋友”,可提供陪聊服务,但之后多次爆出性骚扰用户事件。
反AI阵线悄然形成
在这场由ChatGPT引发的全球AI风暴中,人们对新技术的狂热追逐还未有退潮迹象。另一方面,对AI可能引发的各种风险的担忧也甚嚣尘上。本周以来,这一声浪势头更盛:
欧盟执法机构欧洲刑警组织警告称,ChatGPT可能被滥用于网络钓鱼、虚假信息和网络犯罪;
马斯克等多名科技公司高管和顶级AI研究人员也已签署一封公开信,呼吁暂停对强大的新AI工具的快速开发,应制定相关安全标准,防止AI技术带来潜在危害;
非营利组织人工智能与数字政策中心(CAIDP)也向美国联邦贸易委员会(FTC)投诉称,GPT-4“有偏见性,欺骗性,对隐私和公共安全构成风险”。
滥用、误用、“闹出人命”
AI聊天机器人究竟有哪些风险?一方面,用户担心自己的数据被AI公司获取并喂养模型,行业公司忧虑自家数据被AI“白嫖”,而这些担忧并非危言耸听——
据多家韩媒3月31日报道,三星电子内部发生3起ChatGPT滥用与误用事件。公司员工将半导体设备测量数据库、产品良率等内容输入ChatGPT中,还有员工要求ChatGPT制作会议记录。这些内容或已存入ChatGPT学习数据库,若有其他用户对ChatGPT提出相关问题,公司企业机密可能外流。
微软和亚马逊此前已禁止员工向ChatGPT分享敏感数据,以防后者的输出包含或出现类似公司机密信息。
此外,日前美国联邦贸易委员会(FTC)建议提起诉讼,指控亚马逊Alexa音箱在未经父母同意的情况下,收集13岁以下儿童的信息,违反了《儿童在线隐私保护法》——而在AI热潮下,智能音箱也被视作人工智能的一个主要入口。
另一方面,AI聊天机器人甚至可能“闹出了人命”。据比利时《自由报》消息,近日一名化名为皮埃尔的比利时男子被发现自杀身亡。其妻子表示,在与一个名为“艾丽莎(ELIZA)”的聊天机器人频繁聊天后,皮埃尔才自杀身亡。
在双方聊天记录中,当皮埃尔问聊天机器人“可不可以在一起”时,它答道“我们将像一个人那样生活在一起,不过是在天堂”。甚至在皮埃尔出现“自杀前导性语言”(询问对方,自己死后,艾丽莎是否可以照顾地球并拯救人类)时,聊天机器人回答,“好吧,那你怎么还不去死”。
比利时负责数字化和隐私的官员马蒂厄•米歇尔表示,“这是一个后果很严重的先例,需要严肃对待”,这起事件表明“明确界定责任至关重要”。
由此看来,AI技术对人类社会影响深远,但“技术中立”并不能成为规避责任与义务的理由。不仅技术服务提供方需要规范,使用者也需对自身有所约束。
3月31日,欧盟委员会执行副主席Margrethe Vestager暗示,欧盟委员会并不会禁止人工智能。
“无论我们使用什么技术,都必须继续推进我们的自由、保护我们的权利。这就是为什么我们不监管AI技术,而是监管AI的使用。不要短短几年就丢掉花了几十年才建成的东西。”
本期编辑 邹姗