当前位置:首页|资讯|苹果|OpenAI

苹果试图保护你的隐私,OpenAI可能做不到

作者:36氪的朋友们发布时间:2024-09-13

① 苹果针对用户数据安全实施了一系列安全部署,包括隐私云计算(PCC)技术,通过加密和隐私保护机制确保数据在传输和处理过程中的安全。同时,苹果采取“本地优先”策略,将敏感数据保留在设备本地,减少泄露风险,以及严格控制应用权限访问,并模糊用户的IP地址和网络身份信息等措施,目前行业中其他厂商尚未普遍达到同样的水平。

② 即使苹果用心为iPhone打造了一套安全保险体系,但第三方应用一旦接入,隐私的那道防线可能就没那么牢固了。不过,接入三方应用存在风险问题不可避免,是所有用户面临的共同考验。这里隐私安全责任其实不主在苹果,属于用户和第三方应用之间的权责关系。

③ 欧盟的GDPR、美国的CCPA、中国的《数据安全法》《网络安全法》和《个人信息保护法》等相关法律法规涵盖和强调了数据安全和个人信息保护。尤其是欧盟地区的法律法规更加严格,这在一定程度上引导了苹果等互联网科技企业,从合规和准入角度限制和减少潜在的隐私风险。比如若有企业违反GDPR相关规定,可能面临最高达全球年营业额4%的高额罚款。

④ 从发展趋势来看,量子计算的出现对现有的安全措施提出了新的挑战。未来我们可能需要引入“后量子密码学”的新技术来应对,但是目前这个技术还面临效率和性能上的瓶颈,我们还有不少技术难题需要解决。

9月10日,苹果公司发布会以“ 高光时刻”为主题带来了多款新品。其中,Apple Intelligence作为iPhone16的核心宣传点,被称为史上第一台AI iPhone,库克兴奋的说道:“新iPhone标志着一个令人兴奋的新时代开始!”。

大语言模型的爆发使AI技术可以迅速融入到手机中,让手机变得越来越“聪明”。国内各大手机厂商,华为、OPPO、vivo等都在今年纷纷推出了自己的AI手机。以华为Pura 70系列为例,用户通过AI功能的拍照更专业,可以实现自动优化照片,AI帮用户找出最佳角度和光线,让用户秒变“拍照大师”。或者AI可以让手机的智能体助手,像秘书一样为用户安排日程、提醒事项,给用户提供一些个性化的建议。

但与此同时,大语言模型行业也暴露了很多问题,尤其是数据安全方面。比如,OpenAI曾缓存用户的查询信息和结果,非会员用户的数据会被用于分析和模型优化,这也是为什么在今年6月宣布双方合作后,遭到了马斯克的炮轰和指责。还有三星使用OpenAI服务后,也出现了核心内部设计信息通过大模型泄露的情况。

因此,保护用户个人的隐私安全也变得格外重要,苹果也深知这一点。在发布会上,库克多次强调确保数据安全,“我们不仅手机功能更强大,还更懂得保护用户的隐私”。然而,新iPhone真的安全吗?

苹果的隐私方案:隐私云与本地优先的策略

对于保护用户隐私安全的“大军”中,苹果推出的王牌——PCC(隐私云计算),一种机密计算技术。网上有不少媒体对此有误解,对其翻译为“私有云计算”,其实这里完全是两个概念。

隐私云计算专注于保护用户的数据隐私,通过处理和分析数据时使用先进的加密技术和隐私保护机制,确保用户数据不会被泄露或滥用。而私有云计算则主要关注在独立的服务器或数据中心内部进行管理和控制。

PCC主要是为了服务在云侧。数据在传输和存储过程中需要经过多个网络和服务器,增加了被拦截、攻击或误用的可能性,因此云端确实面临更大的数据泄漏风险。因此苹果的思路是,PCC需要确保这些数据在传输和处理时不会泄露,并且数据只能被用做用户请求的操作,数据处理后会被云端立即删除,不会被云端存留。

另外,苹果采取了“本地优先”的策略,优势主要在于用户更愿意将敏感数据,如影像、语音和邮件等交给端侧AI处理,不必担心数据被第三方缓存或泄露。我们可以理解为,这个策略可以尽量让用户的数据“锁”在手机的“保险柜”里,不随便“跑出去”。即便是需要云端处理的复杂任务,苹果也有一整套加密和隔离技术来确保用户的信息不会被泄露,主要有:

硬件安全模块 (Hardware Security Modules, HSMs):在需要与云端交互时,苹果的 iCloud 数据也经过复杂的加密处理。苹果使用 HSMs 存储和管理密钥,确保即便云端被攻击,用户的数据依然安全。

数据加密:苹果设备上的数据在存储和传输时会进行加密。比如在 iPhone 上,文件和数据库都会自动进行硬件级加密,使用的是AES (Advanced Encryption Standard) 256 位加密算法。用户数据即使被窃取,也无法被解读,除非拥有解密密钥。

安全隔区 (Secure Enclave):iPhone 和其他苹果设备中的 Secure Enclave 是一个特殊的处理器区域,专门用来处理敏感信息,如指纹、面容 ID 和密码。这一部分数据不会直接进入主系统,避免被恶意软件或应用访问。

差分隐私 (Differential Privacy):苹果在部分场景中使用差分隐私技术,即在收集数据前对其进行随机化处理,使得即使苹果获取了一些数据,也难以将这些数据与特定用户关联。

端到端加密 (End-to-End Encryption):苹果的 iMessage 和 FaceTime 通信服务采用端到端加密,确保数据在发送方和接收方之间传输时都被加密,任何中间节点包括苹果本身都无法解读这些通信内容。

隐私隔离 (Privacy Isolation):应用程序运行在受控的沙盒环境中,无法访问超出其权限的系统数据,苹果通过这类隔离措施来防止恶意应用侵入用户数据。

其次,iOS作为封闭系统,在隐私和安全管控方面具有优势,能够通过各种手段进行有效保护。此外,还对应用权限进行了严格控制,限制访问麦克风、摄像头、通讯录和相册等功能。比如当用户要安装一个新应用时,苹果会严格控制它访问麦克风、摄像头、通讯录或者相册的权限,只有用户明确同意,应用才能使用这些功能。这样一来,用户隐私就更有保障,数据不会随便被第三方拿走。

同时,苹果还采取了一些额外的措施来保护用户隐私,比如模糊用户的IP地址和MAC地址,防止应用通过这些数据来追踪用户。简单来说,苹果可以把用户的一些网络身份信息“隐藏”起来,让应用很难知道用户和数据的具体信息。

本地端不等于安全堡垒,接入第三方风险仍在

从合规的角度来说,如果数据始终保留在设备本地(不上传到外部服务器或云端),就能够降低违反像GDPR(欧洲的《通用数据保护条例》)和CCPA(美国加州的《消费者隐私法案》)等相关的隐私保护法规的风险。

GDPR(《通用数据保护条例》)是欧盟在2018年推出的法规,旨在保护个人数据隐私,适用于任何收集和处理欧盟居民数据的公司(无论公司所在地在哪)。GDPR的核心要求包括确保数据透明、数据主体的知情权、同意权、访问权和删除权等。个人可以要求公司删除其数据(“被遗忘权”),并且公司必须在数据泄露时及时通知用户。只有在确保数据安全的前提下,数据才可以从欧盟传输到其他国家,特别是非欧盟国家。公司需要采取强有力的安全措施,确保数据不被泄露,违背规定的公司会面临高额罚款,最高可达全球年营业额的4%。

CCPA(《加州消费者隐私法案》)是美国加州推出的类似法规,主要保护加州居民的隐私权。CCPA要求公司向消费者披露其收集的数据类型、收集目的和数据是否会被出售。消费者可以要求公司删除其数据或禁止公司出售其数据。CCPA同样对数据的传输和使用有严格要求,并规定了数据泄露后的通知义务。如果公司未能遵守CCPA,同样会面临罚款。

这些法规对数据的跨境传输、存储和使用设定了明确的界限和高要求,企业需要确保数据始终保留在安全的环境中,并遵循用户的隐私权利。

简而言之,如果数据留在设备上并不外传,就可以大大降低违反这些规定的风险。虽然安全性是相对的,任何数据交互都有泄露风险。但通过尽量在端侧完成计算,减少数据传输和云端处理的过程,降低了攻击面,提升产品整体的安全性。

不过,尽管苹果采用了本地优先的策略,但手机端仍可能存在用户使用过程中的不确定风险。例如,iPhone允许接入像OpenAI这样的第三方大模型服务,用户在访问时可能没有意识到某些请求已被发送到OpenAI的GPT产品,可能导致敏感信息泄露。用户以为操作是在本地进行,但实际上这些查询请求已被转发到云端。

而且,OpenAI等第三方的用户数据处理并不受苹果监管,用户可能误以为数据由苹果全程保护,实际数据已被第三方处理,并遵循第三方的隐私政策,这些政策可能比苹果的宽松,这都是潜在的风险。

我们手机端有很多App,不同的App可能调用苹果的安全功能,也可能使用自己的大模型。很多用户无法区分两者,增加了敏感信息泄露的风险。同时,苹果向不同App提供API接口,用户输入的信息可能被这些App缓存后再转发到Apple的大模型接口中。这意味着用户的信息需要先经过第三方App,如果这些App缓存了用户的敏感信息,依然会导致信息泄露风险。

因此,不同数据提供商的隐私政策如何保持一致性,仍是需要监管机构加强管理的方向。

三方应用安全,单靠苹果解决不了

即使苹果用心为iPhone打造了一套安全系统,但第三方应用一旦接入,隐私的那道防线可能就没那么牢固了。但这里的责任不在于苹果本身,苹果的核心能力是iPhone本身可以提供安全的构架平台、软硬件能力。从技术角度来说,已经尽可能做到现有能力下最大限度的安全防护,远超其他同行们对于安全方面的系统级部署,对于用户体验有深刻的价值。

而对于接入第三方的安全问题,是不可避免的,也是每个手机终端都会面临的问题。苹果可以尽自己最大努力在 AI上不作恶(恶,这里指的是比如违规使用用户数据信息等不当行为),并且提供相关的技术手段和API给到App开发商, 但App作为用户信息的入口,如果App本身想作恶,即便苹果本身不缓存用户的提示词等用户信息,这些信息是可以在进入苹果加固的AI接口前就被App缓存下来了,缓存后的信息App是有可能作恶的,这就需要监管部门参与。

数据安全不单单是某个手机厂商能解决自身的安全问题,需要在监管的引导和法律法规要求下,不断的技术迭代,以及用户们在安全意识提升的共同努力。

在用户侧,苹果在用户教育和隐私保护方面还有很大提升空间。比如目前任何的安全措施都伴随着成本,通常需要用户在使用过程中进行额外操作,也增加了学习成本。很多用户在面对知情授权或隐私条款时,往往直接跳过并点击确认,因此如何让用户真正了解这些风险和安全点,是需要改进的。

在iPhone使用过程中,建议苹果不仅告知用户并让其授权,还需要在涉及数据外传或使用第三方模型时,提供明确的提示和预警,让用户在潜在风险发生时有更好的决策权,以保护数据隐私。比如可以通过更好的用户交互设计,将关键的风险提示融入使用过程中,帮助用户更容易理解和应对。

对于应用方面,由于苹果商店的应用数量庞大,苹果难以对每一个应用进行细致审核,可能存在应用非法或滥用用户数据的情况。在这种情况下,需要国家监管机构(如网信办、公安部等部门)加强对App在信息收集、使用和传输过程中的合规性监管,并要求更严格的审查机制。出现隐私泄露或侵害时,还应提高追责力度,增加违规成本。这需要多方共同努力。

放眼到大模型行业中, 由于隐私安全保护是苹果核心理念之一,能够通过手机端和App Store的收入来补偿其在安全上的额外投入。而其他大模型公司很多在目前仍处于需要“烧钱”的阶段,任何计算成本的增加都是巨大的负担。因此,这些公司何时能采用类似苹果的安全措施,还需权衡成本和收益,这个因素也会扩大用户在隐私方面的风险。

此外,云侧大模型公司在安全方面的意识至关重要。虽然大家都知道数据安全很重要,但要做好防护,确实会增加不少成本。比如H100 GPU这种高端设备,其实有机密计算功能,可以更好地保护数据隐私,但很多大模型公司都没开启这个功能,因为一旦开启,处理速度会受到影响,服务成本也会涨。这样一来,公司得在安全性和成本之间做权衡——要安全,成本高;要便宜,安全可能打折扣,这就成了大模型公司的一大难题。

所以,云侧大模型公司在安全方面的意识至关重要,需要确保用户的敏感信息不被滥用或泄露。同时,启用更高级别的加密和机密计算功能,虽然增加了运营成本,却能有效提升用户信任度。

手机越聪明,全球隐私法挑战接踵而至

苹果在全球推广产品时面临一个难题:如何在保护用户隐私的同时,保持个性化服务。苹果的个性化推荐依赖用户数据分析,但像GDPR等隐私法规限制数据收集和处理。这让苹果在提供贴心服务的同时,还得谨慎遵守法规。

例如,苹果在封闭生态中推出的许多功能目前无法在欧盟提供,比如Apple Maps、FaceTime Audio、包括部分AI服务等无法上线,只能在美国、加拿大等地区提供。这种情况下,隐私保护和功能提供往往无法兼得。而此次iPhone 16发布,苹果再次表示,苹果智能在中国的推出时间,需要依监管部门审批情况而定。

当然,适用于苹果隐私保护的政策不仅限于苹果,而是从数据层面出发的法律,对所有相关涉及的公司都有要求。如欧盟的GDPR、美国的CCPA、中国的《数据安全法》《网络安全法》和《个人信息保护法》,这些法律都涵盖了数据安全和个人信息保护,苹果的设备也受其管辖。此外,还需要遵守与AI隐私相关的规定,尤其是中国和欧盟在这方面的要求。

2024年9月5日欧盟发布的《人工智能与人权、民主和法治框架公约》也涉及57个国家参与,重点关注AI风险和安全问题,其中包括数据安全和隐私保护。

目前全球法律要求各不相同,理想情况下,如果通过国际联盟可以设计一个数据安全基线,确定一些通用的服务能力,并在此基础上提供定制化服务,这将有助于推动科技创新。像ISO,IEEE等组织都在制定国际层面的数据隐私安全标准,或针对特定行业的细分标准,包括锘崴科技也在其中参与了多项数据安全与隐私保护相关标准的制定,比如最近发布的IEEE-P3158可信数据空间国际标准等等。

对于标准化的推出,行业主要涉及两个方向:第一个是技术架构的标准化,明确技术栈和安全保护的边界,确定最佳实践方法,以便各企业遵循这些标准,实现国际认可的安全边界。第二个是分级分类数据和应用,不同级别和类别的数据可以采用不同的隐私安全保护策略,避免用一刀切的方式解决所有问题。类似于苹果,它将核心数据尽量在手机端处理,非敏感数据则可以发到云端进行计算。

未来,端侧计算会越来越普及。随着手机芯片性能越来越强、内存变大、算法更智能,很多复杂的计算都能直接在手机本地完成,减少对云端的依赖。另外,像苹果华为等厂商需要在全球范围内还需要投入更多基础设施。因为不是每个国家都有完善的云计算设施,一旦数据需要跨国传输,就可能遇到合规的问题。举个例子,在一些隐私法规严格的国家,比如在欧盟地区,在数据跨境时可能面临更多挑战,必须确保符合当地的法律要求。

各国监管趋严下,AI怎么继续跑

未来,各国对数据安全和隐私保护的法规会越来越严格,因为这不仅关乎个人隐私,还涉及到“数据主权”——也就是谁掌握了一个国家的核心数据,谁就有了对国家安全的影响力。特别是在大模型技术快速发展的背景下,数据主权变得越来越重要。为了保护这些核心数据,各国会设置更多限制,这也意味着公开数据的获取会变得更难,这对通用模型的训练不太友好。

对于厂商来说,对于技术迭代和创新需求是永不停歇的。以苹果iPhone为例,虽然它有些“黑科技”加持,但并没有把像同态加密这种复杂的技术应用到每一个隐私保护环节,只是在一些相对简单的任务上使用。比如,通过云端比对同态加密后的电话号码来识别骚扰电话,这相当于是“轻量级防护”。

目前,苹果更依赖的是机密计算技术,这种技术能在保证数据安全的同时,兼顾处理速度和灵活性。不过,任何安全措施都有上限,想要实现绝对安全就像要求没有脑机接口的情况下不说话还要交流信息一样不现实。现在的安全手段都是在一定限制条件下,找到一个折中的保护方案。这些限制等会让AI研发和使用的成本增加,导致目前相关应用的大范围普及还需要一个过程。

而对于AI行业,过去依赖大数据和大模型,像开了加速器,快速出成果,但现在数据资源越来越稀缺,研发的难度和成本都在不断上涨。而且,随着越来越多的数据保护法规的出台,AI技术的跨境使用变得更加复杂。想在某些国家使用AI,如果没有足够的基础设施,还得把数据和算力跨境传输,这就像跑个长途加赛马,难度又上升了几个档次。

不过,数据的限制也带来了新的机会。比如,垂直领域的AI模型(专门针对特定领域的AI)可以利用企业或行业内部的“私有数据”进行更精准的训练。这也是为什么中国在推动垂直模型方面有优势。

从发展趋势来看,量子计算的出现对现有的安全措施提出了新的挑战。现在大多数的加密技术都依赖于大整数分解和离散对数等复杂数学问题求解难来保证安全,但量子计算却有能力绕过这些复杂的计算,就像突然找到了一条捷径。

因此,未来我们可能需要引入“后量子密码学”这种新技术来应对,比如同态加密中的“格子密码”方案。目前这些技术还面临效率和性能上的瓶颈,计算起来会很慢。所以在量子计算真的普及之前,我们还有不少技术难题需要解决。

总之,未来AI技术的发展肯定会遇到更多的规则和挑战。AI再聪明,都需要给用户隐私留条“安全通道”。

本文来自微信公众号“腾讯科技”,作者:王爽 李海丹,编辑:郑可君,36氪经授权发布。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1