三问智能家居语音采集。
采写 | 南都见习记者 陈袁 南都研究员 李伟锋
早晨起床,说一声“打开窗帘”,就能享受明媚阳光;晚上回家,道一句“开灯,播放音乐”,温馨灯光亮起,开始播放你喜欢的歌曲……
不过,此前曾有国外科技巨头的智能语音助手被指“窃听”用户隐私,并将语音数据用于模型训练,引发公众忧虑。
智能家居APP采集的用户语音信息将用于何处?是否存在泄露个人信息风险?如何保障个人权益?
南方都市报记者近日调查国内多款知名智能家居APP发现,部分APP隐私条款表述模糊,用户语音数据去向未作明确说明,存在用于大模型训练的可能;此外,部分平台强制用户语音信息用于“功能优化”,不同意就不能使用语音控制。
多位受访专家认为,智能家居APP数据处理目的需进一步明确,如果采集个人语音数据用于模型训练需提供单独授权选项,否则涉嫌违规。
用于“优化”?平台隐私条款指向模糊
根据《中华人民共和国个人信息保护法》,处理个人信息需遵循“告知-同意”规则,因此用户在注册使用智能家居APP前,都需勾选同意公司提供的隐私政策,并授权APP调用设备权限。但隐私条款往往冗长复杂,少有用户会注意到,除去采集相关语音数据外,部分公司还将用户语音数据用于模型训练也写入了隐私条款。
不过,部分APP对于具体“优化 ”什么,语焉不详。
部分智能家居APP隐私政策“优化”相关表述截图。
但海尔、美的和格力的隐私条款,对“优化”的描述就比较模糊。
隐私条款中类似“优化”的模糊表述较为普遍,这会使个人用户处于较为被动的地位。
“因为对于后台的数据使用情况,用户缺乏感知,很大程度上依赖的是企业的披露和定期的技术审计结合外部监督”,上海资深数据合规律师刘律师认为,从监管趋势来看,《网络数据安全管理条例》对数据处理者提出了更具体的要求,网络数据处理者按照前款规定向个人告知收集和向其他网络数据处理者提供个人信息的目的、方式、种类以及网络数据接收方信息的,应当以清单等形式予以列明。
用于训练大模型?专家:应获得用户单独授权
对于不少智能家居APP在隐私政策中的采集个人信息数据用于“优化”功能表述,上海资深数据合规律师刘律师认为,可能涉及两种数据采集情况,一种是为正常使用产品功能采集所需的用户语音记录,如为纠正功能错误进行的迭代升级等;另一种是模型或者产品进一步优化所需要的数据采集,比如让模型更“聪明”。
刘律师指出,前者属于功能实现所必需,后者是优化服务需要,对于用户数据的采集和使用需区分开二者。
根据《App违法违规收集使用个人信息行为认定方法》,仅以改善服务质量、提升用户体验、定向推送信息、研发新产品等为由,强制要求用户同意收集个人信息,可被认定为“违反必要原则,收集与其提供的服务无关的个人信息”。
例如在京东小家的隐私政策中,把迭代产品功能和优化模型两个目的绑定在一起,要求用户在使用产品的时候就同时授权了模型优化目的所进行的数据收集,或存在合规问题。
6款智能家居APP语音数据有关隐私政策测评结果。
根据《App违法违规收集使用个人信息自评估指南》,当App运营者收集的个人信息超出必要信息范围时,应向用户明示所收集个人信息目的并经用户自主选择同意。
对此,美的和海尔相关部门均回复记者,用户可以通过隐私邮箱要求单独关闭“优化”功能,并承诺关闭后会将用户数据从后台删除,不用于后续的“优化”用途。
隐私安全风险在哪?专家:声纹特征有唯一性
使用用户语音数据训练、优化模型是否必要?风险在哪里?
一般来说,模型训练是为了完善产品服务和质量,真实用户数据能够提供丰富的上下文和多样性,从而提高模型的预测能力和准确性。模型训练涉及到用户个人数据的采集、传输、储存和分析,一般会采用数据加密和去标识化处理等方式保障个人信息安全,但隐私泄露的风险仍然存在。
在中国电子技术标准化研究院网安中心测评实验室副主任何延哲看来,真实用户语音数据训练有助技术进步,但采集使用每个用户家庭数据并非完全必要。模型训练涉及用户日常谈话内容、说话习惯,涉及到声纹特征等敏感个人信息,需确保用户明确同意并尊重其选择权。
何延哲解释,在个人数据分析和处理过程中,一般采取去标识处理,将个人标识去除得较为彻底,便可以达到匿名化效果。但语音信息中包含的声纹特征等本身就具有唯一性,如果彻底匿名化,唯一性消失,又会影响到模型训练所需数据信息的真实性。
科技进步需求与隐私泄露风险同时存在,何延哲坦言,“如何在其中寻求平衡,在个人信息保护措施更加充分的情况之下,去推动个人信息发挥更大价值,让个人信息价值在阳光下发挥作用,需要社会各界摆平心态,以发展的视角来权衡利弊,达成共识”。
END
宽博商显显示屏厂家 2024-10-29
芒果学姐来了 2024-10-29
Sweetdreamling 2024-10-29
域智盾-系统 2024-10-29