近日,国际人工智能顶级学术会议AAAI 2025放榜,摩斯团队在大模型隐私微调方向论文被该会议录用! 要让大模型适应各不一样的下游任务,微调必不可少。常规的中心化微调过程需要模型和数据存在于同一位置 —— 要么需要数据所有者上传数据(这会威胁到数据所有者的数据隐私),要么模型所有者需要共享模型权重(这又可能泄露自己花费大量资源训练的模型)。此外,在第二种情况下,模型的参数可能暴露,这可能会增加其微调模型受到攻击的可能性。这些问题都可能阻碍 LLM 的长期发展。 为了有效地保护模型所有权和数据隐私,浙江大学...【查看原文】