论文题目:Federated Large Language Model : A Position Paper 研究背景 大语言模型(LLM)的能力与挑战 LLM在处理复杂任务方面表现出色,但其性能依赖于模型规模和训练数据量的不断扩展。公共领域数据往往不足以满足LLM的需求,而私人领域的数据虽丰富,但由于隐私问题和商业竞争,直接共享数据变得困难。 隐私保护的重要性 为了使用私人领域的数据并保护隐私,现有的隐私保护计算技术如基于密码学的多方安全计算(SMPC)、可信计算(如可信执行环境TEE)、和联邦学习(F...【查看原文】