当前位置:首页|资讯

【联邦学习+大语言模型】论文阅读一

作者:Zip2001发布时间:2024-10-04

论文题目:Federated Large Language Model : A Position Paper 研究背景 大语言模型(LLM)的能力与挑战 LLM在处理复杂任务方面表现出色,但其性能依赖于模型规模和训练数据量的不断扩展。公共领域数据往往不足以满足LLM的需求,而私人领域的数据虽丰富,但由于隐私问题和商业竞争,直接共享数据变得困难。 隐私保护的重要性 为了使用私人领域的数据并保护隐私,现有的隐私保护计算技术如基于密码学的多方安全计算(SMPC)、可信计算(如可信执行环境TEE)、和联邦学习(F...【查看原文】


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1