当前位置:首页|资讯|GPT-5|OpenAI|大语言模型

GPT-5遇数据瓶颈,OpenAI如何破20万亿缺口

作者:网界发布时间:2024-04-09

原标题:GPT-5遇数据瓶颈,OpenAI如何破20万亿缺口

近日,有消息称,科技巨头OpenAI在推进其大型语言模型GPT-5的训练过程中遭遇了数据瓶颈。

据悉,训练GPT-5所需的数据量高达20万亿Token,但目前OpenAI手头的数据量尚不足10万亿Token,这一巨大的数据缺口成为了制约模型训练的关键因素。

面对这一挑战,OpenAI并未选择坐以待毙,而是积极寻求解决方案。据了解,为了填补这一数据缺口,OpenAI正计划打造一个创新的“数据市场”。该市场将允许用户上传并出售自己的数据,从而为模型训练提供更多的数据源。这一举措旨在通过提高数据利用率,推动AI技术的进步。

OpenAI的这一计划引发了业界的广泛关注。有观点认为,这将是解决AI数据短缺问题的一大创举,有望为AI领域带来新的发展动力。

然而,也有声音对数据安全问题表示担忧。对此,OpenAI回应称,将采取严格的措施确保数据的安全与隐私,并在合法合规的前提下进行数据交易。

随着AI技术的不断发展,对数据的需求将持续增长。OpenAI通过建立“数据市场”这一创新举措,不仅有望解决当前GPT-5训练的数据短缺问题,更可能为整个AI行业探索出一条新的发展路径。如何解决AI数据短缺问题,将成为推动AI技术进步的关键所在。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1