当前位置:首页|资讯

晶科储能申请电芯及其制备方法专利,简化工艺、降低成本

作者:金融界发布时间:2024-11-11

金融界2024年11月11日消息,国家知识产权局信息显示,浙江晶科储能有限公司申请一项名为“电芯及其制备方法”的专利,公开号CN 118919872 A,申请日期为2024年10月。

专利摘要显示,本发明提供了一种电芯及其制备方法。该电芯的制备方法,包括:电芯的制备,其中,正极极片由正极浆料涂布于正极集流体后经干燥、层压后得到,正极浆料包括正极活性物质和补锂剂,在封装之后、注液之前,制备方法还包括催化剂制备步骤,催化剂制备步骤的过程包括:对封装后所得电芯依次进行催化剂前驱体溶液注入、静置处理、对静置后电芯施加电流或电压处理、催化剂前驱体溶液清除;对静置后电芯施加电流或电压处理的过程使得催化剂前驱体反应并附着于正极极片的表面,形成催化剂;电压的范围为‑2.5~0 V。本申请的以上方法将催化剂的合成过程与电芯的制备过程中相兼容,省去了单独制备催化剂的设备和工艺,简化了工艺、降低了成本。

来源:金融界

解读丨微软开源DeepSpeed-Chat 机构:赋能整个AI行业提升效率和降低成本 加快应用落地

事件:DeepSpeed-Chat可以简易地进行类ChatGPT模型的训练和推理:用一个脚本,能够采用预先训练的Huggingface模型,使用 DeepSpeed-RLHF系统运行完成 InstructGPT训练的所有三个步骤(1.监督微调2.奖励模型微调和3.人类反馈强化学习(RLHF))并生成自己的类 ChatGPT的模型。 国盛证券点评:DeepSpeed-HE是DeepSpeed-RLHF系统的引擎,具备三大优势:1)效率比现有其他系统快15倍以上。在Azure Cloud上以低于13美元和9美元的价格在30小时内训练OPT-18B,在300小时内训练OPT-600B。2)具备出色的可扩展性:支持数千亿参数的模型,可以在一天内训练一个庞大的175B模型。3)让训练硬件成本亲民:只需一个 GPU,就支持超过13亿个参数的训练模型。DeepSpeed-Chat的开源赋能整个AI行业提升效率和降低成本,加快应用落地。有望帮助大模型厂商加快训练,并能让中小厂商在做细分领域应用时,基于自己的场景和数据低成本快速实现自己的小型类ChatGPT模型,或在微调大模型时降低成本。影响:1)加速应用百花齐放,降低训练门槛。如办公、多模态GPT、智能助理、金融、医疗等场景训练中FINETUNE难度与便捷性比以前好很多。2)中期加大算力需求:我们一直强调,训练端算力需求极其有限,而应用爆发才是指数型增长。DEEP SPEED-chat加速各类应用落地,中期算力需求有望迎来大爆发。这和市场目前的误解有差异。(格隆汇)


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1