当前位置:首页|资讯|北大|ChatGPT|生成式AI|大语言模型

“生成式大语言模型技术分享”系列直播即将启幕

作者:小牛翻译NiuTrans发布时间:2023-04-21

本文首发于 东大自然语言处理实验室

转载事宜请后台询问哦

单位|东北大学自然语言处理实验室、小牛雅智、小牛翻译

近几年,以Transformer架构为基础的大语言模型(LLM)在NLP各类任务上都展现出了巨大的潜力。比如,在2022年底引起轰动的ChatGPT,几乎可以高质量地完成NLP中的大多数任务。自ChatGPT发布后,生成式AI逐渐成为新的技术范式,引起一场巨大的科技史变革。考虑到大语言模型技术的快速发展与裂变,为了使从业者紧跟技术发展的步伐,本系列讲座将对大语言模型的相关技术进行讲解。

本系列讲座主要包括基础技术关键技术两个模块

本系列讲座由东北大学自然语言处理实验室、小牛雅智、小牛翻译联合推出,将在视频号、微博、哔哩哔哩、抖音、知乎、机器翻译学堂开启同步直播,欢迎每一位关注自然语言处理的伙伴。此外,登录小牛翻译云平台官方网站获取最新直播地址和回放,关注小牛翻译云平台各大平台官方账号了解系列直播的相关信息。

“生成式大语言模型技术分享”系列直播计划

本系列直播将在4月27日正式启动,首期讲座为《Transformer基础技术》,带领大家系统地学习Transformer基础架构,了解其关键技术,并探讨它因何成为大型语言模型的基石。

生成式大语言模型技术分享-第一期《Transformer基础技术》

报告时间

2023年4月27日(周四晚)  18:30

报告背景

随着大语言模型的快速崛起,人们对自然语言处理技术的关注度也在不断提升。近年来,BERT、GPT等语言模型各显神通,其模型结构均可溯源至Transformer。自2017年提出以来,Transformer已经迅速占据了整个自然语言处理领域,甚至在图像处理和语音处理领域也开始发挥作用。目前火热的ChatGPT也是基于Transformer decoder结构的模型之一,其出色的表现广受好评。掌握Transformer基础知识已成为学术界和从业者的必修课程。

报告内容

Transformer的整体框架、输入及位置编码、注意力机制、残差网络与层归一化、前馈神经网络等关键技术。通过本次报告,您将能够对Transformer基础有更加全面和深入的了解与思考。

直播地址

视频号(ID:小牛翻译云平台)
微博(ID:小牛翻译)
哔哩哔哩(ID:小牛翻译NiuTrans
抖音(ID:小牛翻译)
知乎(ID:小牛翻译云平台)
机器翻译学堂(https://school.niutrans.com/live)

hi,这里是小牛翻译~

想要看到更多我们的文章,可以关注下

机器翻译学堂(公号或网站)

笔芯~

往期精彩回顾





Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1