本文首发于 东大自然语言处理实验室
转载事宜请后台询问哦
单位|东北大学自然语言处理实验室、小牛雅智、小牛翻译
近几年,以Transformer架构为基础的大语言模型(LLM)在NLP各类任务上都展现出了巨大的潜力。比如,在2022年底引起轰动的ChatGPT,几乎可以高质量地完成NLP中的大多数任务。自ChatGPT发布后,生成式AI逐渐成为新的技术范式,引起一场巨大的科技史变革。考虑到大语言模型技术的快速发展与裂变,为了使从业者紧跟技术发展的步伐,本系列讲座将对大语言模型的相关技术进行讲解。
本系列讲座主要包括基础技术和关键技术两个模块
本系列讲座由东北大学自然语言处理实验室、小牛雅智、小牛翻译联合推出,将在视频号、微博、哔哩哔哩、抖音、知乎、机器翻译学堂开启同步直播,欢迎每一位关注自然语言处理的伙伴。此外,登录小牛翻译云平台官方网站获取最新直播地址和回放,关注小牛翻译云平台各大平台官方账号了解系列直播的相关信息。
“生成式大语言模型技术分享”系列直播计划
本系列直播将在4月27日正式启动,首期讲座为《Transformer基础技术》,带领大家系统地学习Transformer基础架构,了解其关键技术,并探讨它因何成为大型语言模型的基石。
生成式大语言模型技术分享-第一期《Transformer基础技术》
报告时间
2023年4月27日(周四晚) 18:30
报告背景
随着大语言模型的快速崛起,人们对自然语言处理技术的关注度也在不断提升。近年来,BERT、GPT等语言模型各显神通,其模型结构均可溯源至Transformer。自2017年提出以来,Transformer已经迅速占据了整个自然语言处理领域,甚至在图像处理和语音处理领域也开始发挥作用。目前火热的ChatGPT也是基于Transformer decoder结构的模型之一,其出色的表现广受好评。掌握Transformer基础知识已成为学术界和从业者的必修课程。
报告内容
Transformer的整体框架、输入及位置编码、注意力机制、残差网络与层归一化、前馈神经网络等关键技术。通过本次报告,您将能够对Transformer基础有更加全面和深入的了解与思考。
直播地址
视频号(ID:小牛翻译云平台)
微博(ID:小牛翻译)
哔哩哔哩(ID:小牛翻译NiuTrans)
抖音(ID:小牛翻译)
知乎(ID:小牛翻译云平台)
机器翻译学堂(https://school.niutrans.com/live)
hi,这里是小牛翻译~
想要看到更多我们的文章,可以关注下
机器翻译学堂(公号或网站)
笔芯~
往期精彩回顾