本文首发于 东大自然语言处理实验室
转载事宜请后台询问哦
单位|东北大学自然语言处理实验室、小牛雅智、小牛翻译
随着大语言模型的快速崛起,人们对自然语言处理技术的关注度也在不断提升。近年来,BERT、GPT等语言模型各显神通,其模型结构均可溯源至Transformer。自2017年提出以来,Transformer已经迅速占据了整个自然语言处理领域,甚至在图像处理领域也开始发挥作用。目前火热的ChatGPT也是基于Transformer decoder结构的模型之一,其出色的表现广受好评。掌握Transformer基础知识已成为学术界和从业者的必修课程。
2023年4月27日(周四晚)18:30,来自东北大学自然语言处理实验室的李北将为大家带来《生成式大语言模型技术分享系列的首期报告——Transformer基础技术》,本次报告将带领您系统地学习Transformer基础架构,了解其关键技术,并探讨它因何成为大型语言模型的基石。报告内容具体包括Transformer的整体框架、输入及位置编码、注意力机制、残差网络与层归一化、前馈神经网络等关键技术。通过本次报告,您能够对Transformer基础知识有更加全面和深入的了解与思考。
本次直播将分为两部分进行,第一部分为报告分享环节,第二部分为Q&A环节。在直播过程中,小伙伴可以把问题发送到直播间中,并在Q&A环节与本期嘉宾深入探讨;未被回复的问题也可私信留言,在直播结束后我们会进行解答。
本系列直播作为公益知识分享活动,由东北大学自然语言处理实验室、小牛雅智、小牛翻译联合推出,向所有听众免费开放,无需注册和报名缴费。参会观众可以在【视频号(ID:小牛翻译云平台)、微博(ID:小牛翻译)、哔哩哔哩(ID:小牛翻译)、抖音(ID:小牛翻译)、知乎(ID:小牛翻译云平台)、机器翻译学堂(https://school.niutrans.com/live)】观看直播,关注【机器翻译学堂】即可观看直播回放。诚邀所有关注自然语言处理与大模型技术发展的朋友走进直播间,2023年4月27日(周四)18:30,我们期待与您的相遇!
hi,这里是小牛翻译~
想要看到更多我们的文章,可以关注下
机器翻译学堂(公号或网站)
笔芯~
往期精彩文章