2022 年 11 月末,OpenAI 悄无声息的推出对话式 AI 模型 ChatGPT,让人没想到的是,这个模型一夜之间爆红整个 AI 圈,所到之处,引起一番讨论狂潮。很多人将其形容为一个真正的「六边形战士」:不仅能拿来聊天、搜索、做翻译,还能写故事、写代码、debug……
在推出仅两个月后, ChatGPT 月活用户突破 1 亿,成为史上用户增长速度最快的消费级应用程序。作为对比,根据 Sensor Tower 的数据,TikTok 用了 9 个月,Instagram 则花了 2 年半时间。一位来自瑞士银行的分析师感叹道,「在互联网过去 20 年的发展中,我们找不到哪款消费级互联网应用的用户增长速度比 ChatGPT 更快。」
英伟达 CEO 黄仁勋对 ChatGPT 给与了一个很高的评价,他表示,ChatGPT 是人工智能领域的 iPhone 时刻,也是计算领域有史以来最伟大的技术之一。
ChatGPT 高开疯走,搅动了整个 AI 行业,各大科技公司、机构、甚至是个人,纷纷加紧研发类 ChatGPT 产品。但是,做出功能相似的模型哪能这么容易,就参数量而言,有一种普遍的假设认为,ChatGPT 的参数量与 GPT-3 论文中介绍的 1750 亿参数模型相同;在训练资源上,它经由微软专门建设的 AI 计算系统训练,总算力消耗约为 3640 PF-days;在推理阶段,以今年 1 月份独立访客平均数 1300 万计算,ChatGPT 对应的芯片需求为 3 万多块英伟达 A100 GPU,初始投入成本约为 8 亿美元,每天光是花掉的电费就要 5 万美元。这样算下来,要想复制 ChatGPT 的成功,还是不容易的。
不仅 ChatGPT ,人们提升 AI 性能的重要方式大都采用「炼大模型」。短短几年,AI 模型的参数量已经从最初的数亿扩张到千亿,甚至万亿规模。
虽然有越来越多的玩家入局这一领域,有资源的公司在加紧研发、势必赶上这波浪潮,没有技术基础的企业也在准备发力。但是,在这之前我们不禁会问:做出类 ChatGPT 需要怎样的大模型技术积累?又会面临哪些挑战?是否需要跟进 ChatGPT? 中国版 ChatGPT 是否只会是跟风式的翻版?未来是否能够很好地赋能垂直行业或整合进第三方应用以发挥最大价值?
为了激浊扬清,机器之心将于 2023 年 3 月 21 日在北京燕莎中心凯宾斯基饭店举办「ChatGPT 及大模型技术大会」,为圈内人士提供一个专业、严肃的交流平台,围绕研究、开发、落地应用三个角度,探讨大模型技术以及中国版 ChatGPT 的未来。
届时,机器之心将邀请大模型领域的知名学者、业界顶级专家担任嘉宾,通过主题演讲、圆桌讨论、QA、现场产品体验等多种形式与现场观众深入交流。
首批特邀嘉宾及演讲内容
(姓氏排序)
演讲主题:ChatGPT 浅析
分享嘉宾:车万翔,哈尔滨工业大学计算学部长聘教授、博士生导师
个人简介:车万翔,哈尔滨工业大学计算学部长聘教授/博士生导师,人工智能研究院副院长,国家级青年人才,龙江学者“青年学者”,斯坦福大学访问学者。现任中国中文信息学会理事、计算语言学专业委员会副主任兼秘书长;国际计算语言学学会亚太分会(AACL)执委兼秘书长。目前承担国家自然科学基金重点项目、2030 “新一代人工智能”重大项目课题等多项科研项目。著有《自然语言处理:基于预训练模型的方法》一书。曾获 AAAI 2013 最佳论文提名奖。负责研发的语言技术平台(LTP)已授权给百度、腾讯、华为等公司付费使用。2016年获黑龙江省科技进步一等奖(排名第2),2020 年获黑龙江省青年科技奖。
报告摘要:去年 12 月 1 日,OpenAI 推了全新一代的对话式人工智能工具 ——ChatGPT,因其表现出了惊艳的语言理解、生成以及知识推理等能力,获得了全网的热议和关注。ChatGPT 的成功表现,使人们看到了解决自然语言处理这一认知智能核心问题的一条可能的路径,并被认为向通用人工智能目标迈出了坚实的一步,将对搜索引擎等应用构成巨大的挑战,甚至将取代很多人的工作,更将颠覆很多领域和行业。那么,ChatGPT 究竟解决了什么科学问题,是如何解决该问题的,以及未来会还有哪些亟待解决的问题呢?希望通过本报告的粗浅分析,能部分回答以上的问题。
演讲主题:“白泽” —— 面向数字发现的跨模态基础模型探索
分享嘉宾:李兵,中科院自动化所模式识别国家重点实验室研究员
个人简介:李兵博士,人民中科创始人、中科院自动化所模式识别国家重点实验室研究员、博导,国家优青,北京市杰青,中科院 “青年学习标兵”,科技部 “新一代人工智能” 重大项目负责人,国家自然科学基金重点项目负责人。长期从事人工智能、跨模态内容理解与安全方向的研究,在包括 IEEE TPAMI 等人工智能权威国际期刊和会议上发表论文 100 余篇,曾获国家自然科学二等奖、中国自动化学会技术发明一等奖。
报告摘要:随着 GPT 技术的快速发展,尤其 ChatGPT 展现出来的出众的智能能力,传统的 AI 研究范式已经被打破。与此同时,面向未来 Web3.0 环境下海量的多源异构的泛视频数据,传统基于单模态内容理解已无法满足高语义级别的内容理解与线索发现。本次报告首先探讨以 ChatGPT 为代表的基础大模型带来的技术思考;其次介绍人民中科自主研发的跨模态基础大模型 —— 白泽的技术特点;最后分享 “白泽” 在数字世界发现领域的一些应用案列。
演讲主题:AI 大模型与软件开发自动化
分享嘉宾:李戈,北京大学计算机学院长聘教授
个人简介:李戈,北京大学长聘教授,博士生导师,教育部长江学者。研究方向包括程序生成、程序理解、深度学习等,是国际上最早从事 “基于深度学习的程序理解与生成” 的研究者,多项成果被国际学者认为是 “首创性成果” 并被广泛引用。至今,所带领的研究团队在多项研究任务中一直保持着国际领先结果,是该领域国际知名的研究团队。科研转化成果 aiXcoder 为航天领域的重大工程、金融与 IT 领域的多家大型企业及数十万国际开发者提供服务。
演讲主题:ChatGPT 对多模态通用生成模型的重要启发
分享嘉宾:卢志武,中国人民大学高瓴人工智能学院教授,博士生导师
个人简介:卢志武,2005 年毕业于北京大学数学科学学院信息科学系,获理学硕士学位;2011 年毕业于香港城市大学计算机系,获 PhD 学位。主要研究方向为机器学习与计算机视觉。设计中文通用多模态预训练模型文澜 BriVL,并发表于 Nature Communications。指导的学生获得 2021 年 CCF 优博、2021 年百度奖学金。
报告摘要:多模态预训练在过去三年得到飞速的发展,涌现出 OpenAI CLIP、Stable Diffusion 等优秀模型。受 ChatGPT 的启发,多模态预训练出现新的变化,开始更关注多模态通用生成。本报告将详细介绍多模态通用生成模型的最新进展,以及我们在这方面的思考和实践。
圆桌嘉宾:王云鹤,华为算法应用部部长
个人简介:王云鹤,华为算法应用部部长。在华为诺亚方舟实验室从事人工智能算法的研发和在实际业务中的应用落地。主要的研究领域包含计算机视觉、机器学习、模型压缩、高能效 AI 计算等,多项算法落地工业界产品,主导的加法神经网络项目受到了业界的广泛关注。在相关领域发表 CCF A 类学术论文 80 余篇,包含 NeurIPS、ICML、CVPR、ICCV、IEEE TPAMI 等。担任 NeurIPS 和 ICML 的领域主席,VALSE 的高级领域主席。
演讲主题:昆仑芯大语言模型优化与部署实践
分享嘉宾:王志鹏,昆仑芯科技研发总监
个人简介:王志鹏,现任昆仑芯科技研发总监,电子科技大学硕士,原百度资深架构师,拥有十余年互联网产品技术研发与管理经验,在云计算和 AI 芯片行业均有多年规划研发与落地经验。曾主导研发百度云基础 IAAS 技术体系,支撑并扩展到上万规模;近几年,整体负责自研 AI 芯片 “昆仑芯 1 代” 和 “昆仑芯 2 代” 在国内互联网的最大规模部署,产品研发工作覆盖搜索、广告、推荐、CV、AIGC、GPT 大模型等所有 AI 关键领域,相关工作拥有多篇技术专利。
演讲主题:ChatYuan —— 国产化ChatGPT开源大模型
分享嘉宾:徐亮,元语智能创始人兼 CEO
个人简介:徐亮,杭州元语智能(元语 AI)创始人,权威中文自然语言理解评价基准 CLUE 发起人、会长。多个颇受欢迎的预训练模型中文版作者(ALBERT_zh/RoBERTa_zh/PromptCLUE),多个大规模中文数据集 (FewCLUE/SimCLUE/DataCLUE/KgCLUE ),Github 开源项目 Star 30000+,连续创业者,原 AI+RPA 厂商算法合伙人。杭州元语智能 (clueai.cn)是一家基于自研国产化类 ChatGPT 大模型的产品平台公司,致力于通用和行业 AI 大模型的产品技术研发及开源开发者生态构建。2022 年 12 月底发布百亿参数的 ChatYuan 功能型对话大模型,并开源近 10 亿参数中文模型,模型累计下载量超 10 万次。目前元语 AI 大模型已覆盖金融、知识教育、零售、医疗等多个行业。
演讲主题:待定
分享嘉宾:张家兴,IDEA 研究院讲席科学家
个人简介:张家兴,IDEA 研究院讲席科学家,北京大学博士,清华大学、香港中文大学、香港科技大学等兼职 / 实践教授。曾任微软亚洲研究院研究员、蚂蚁集团资深算法专家、360 数科首席科学家 / 副总裁。带领团队创建了中文最大的开源预训练模型体系 “封神榜”,开源中文第一个 Stable Diffusion 模型太乙,目前正在建设中文通用人工智能模型。