微软总裁布拉德・史密斯(Brad Smith)在东京接受日经亚洲评论的采访时表示,中国的研究机构和企业将成为 ChatGPT 的重要竞争者。ChatGPT 是一款由 OpenAI 开发的人工智能聊天机器人,微软是 OpenAI 最大的投资者。
史密斯说,中国在生成式人工智能(generative AI)的发展方面不会落后于美国科技巨头,如亚马逊和谷歌。
生成式人工智能是一种能够生成文本和图像等内容的技术,这项技术在商业、艺术、教育和医疗等领域有着巨大的潜力,但也引发了一些担忧,比如它可能会取代许多工作、传播错误信息、侵犯版权、泄露隐私和敏感信息等。
史密斯认为,对于这种技术可能带来的问题,解决办法不是停止创新,而是利用和改进现有的产品。他说,像其他技术一样, 人工智能既可以是工具也可以是武器,他以网络攻击为例。
“我们绝对应该假设,某些国家会利用人工智能发动更强大的网络攻击和网络影响行动,甚至比我们今天看到的还要强大,”他警告说,“我们发现,当技术创新得当时,它实际上可以增强防御能力,而不是进攻能力。”
IT之家注意到,史密斯此次访问日本正值七国集团(G7)工业国家在日本举行会议。日本首相岸田文雄已经表示,日本将在人工智能方面领导制定规则。本月早些时候,岸田还会见了 OpenAI 的首席执行官萨姆・奥尔特曼,讨论了如何保护用户的隐私和安全。
在商业方面,日本已经开始利用 ChatGPT 技术。该国三大银行正在使用它来减轻工作负担,比如回答内部查询和减少文书工作。东京海上等保险公司正在基于 ChatGPT 平台开发一个人工智能系统,用来为保单持有人和保险代理人提供查询的草案答案。
史密斯说,AI 技术可以应对亚洲面临的最大挑战之一:劳动力短缺。“劳动年龄人口必须支持更多已经退休并依赖于工作人口经济增长的人。我们迫切需要找到新的生产力增长来源,”他说,“没有其他办法来增加 GDP。”
而在谈及微软以及 ChatGPT 的竞争对手时,史密斯提到了一个不知名的中国研究院。
“我们看到三个处于绝对前沿的机构,”史密斯说,“一个是 OpenAI 和微软,第二个是谷歌,第三个是 北京智源人工智能研究院(the Beijing Academy of Artificial Intelligence)。”他说,在创新方面,“谁领先谁落后可能会在一年中的不同时间有所变化,但有一件事是绝对不变的:差距几乎总是以月而不是年来衡量。”他称这场竞赛“非常激烈”。
IT之家查询后了解,北京智源人工智能研究院(英译 Beijing Academy of Artificial Intelligence,BAAI) 是人工智能领域的新型研发机构。2018 年 11 月 14 日,在科技部和北京市支持下,联合北京人工智能领域优势单位共建。
北京智源曾在 2021 年 6 月推出当时规模最大、性能领先的多模态大模型“ 悟道 2.0”。这一产品在业内看作是 OpenAI 旗下开源大模型 GPT-2 的竞品。
而在今年年初,智源研究院开发出 FlagOpen(飞智)大模型技术开源体系,旨在打造全面支撑大模型技术发展的开源算法体系和一站式基础软件平台,支持协同创新和开放竞争。
除了北京智源,中国还有多个带有高校背景的 AI 科研团队。
一・清华大学知识工程实验室
清华大学知识工程实验室隶属于清华大学计算机系,同时承担了清华大学和应用国家工程实验室的研究工作。
该实验室成立于 1996 年,致力于网络环境下知识工程理论、方法和应用研究,主要研究内容包括:知识图谱、社会网络、新闻挖掘等。
清华大学知识工程实验室最出名的成果就是 ChatGLM,由清华大学唐杰老师带队开发的一个开源的、支持中英双语的对话语言模型,基于 General Language Model (GLM) 架构,具有 62 亿参数。
结合模型量化技术,用户可以在消费级的显卡上进行本地部署,甚至在 INT4 量化级别下最低只需 6GB 显存,大大降低了大预言模型的使用成本,让老百姓在自家电脑上就能跑国产版的“ChatGPT”。
ChatGLM-6B 使用了和 ChatGPT 相似的技术,针对中文问答和对话进行了优化。
经过约 1T 标识符的中英双语训练,辅以监督微调、反馈自助、人类反馈强化学习等技术的加持,62 亿参数的 ChatGLM-6B 已经能生成相当符合人类偏好的回答。
二・复旦大学自然语言处理实验室
复旦大学自然语言处理实验室由复旦大学首席教授吴立德先生创建,是我国最早开展自然语言处理和信息检索研究的实验室之一。
经过 40 余年发展,在自然语言处理底层分析、文本检索、自动问答、社会媒体分析等方面取得了一系列的研究成果。
复旦大学自然语言处理实验室最出名的作品,就是昨日发布的新版 MOSS 模型,该模型成为国内首个插件增强的开源对话语言模型。
目前,MOSS 模型已上线开源,相关代码、数据、模型参数已在 Github 和 Hugging Face 等平台开放,供科研人员下载。
据介绍,MOSS 是一个支持中英双语和多种插件的开源对话语言模型,moss-moon 系列模型具有 160 亿参数,在 FP16 精度下可在单张 A100 / A800 或两张 3090 显卡运行,在 INT4/8 精度下可在单张 3090 显卡运行。
MOSS 基座语言模型在约七千亿中英文以及代码单词上预训练得到,后续经过对话指令微调、插件增强学习和人类偏好训练具备多轮对话能力及使用多种插件的能力。
参考资料
特别预告,2023 华硕春季新品发布会将于明日(4月 24日)20:00 举办,欢迎前往IT之家 App & 网站观看直播!
另外,今天还更新了几条重要内容:国产电池突飞猛进, 小米高管回应 13 Ultra 可变光圈会晃动,AMD 新一代 APU 曝光, 大家点击下方卡片即可查阅 ↓↓↓