当前位置:首页|资讯|ChatGPT|人工智能

MIT团队开发新型AI光子计算芯片,实现计算效率提高100倍

作者:DeepTech深科技发布时间:2023-07-31

原标题:MIT团队开发新型AI光子计算芯片,实现计算效率提高100倍

“ChatGPT 的模型大小受到当今超级计算机能力的限制,训练更大的模型在经济上是不可行的。我们的新技术可以使跨越式机器学习模型成为可能,否则在不久的将来是无法实现的[1]。”麻省理工学院(MIT)的迪尔克·英格伦(Dirk Englund)教授对媒体表示。

最近,MIT 光学人工智能团队首次提出将“时间-空间复用”应用在计算的光芯片设计理念,并采用光电效应做乘法和加法运算。这个计算架构在垂直表面发射激光器(vertical-cavity surface-emitting laser,VCSEL)阵列实现,并进行实验验证,实现了整体性能突破。

值得关注的是,该系统实现了光学计算芯片对电子计算的优势,提升了 100 倍的能量效率和 20 倍的计算密度,有望在近期内实现多个数量级的提升。

图丨时间-空间复用的光芯片架构实现了五方面整体性能突破(来源:Nature Photonics)

7 月 17 日,相关论文以《使用相干 VCSEL 神经网络的深度学习》(Deep learning with coherent VCSEL neural networks)为题发表在 Nature Photonics 上[2]。

MIT 陈在俊博士(现美国南加州大学,University of Southern California,USC 助理教授)为论文的第一作者兼通讯作者,访问科学家瑞安·哈默利(Ryan Hamerly),迪尔克·英格伦(Dirk Englund)教授为该论文的共同通讯作者。

图丨相关论文(来源:Nature Photonics)

人工智能(AI)在近期内成为我们触手可及的技术,正在对人们的生活和工作方式产生颠覆性的变化。ChatGPT 等生成式 AI 能够根据用户的简短描述撰写出色的论文、电子邮件,甚至代替工程师写出可用的代码程序。

这些人工智能的模型通过大规模训练产生,其模型越大,智能程度则越高,ChatGPT 运转的 GPT 模型已经超过 1 万亿参数。

然而,运转如此大规模的 AI 模型需要巨大的计算能力、时间和能量。例如,训练 GPT-4 用到 16000 个 NVIDIA A100 GPU 连续运转 4 至 7 个月,消耗成本高达 1 亿美金($100M)。

图丨AI 光子计算芯片概念图(图片设计:Ella Maru Studio,来源:陈在俊)

光学芯片是在光而非电子的运动基础上进行计算。由于超高光学带宽和低损耗的数据传输,光计算芯片有可能在短期内实现几个数量级的算力突破,从而成为下一代计算处理器。但是,目前,与电子计算芯片相比,光计算芯片的能耗、计算密度等性能仍然有显著差距,可规模化程度低。

其主要原因包括:电光转换的效率较低导致的高能耗、集成光器件的尺寸较大导致计算密度低、缺少非线性运算导致高延时等。因此总体来说,计算机芯片的速度、能量效率、规模化已成为人工智能发展的决定性因素。

图丨麻省理工学院光计算芯片原型机,集成 400 个微型激光器(来源:Nature Photonics)

现有的光学计算系统相比,这种新型光电系统具有三方面的优势,包括低能量损耗、高计算密度、光学非线性。

为了与现有的电子计算机结合,光学计算将基于电信号转换为光信号进行处理。然而,光-电转换消耗的能量较大。陈在俊表示:“我们使用了一种微型激光器新型的调制模式(半波电压仅为 4mV),实现了 5x10-18J/symbol 的转化效率,这个转化效率高于其他光电调制器 5 个数量级。”

与电子中的晶体管相比,集成光学器件体积较大并且占据大量空间(最先进的光学调制器长度约为 1 厘米)。因此,该团队在计算架构采用了一种尺寸非常小的激光阵列(每个器件小于 100 微米大小),可以实现从光源上直接进行调制,无需依赖外接光调制器。

光学非常擅长线性计算,但它们并不适合做非线性计算。虽然在光学神经网络中中引入非线性有多种方法,但是要实现低能耗、高集成密度的非线性难度很大。“本次架构中首次采用了光电效应引入非线性,运转在量子噪声极限和瞬时反应(instantaneous response)。”他说。

图丨论文第一作者兼通讯作者,现南加州大学助理教授陈在俊(来源:USC 课题组网站)

该团队在实验中发现,基于微型激光器的光学调制器(单器件大小 10 微米)效率很高,能运转在毫伏 mV 级别的半波电压(V)。陈在俊指出,这是令人比较惊讶的,因为即使是最先进的光学调制器,也大概需要 1V 以上的驱动电压。“而且,我们实验中很快实现并应用了 100 个这样的调制器。”

光学计算领域专家、耶鲁大学洛根·莱特(Logan Wright)教授对该研究评价称,“陈在俊等人的工作,基于调制 VCSEL 阵列的系统可能是实现大规模、高速光学神经网络的可行途径,这一点鼓舞着我以及该领域的许多其他研究人员。”

并且他对该技术的发展前景给予充分肯定,他认为,虽然目前这技术仍远未达到实际有用设备所需的规模和成本,但对未来几年可以实现的目标感到乐观,特别是考虑到这些系统必须加速非常大规模、非常昂贵的人工智能系统,例如 ChatGPT 等流行文本 GPT 系统中使用的系统。

图丨新型 AI 光子计算芯片系统实验方案和结果(来源:Nature Photonics)

据悉,目前团队已经相关申请专利。实际上,VCSEL 阵列是一种相对成熟的技术,在工业界已经实现了量产,例如用于智能手机中的人脸识别,在光通信中用于数据传输等。“所以,我们的系统可以通过整合目前已有的集成封装技术,加速规模化。”陈在俊表示。

值得一提的是,该研究在 2023 年 1 月份的美国西部国际光电展览会(Photonics West)光学会议上获得了美国国际光电学工程协会颁发的机器学习和人工智能领域的最佳论文奖(唯一获奖论文)。目前,南加州大学陈在俊课题组致力于开发高算力、规模化的光学 AI 计算方法。

参考资料:

1.https://mrl.mit.edu/article/computer_system_based_on_light_could_jumpstart_power_of_ChatGPT

2.Chen, Z., Sludds, A., Davis, R. et al. Deep learning with coherent VCSEL neural networks. Nature Photonics (2023). https://doi.org/10.1038/s41566-023-01233-w


Copyright © 2025 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1