2023年,以ChatGPT为首的生成式AI以迅雷不及掩耳之势,引爆了全球人工智能产业的浪潮,从算法到算力,从机器学习到深度学习,无数人把目光投向了大模型。
而在去年11月的深圳西丽湖论坛上,百度李彦宏对当前的AI行业做出评价,他认为“AI原生时代,我们需要100万量级的AI原生应用,但是不需要100个大模型。”
事实当真如此吗?AI应用的开发前景胜过大模型的开发前景?
对于中小企业和创业者来说,的确如此。
首先开发大模型需要投入的成本非中小企业可以承受。大模型训练的成本主要来自于硬件成本和电力成本。在硬件方面,大模型训练往往需要开发商长期投入大量的专业级AI芯片,然而根据目前市场报价,一颗A100(80GB)芯片的售价高达1.5万美元,H100的单价更是炒到了4万美元,而训练一个千亿级参数的大模型,通常需要上万颗A100的算力,可见训练出一个成熟的大模型需要投入的成本并非任何一家普通企业可接受的。
开发和运维大模型的全过程中需要大量的算力提供支持,成千上百的GPU设备同时运行时消耗大量的电力,占据了大模型训练约60%的成本。据斯坦福人工智能研究所(HAI)发布的《2023年人工智能指数报告》显示,1750亿参数的GPT-3在2022年耗电量高达1287兆瓦时,相当于120 个美国家庭1年的用电量,即便是Hugging Face更为高效的BLOOM模型,耗电量也达到了433兆瓦时,足够为一个美国普通家庭供电41年。
除非企业向算力供应商比如算力云租用GPU服务器,按需使用计算资源,将电力消耗的成本转移至算力提供商,从而节省电力成本;同时这些算力服务提供商具有高效的资源管理系统和专业的维护团队,可以确保GPU服务器高效运行,也节省了企业在机器维护管理方面的成本。新年伊始,算力云平台也推出了全平台7.5折的福利!
大模型越高级越复杂,所需算力规模越大,投入的成本越高。以OpenAI为例,开发 ChatGPT和GPT-4亏损了约5.4亿美元,仅维持运行ChatGPT,每天就要投入大约70万美元的算力成本。超高的成本和不确定的商业变现之路,是中小企业和创业者不敢轻易入局大模型开发的主要原因。即使现在也有很多专业的算力租赁平台,例如算力云能为大模型训练推理提供GPU租用服务,但对于现阶段国内大模型大热的情况下,远远不够。
因此发展AI应用对于中小企业是个不错的选择。
当前,众多企业纷纷布局AI应用的研发,其应用范围在不断拓展,从最初的文本信息处理,逐渐发展至语音识别、图像分析、视频解析等多模态领域。这种发展趋势不仅丰富了AI技术的应用场景,而且提升了AI在实际生活中的渗透率。在这个过程中,各企业纷纷挖掘AI多模态应用的潜力,竞相研发具有创新性和实用性的产品和服务,以期在AI时代中抢占先机。
尤其是在2023年,几乎每隔一段时间,就会有一个爆款AI应用横空出世,刷新着我们对于AI的认知。
比如一款支持视频语言“无缝切换”的AI应用软件——Heygen,创作者只需要上传视频并选择要翻译的语言,就可以实现自动翻译、调整音色、匹配嘴型。
利用这款软件生成的“泰勒说普通话”的视频,“郭德纲、赵本山说英文段子”的视频在各大社交媒体上疯传。
谁能想到,泰勒说着一口地道的中文,声调、音色与原声几无二致,就连嘴型也能完美对上的视频竟然是由AI软件创作的,简直是毫无破绽,堪称视频翻译的典范。
在2024年农历新年来临之际,通义千问APP上线了照相馆应用的全家福板块,用AI技术打开了新年新玩法。用户只需按照要求上传家庭成员照片,即可生成对应的数字形象,然后将数字人和模板中的人物形象匹配,由此足不出户定制全家福照片。
目前国内外已经涌现了一批优秀的单人人像生成的AI应用,相比单人人像生成,多人人像生成难度更高、技术更复杂,恰逢过年,具有很大的商业化潜力。
2023年到至今我们已经见证了AI在诸多领域所带来的颠覆性变革,然而害有许多尚未被发现的需求等待着通过AI应用来满足。从医疗健康、教育、交通,到金融服务、智能制造,AI的应用潜力无处不在。
越早布局AI应用,才能越快挖掘其潜力,抢占行业发展的新机遇。
今日的算力云分享到此结束啦,我们下期再见。如果你有想要了解更多AI或算力资讯,欢迎关注小编。