当前位置:首页|资讯|AIGC

从唱歌到演出,AIGC与音频生成技术会颠覆艺人的生存模式吗?

作者:中国音乐财经发布时间:2024-04-10

今年3月,Suno V3的爆火引发了全球对AIGC音乐的普遍关注。

AIGC(人工智能生成音乐)作为一种新兴的音乐创作方式,正在逐渐改变音乐产业的格局。

在这一背景下,音频生成领域也呈现出早期阶段的活力与巨大发展潜力。音频生成领域虽然起步较晚,但其发展速度迅猛。声音作为音乐创作的基石,具有强烈的“人身”属性。在音乐作品中,声音不仅是传递情感的载体,更是歌手个性魅力的体现。声音的独特性使得音乐作品具有鲜明的个人风格,成为歌手赖以生存的根本。

从版权到创作,从唱歌到演出,AIGC音乐的发展是否会颠覆艺人行业的生存方式?随着AIGC技术的发展,未来音乐行业将呈现出更大的不确定性更多的可能性,身处音乐行业里的从业者如何看待AI落地应用场景所带来的机会与挑战?

最近,音乐财经与PRO会员朋友们一起在线下探讨了Suno与AIGC音乐发展的话题,以下是现场交流的极简版,供您参考。

电影配乐/作曲 Zoe

我是一个独立作曲者,从高中开始就在音乐学院学习作曲,本科经常跑电影学院去和朋友一起玩文艺片的配乐,之后研究生继续去美国学习老本行。在美国这两年给我最大的启发就是,从附中到本科,这八年时间,大部分学习的音乐作品,一直停留在西方20世纪“当时比较时髦”的音乐文化,觉得这就是新音乐。但去国外听了很多音乐会,接触了更多实验音乐和前卫艺术,才真正有了“contemporary”这个概念。如果只是单纯的学习传统的科班知识,根本就赶不上这个时代的变化了。

身边一些朋友,有时候会局限在自己的小圈子里,象牙塔成为舒适圈,停在里面走不出去。尤其在面临职业选择的时候,很容易“高不成、低不就”。反观现在抖音、快手上的流水线音乐,从赚钱的角度来看,其实可以产生很好的收益,但对一些科班出身的人,就很难放下身段。

Suno的出现,我觉得是一个挺好的工具,因为如何定义一个好的音乐人,或者作曲家?是通过审美、眼光和品味,包括多年的经验与知识的积累,而Suno的诞生能淘汰掉一批甚至可能连和弦都不太能明白的人。这些人现在反而比真正在做音乐的人更赚钱,所以我觉得这种业态并不太公平。

我试用了Suno很多次,它基本可以代替“生产线”上的音乐,除了我觉得中文、声调、咬字和一些字句划分上的问题,还做不到那么强,但对于生成其它语种的歌曲都蛮不错的。

说到赚钱,Suno最有利的一面是降低成本,提高了效率。例如,之前接广告,会与版权音乐公司合作进行授权。那么现在这个环节大概率是不需要了,个人就可以是一个音乐库,随时都可以生成小样发给客户。有一些广告商,为什么有一两百万的音乐预算,也不会轻易尝试去做原创?总的来说就是与其试错,花费不必要的时间,不如就花重金够买现有的欧美大流行版权。现在Suno出现了,其实能够更好的帮助独立音乐工作者,效率的提高,至少能帮助你赢得与客户讨论创意的时间。

成本问题很重要,客户需要考虑预算,你作为团队的甲方,规划各个环节的预算是件很麻烦的事。我经历过很多不同的报价,我发现这里面水很深。与商业项目相关的,有些高报价的和淘宝几百块的没什么区别,都是一个模版套路出活。我甚至还在某书上刷到了12.8元的编曲,我就觉得这个行业真的是挺混沌状态。与其这样,不如借助AI加速这个行业的洗牌。

工具的出现必然会创造更多的价值,AI提供了新的生产方式,除了节省开支,进行更好的价值分配,我觉得对于个人价值的体现也会有更好的促进,同样都用AI,为什么有的人就能更甚一筹?这就关乎于个人的经验、音乐审美与知识积累。

Suno有时候还会给我意外的惊喜。我之前尝试生成过一个Boogie-woogie的音乐,Suno自己帮我加了一段break,很吸引我的耳朵,我就觉得,嗯,我都没想到,它想到了。

有些时候,输入完prompt等待生成的过程,甚至有一种开盲盒的期待感。所以我认为完全没必要去纠结会不会淘汰人类,你想把它使用很好,首先你就得把自己提升的更好,你用它生成的产物才会更准确。它在鞭策你,让你向上提升,这个过程中把它当成玩具去玩就好。

索尼音乐A&R Tracy

我来自唱片公司,平时的工作主要是做艺人,也负责OST这一块的项目。

今天的主题是探讨Suno如何重塑音乐行业。对于我来说,一开始AI图片生成我也都有关注,我知道AIGC音乐生成的软件特别强大,这些玩法和模型,我都有去试过,我当时的感觉是如果用AI去好好做一个音乐,可能对音乐有审美的人的要求,就还是有门槛的。

虽然我对AI没有那么深的研究,但我感觉如果要再提升一个层次,最终还是要靠人的能力,也就是使用AI工具的这帮人如何把作品更好地优化。

现在AI已经可以唱了,再发展发展,其实未来平台也会把这些歌手的声音采集放进去。先不说侵权与否的问题,哪怕不采集一个很有名的歌手,就对一个唱得很好的普通歌手做声音采样,足够精细后出来的AI作品也会挺好听的,有情感、曲线和起伏,呼吸甚至都很明显。

至于AI会不会取代人?其实就拿艺人来讲好了,我们刚才聊到Taylor Swift和个人IP的打造,因为大家之所以会崇拜明星或者是会追星,会去喜欢一个IP,当成一个信仰,其实不光是对方唱歌好听,写歌好听,还有个人魅力的原因。比如喜欢周深的粉丝,也不单纯只是因为他是天籁之音,还有他这个人所有魅力的加持。

作为音乐行业艺人的角度来讲,还是有不可判断和不可预知性在里面,这也是最有魅力的部分,AI可以有足够“库”的分析,建模可以建得足够好,但人的个性和一些现场表现,是没有办法被算出来的东西。比如我们经常会录音,有的歌手我就知道他会唱成什么样子,大致有一个判断,但经常在录音棚里会给到一些惊喜,哪怕在特定的环境当中会被认为是有瑕疵的,但也会被保留下来,这个才是魅力的一部分。

所以我觉得AI哪怕太好了,运转得非常精准、无可挑剔,反而会让你望而生畏,人类的瑕疵和不完美也是魅力的组成,短期内至少不会颠覆音乐人。

作为AI工具,现在会是一个助手。作为A&R的岗位,因为本身我们在做一个艺人的服务,不管是专辑也好,还是单曲也好,你做规划的时候一定是要有足够的准备,原来是靠我们从库里面去找,或者靠我们自己的经验,现在有AI了,可以生成一个去感觉,有的时候也会让我们觉得眼前一亮。另外一个功能我认为是在编曲上给到我们灵感的提示。

在信息处理上,我们人的脑子肯定比AI要弱很多,AI起到的是信息集中处理的功能,创造性的东西还是要靠人。

梦梦 演出行业

我在演出场馆工作,做一些线下演唱会的活动。虽然专业不是音乐相关,但是我对音乐行业很感兴趣。

我属于大众用户,有一点灵感,想做一个类型的音乐,但是我完全不懂,做不出来,这时候就可以让Suno帮我做。所以对我这样的普通爱好者来讲,AI工具就是帮我去实现梦想、实现想法的一个工具。

但是我也觉得有一个问题,就是它会更加需要使用者对音乐整体的感觉。就像我们在工作中,领导交给我们一件事,你具体去执行,那我们让Suno去做也是这样的感觉,一定要有一个明确的想法和指令,不然的话,做出来也是一团糟,AI自己可能不太知道要出来的是一个什么样的成品,也是在指令下去试,不断地去尝试和打造出来。我觉得这对于我们人类来说,肯定要求会更高了。

但是我还有一个疑问,为什么AI一定要去代替人类呢?

当然从商业逻辑上来说,我们花大价钱去研发出来这个技术,它一定能更省钱代替一些人力成本。但是从大面上说,人归人,AI归AI,是否让AI去探索一些人类达不到的领域?我觉得这是比较有趣的东西,就像刚才Tracy老师说了,人类的独特之处,在于人类会有瑕疵,AI不会。

还有什么是人类和AI不同的点吗?我认为是思维模式不一样,虽然我不知道AI的思维和意识是怎么诞生的,虽然AI是人类造出来的,但这根本就是两个物种,那我们能不能各干各的,去探索各自的极限?

因为我现在入行才两年多时间,本身经验比较少,就不发表更多的意见了,我觉得AI工具在演出行业的应用,比如虚拟歌手演唱会的探索等,也采用大量的AI技术。因为我自己本身也追星,对于现场演出来说,我认为还是看“真人”才是更重要的吸引力

佳懿 歌手/商务

我一直学唱歌,毕业后给艺人做声乐指导,现在转行在一家公司做商务。

因为我本人是学唱歌出身,AI对于我这样不是专业学作曲和制作的人来说,是一个非常好的工具。因为在过去,我要想弄一首作品出来还挺费精力的,毕竟不是专业学音乐制作和编曲的,所以Suno这一类AI工具诞生之后,它就大大地提升了我的工作效率。

我刚才一直在听各位老师的分享,处于学习的状态,非常受益。

刚才老师提到了虚拟歌手,因为之前会经常看到一些项目,比如找真人来录制AI项目的声音,就我本人而言,其实是很抗拒的,因为不希望自己的人声被提前采集。对于一个处于发展期的歌手来说,AI歌声这种事情还是会对自己事业产生一定的负面影响。

我不知道各位是怎么看待这个问题的?当平台找一些歌手去录制他们的声音,应用到各种场景,可以理解成被采集的声控,你的声音会被传播到所有地方,但没有人会知道你是谁。相当于大家可能记住了你的声音,但并不知道你真人是谁,对于一个想要一直做歌手的人来说,想一直在音乐行业发展,我会认为这种方式并不友好。

虚拟艺人前两年特别火,我也做过一段时间,我朋友的公司做这个方向。我给他们做了一段时间的音乐指导,因为虚拟艺人也要做歌。

洛天依和初音未来的声音属于它自己软件库里的声库,故意做得没有那么象真人,面向二次元群体。而前两年特别流行超写实艺人,做得很逼真,特别写实,采集的也是真人的声音。这个虚拟艺人后面有中之人穿“动捕”设备直播,互动是平等的,主打真诚,也有人设,比如歌就是唱得好,创作能力强等。

但是,我其实完全没有想通虚拟艺人行业的逻辑。 砸钱吧,给到实际歌手的费用又不多。其实对歌手来说,去做虚拟艺人的歌就是当一个活儿在干,公司大部分钱是花在了形象和推广上。而且, 这些形象既没有很强的内核,内容又不够好......说实话,这个问题困惑我很久了,真的不理解花这么钱和资源做这个玩意是为什么?

小葛 音乐人/商务

我入行快十年了,曾经在AI音乐科技公司干过几年,在版权音乐公司干过几年,也算比较了解一些内幕。

我之前做AI音乐数据模型这一类,15年到18年期间,我跟我老师罗俊霖一起在做AI音乐,希望通过大数据引领AI技术革新改变音乐创作的形式。他其实在2005年就开始研究AI作曲了,这个模型在2008年的时候就已经在写了,比现在版权市场上的很多歌写得要好太多了,但就是一直没有推广。15年到16年,我们正式开始做公司这个事。

对于AI音乐,我先说结论,当时的技术水平还达不到真正的人工智能音乐,因为它的逻辑完全不是人做音乐的关系,AI音乐的逻辑相当于神经元系统——把所有的分轨文件、音频文件、乐器文件都打上不同的标签,通过标签的各种组合,触发标签与标签之间嵌套的一种方式来定义音乐,所以是类似于组合形式的模型。

在这个过程中,服务器承载量极度消耗算力,这个问题很大,一般的服务器带不起来。我们当时创业失败面临的最大问题就是带不动服务器,所以生成速度很慢,等十分钟才出来,那谁会用?所以在18年这个期间,我们算是国内最早一批做AI音乐的公司。

算力的问题对于AI来说一直存在,虽然谈过很多融资,但是平台投的钱太少了,我们知道靠这一点钱根本不可能实现目标。因为我们算过一个成本,天使轮就需要2亿的资金,才能烧得动这么大的数据模型库。你的数据库做得越好,出来的音乐就越好,我们在那个阶段不可能融到那么多钱来烧,国内撑死融两千万,这笔钱对我们来说就只是用于程序开发阶段。

这是当时我们遇到的困难,AI模型和做音乐的思维完全不一样,可能听起来做AI会更加准确,做出来会更好听,但实际上不是人创作的思维,也不是“一生二”那种变的思维。

所以,我觉得未来AI不会淘汰掉音乐领域的人。尤其是不会淘汰市场上口碑好、需求理解能力强的音乐人。因为越到后面,对人的这种需求就会越来越明显,这种能力类似于理解能力强,能不能get到别人的心很重要。

此外,创意很强的人,擅长做决策的人也不会被淘汰,演出类也不会,因为更加注重现场的表达和情绪感染能力。而且,真正的作曲家和艺术家不会被淘汰,我觉得厂牌以后签人的逻辑也会完全不同,就变成纯粹签艺术家的逻辑了。

从平台的视角去看的话,假如说我们设想一种极端情况,比如AI音乐的播放数据对业务的收益贡献,要远远好于人类作曲家的音乐。那平台方有什么动力去给音乐人分这么多钱呢?这值得思考。

汪石唱片公司 A&R

我在三大做A&R,一直在音乐行业工作,对AI这部分我不是那么了解,今天听了很多分享,也学到很多。我蛮赞同Tracy的说法,它还是一个辅助性的工具,并不能改变我们整个的创意流程,或者是我们跟艺人的工作模式,至少在短期内看不会改变。

刚才聊到数据库,我也蛮有感受的,就好像我们当年做音乐制作,音色不断在升级,音色包不断扩大,越来越精细。在某种程度上讲跟我们音乐制作的逻辑是一样的,我积累这些人声的素材,采样各种人声的素材,把这个数据库做得越来越完整,就可以生成一个更好的素材,所以底层逻辑没有变。

十年前,我关注到初音未来,那个时候是用Vocal的软件来做,现在实际上是一个人声的采样,用我们音频后期修音卖的方式,去给这个声音的采样画上表情,然后变成一个来自于未来的人声。我的想法比较单纯,Suno这些工具的出现把这个过程自动化了,变快了,以一套算法代替了手动“画”的过程。

现在播放器的版权价值被稀释,上线的歌曲数量多,对我们来说是一个巨大的挑战,尤其是我们制作一首歌的成本那么高,版权收入那么低,我们怎么去评价这个东西呢?就很难,站在唱片公司的角度,我们很多时候更在意作品、品质和艺人的综合发展,实际上,唱片公司现在制作专辑的预算也是逐年递减的。

如果按照现在编曲可以退休的趋势,那我们真的会拥抱这个工具,以低成本的方式,基于自身业务运作的逻辑上去使用它,从这个角度来看,AI能给到A&R一些帮助。

Henry 技术/音乐爱好者

我是一个IT从业者,音乐是我的兴趣爱好。我最近刚从公司离职,现在转成自由职业,给一些公司做AI方面的顾问服务。

我是80后,感觉在市场上已经属于比较暮气沉沉的一波人了,但我感觉和大多数同龄人不一样,对音乐的兴趣还是比较活跃。我以前也组过乐队,一直对音乐和技术产业的交叉发展感兴趣。

因为我一直挺关注AI的,去年AI孙燕姿很火,大家一直在探讨AI在声音方面的突破。Suno这家公司其实已经默默做了两年多,v2版本就已经挺惊艳了。之前我在网上看各种文章,也看B站和YouTube的视频解说,大家的讨论各种各样。我看大多数其实都是捕风捉影,是臆想的。顺着Suno公司的历史和转变,可能会有不一样的理解。

本来Suno一开始跟现在市面上的很多的AI公司一样,他们最早根本也没想到生成音乐的主意,而是主打文字合成语音。后来被客户问到能不能AI生成音乐,他们觉得能,投资人也愿意给足够的钱,那就做吧。这个团队最早是做声学的,最早的职业生涯是在一家公司里替公司把语音电话录下来,给转成文字。因为客户可能来自各种国家、各种语言、出现各种不清楚的声音,客服人员根本都听不清楚。总之,声音识别和反过来文字生成声音是他们一直专攻的方向。

他们的投资人其实非常清楚做这个领域的尝试会与音乐行业为敌,也会有许多随之而来的法律问题,但是因为看好这个团队,还是投了,原因也很简单,投资人跟音乐行业没有什么利益交集。

Suno就是这么一个草根产品,整个公司到现在不过十几个人,但它做到v2的效果挺好的,后来微软给了很多钱内置到微软的copilot服务里面,微软现在是最大的金主。但是他们对商业模式其实并没有什么设计,跟很多AI公司一样,先做出来再看市场。所以很多人以为的“Suno的商业模式blah blah”其实并不准确。

因为我是搞技术出身,很早就在关注他们的原理,我追踪了挺久,没见过他们有任何的披露。但是侧面从各种访谈里能看出来肯定是基于“频谱”。这意味着,它实际上是根据频率看图,一个声音构成一个频谱图,从技术上讲是图片识别,跟音乐没关系。但是它比从前的音乐生成技术革新的一点在于它使用了transformer和diffusion技术,这也是这一轮AI革新带来的新技术。

但是它原始训练的库用的是谁的呢?他们无论如何也不肯披露,我推测肯定AI训练的过程中毫无疑问有这种未经授权的训练,但是因为生成的歌曲你又看不出来,或者没法证明,实际上很可能所有公开播放的歌曲都被投喂过。因为Suno不像别的公司模型都开源了,所以人都可以在那上面继续训练,喂进去的什么样奇怪的东西都有。

目前看,Suno比较可控的一点是规避了真人,比如你不可能让它直接生成一首薛之谦风格的歌曲,但凡是人名,或者有名的音乐明星,都在训练的时候就故意屏蔽了,你很难抓到他的把柄。但是你不知道怎么仍然会触发某个明星的风格,只不过这很难作为证据。

从Suno自己多次表达的出发点,他们是想降低音乐制作的门槛,让普通用户有一种心理满足,做属于自己的音乐,带来一种情绪价值。但在商业上,不管2C还是2B,因为尚不明确的法律问题,我认为至少现在还是很难有明显的商业模式。

本文来自微信公众号“音乐财经”(ID:musicbusiness),作者:董露茜,36氪经授权发布。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1