26 / 03 / 23
很多人第一次用 AI 做音乐,都会有一种很强的爽感,两年前我也觉得很爽,但是后来很长一段时间没有玩,最近又玩了一段时间Suno,感受挺复杂的。
在Suno中,你输几个提示词,选一个风格,等一会儿,一段像模像样的音乐就出来了。尤其如果你只是想给 vlog 配乐,给短视频垫一点情绪,或者给教学视频加一层背景氛围,它确实很好用。以前还得去素材库里慢慢翻,找版权、找风格、来回试听,现在 AI 等于直接给你现做一份,效率高很多。
所以 AI 音乐的优点并不难总结:快、便宜、门槛低,而且对普通人特别友好。
你不需要懂太多乐理,也不一定真的会编曲、会写旋律,只要会描述,最后大概率都能拿到一个还过得去的结果。对于很多只是“需要一段音乐”的人来说,这已经很够用了。
但我自己玩了一阵之后,慢慢开始觉得,AI 音乐真正值得想的地方,不是它能不能生成音乐,而是它生成出来的这个东西,到底算不算“创作”。
因为它很容易给人一种错觉:你好像在创作。可很多时候,你其实更像是在刷结果。
你给它提示词,它生成一版;不满意,再来一版;还不对,再改几个词继续试。这个过程当然不是完全没有参与感,但更像是在点选,而不是在创作。那种感觉有点像玩游戏,也有点像刷短视频:你动一下手,它马上给你反馈,然后你在一堆结果里挑一个自己最能接受的。
这和传统音乐创作里那种手艺感,差别还是挺大的。
真正做音乐的人,不管是写旋律、编和弦、调音色,还是慢慢磨结构,那个过程里其实有很多“摩擦”。而我越来越觉得,这种摩擦不是坏事,反而很重要。你卡住、犹豫、推翻、重来,这些东西听起来很麻烦,但它们往往就是创作本身的一部分。很多真正属于你的东西,不是在“顺滑”里出来的,而是在反复拉扯里慢慢长出来的。
AI 音乐厉害的地方,是它把这个过程压得非常短。它帮你省时间,这没问题,但它也顺手把很多思考的纹理一起抹平了。所以如果你问我,我会更愿意把 AI 音乐看成一种素材工具,而不是一个可以直接替你完成创作的东西。
它很适合拿来做草稿、做灵感、做碎片。你脑子里有个模糊感觉,它能先甩给你十几个方向,让你知道自己大概喜欢什么、不喜欢什么。从这个意义上说,它当然有价值。
但如果你想要的是一种更细、更准、更独特、更真正属于你自己的东西,它现在还是差一点。因为它的颗粒度不够细。它没办法让你真的控制每一个音符、每一个和弦到底怎么走,也没办法保证最后出来的东西,真的就是你脑子里那个很微妙的感觉。
说得直接一点,它更像是在猜你想要什么,而不是帮你把你真正想要的东西做出来。
而且我后来越想越觉得,AI 音乐还有一个更深的问题:它很难真的建立一种人与人之间共享的情感空间。
有些音乐为什么会打动人?不只是因为它旋律好听,也不只是因为制作精良,而是因为你能感觉到后面有一个“人”在表达。你在听的,不只是声音本身,也是一个人的经验、情绪、性格、审美,甚至是他的犹豫和局限。
我们听音乐,某种程度上其实也是在接触别人的人性。但 AI 音乐常常缺的,就是这个东西。
它可以很顺耳,也可以很完整,甚至可以“挺像一首歌”,但你很难真的和它建立特别深的连接。你未必会觉得它难听,有时甚至会觉得还不错,但那种“这首歌真的在替我说话”或者“我真的听见了某个人”的感觉,往往比较少。它更像一个包装完整的结果,而不是一个带着生命经验的表达。
所以我有时候会觉得,AI 音乐很像一种自娱自乐。你做出来之后,自己会有点开心,觉得“这是我做的”。但这里面到底有多少是你,多少只是系统根据你的关键词帮你拼出来的,其实很难说。更现实一点讲,这种快乐也挺像刷短视频带来的快乐:来得快,即时,不太需要等待,也不太需要长期投入。你按一下,它就给你结果。这个机制当然很容易让人上瘾,因为它给的是一种非常迅速、非常廉价的多巴胺反馈。
但问题是,来得太容易的满足,通常也会比较浅。它很适合解决“我现在就想要一个结果”,但不一定能帮你回答“我到底想表达什么”。所以如果把 AI 音乐当成一种功能型工具,我觉得完全没问题;但如果直接把它抬到艺术创作的高度,我还是会保留很大的怀疑。
当然,这也不是说 AI 音乐没有价值。恰恰相反,我觉得它接下来会对很多行业产生很直接的影响,尤其是在配乐和后期制作这一块。
像短视频、vlog、商业展示、小成本网剧、教学内容,这些场景对音乐的要求本来就常常是“够用就行”“情绪对就行”“预算别太高”。在这种地方,AI 音乐的替代性会非常强。它未必能取代顶级电影配乐师,但大概率会打击大量中低端、标准化、功能性的音乐生产工作。
原因也不难理解。AI 最擅长的,本来就不是发明一个全新的世界,而是把旧世界里的东西重新调出来、重新打包、重新组合,然后快速给你一个“看起来没什么问题”的答案。它最容易做到的是平均意义上的合格,而不是少数时刻的真正突破。
而艺术最珍贵的地方,很多时候恰恰不是合格,而是突破。 真正厉害的艺术家,往往不是把已经有的东西排得更整齐,而是会把边界往外推一点。他会带来一点你之前没见过的东西,可能一开始你还不一定能接受,但过一段时间你会发现,原来审美还能这样被打开。AI 目前比较难做到这一步。它能模仿过去,但很难通向未来。
所以我现在更愿意把 AI 音乐理解成一种“已有世界的高速提取器”,而不是“未知世界的开启者”。
再往后看,我觉得 AI 还会改变一件更大的事:它会改变“做音乐”这件事在社会里的位置。
也许在 AI 之后,写作、编曲、画画、做网站,这些原本带有明确职业属性的能力,会慢慢有一部分变成休闲活动、个人手艺,甚至是一种日常消遣。未来做音乐,也许不会消失,但它未必还能像以前那样,天然就能稳定地进入市场、产生收入。它可能会越来越像一种生活方式,一种表达方式,一种手艺。
这件事不一定全是坏事,但对很多现实中的人来说,它会很残酷。因为技术转换从来不是抽象发生的,它最后一定会落到具体的人身上。对已经靠这些技能谋生的人来说,这不是一句“效率提高了”就能轻轻带过的事,它同时也是身份、收入和价值感的重新洗牌。所以我会觉得,在这种转换里,还是应该给旧的一代留一点缓冲的时间。
不过事情也不是只有悲观的一面。
我反而觉得,AI 越强,越会把一些以前被忽略的东西重新凸显出来。比如现场演奏的价值,比如真实演唱的价值,在同一空间共同呼吸,共同交流的价值。
一个作品如果被修得太完美,大家反而会开始怀疑:这里面到底用了多少 AI?改了多少遍?最后还有多少是你本人?在这种情况下,现场感、手工感、那种带点瑕疵但很真实的人味,反而会变得更珍贵。一个真正站在台上演奏、唱得未必百分百完美但很有生命力的人,可能会比一个“生成得很完整”的成品更打动人。
某种程度上,现场演奏也许就是音乐手艺人未来还能守住的一块阵地。
所以说到底,我对 AI 音乐的态度并不是反对,我更愿意把它当成一种工具,一个素材机,一个能陪你快速试错、快速找感觉的系统。它在这个位置上,其实挺有用的。
但我还是会觉得,最好不要把自己整个交给它。因为你一旦太依赖它,最后表达出来的,很可能就不是你真正想说的东西,而只是一个被算法整理过、被平均化处理过的版本。
未来会不会出现真正的“AI 原生创作者”?我觉得这是有可能的。而且那种东西,也不一定就比现在差。只是它可能会失去一些东西,同时也会长出一些我们今天还想象不到的新东西。
所以我现在的态度,可能更接近一种保留判断:AI 音乐已经很有用了,这点没什么好否认的。但它离真正的创造,我觉得还是差着一些最关键的东西。那些东西可能叫灵魂,可能叫经验,可能叫人与人之间难以替代的共鸣,也可能只是创作过程中那种缓慢、笨拙、但真实的摩擦感。
而偏偏,很多最重要的东西,就是没法一键生成。
