文|令狐伯光
去年ChatGPT面世以来,生成式AI取代这个行业,那个行业就闹了一阵,但后来又渐渐平息。今年年初就已经涌现出一批新的AI大模型:文字生成视频的Sora、支持200万字长文本处理的Kimi,以及文生音频的新星——Suno。
它可怕在哪点呢,之前AI生成就是只有片段还不是整首,现在Suno音乐生成模型,无论用户是否拥有乐理知识,只需输入简单的提示词,比如音乐风格、音乐流派、歌词内容、音色等,等待几秒就能快速生成带有歌词和节拍的2分钟音乐。
近期Suno公司还推出了V3版本,该版本首次能够生成广播质量的音乐,并新增了更丰富的音乐风格和流派选项,比如古典音乐、爵士乐、Hiphop、电子等新潮曲风。官方表示V4版本已经在开发中,并计划推出全新功能。
这个消息一出,自然又是什么“音乐界的ChatGPT”“颠覆音乐圈”“音乐人将失业”等等,这些是无数网友和媒体评价又来了。
这个再结合现在本来就非常溃烂的华语乐坛,岂不是华语音乐最先要完蛋了?
AI音乐生成有多可怕?不至于,但确实也不可小觑我个人还没有体验过这个软件,但是看过一些博主的视频,视频里的歌听下来,基本可以判断这个ai算法就是套和弦做旋律加离调技巧,练习样本基本都是欧美曲库。如果练习样本扩大到各个民族各种风格的音乐,只能说,靠套和弦写歌的音乐人真的吃不上饭了,音乐未来估计只容得下一流艺术家。
怎么讲呢,我们可以参考历史上汽车取代马车,相机取代绘画,影视剧取代戏剧等等行业。其实马车和汽车还不太能对比,因为这个是代步行业没有太多文化价值,后者更适合一些。你看相机,电影并没有完全取代旧有行业,但是旧有行业大大降低是肯定的。
同时在玩法上就变得高精专或者抽象,毕竟新行业(电影和流行音乐因为传播时间短),所以旧有行业的长时间玩法,还有抽象艺术是玩不过传统行业的。
它并没有完全取代,但确实占据了人们的生活,今后流行音乐更难界定抄袭。有了这套工具,独立音乐人其实可以转型成文化产品配乐,一个人一台电脑就能解决游戏,影视,甚至广播剧漫画小说的整套配乐。虽然赚的比以前少,但还算有活路。
我是一个业余音乐爱好者,同时也喜欢喜欢,我们说乐坛烂就是说都是套路,也就是通用和弦。并不指某一首曲子,也不能算得上是一类曲子的通用和弦,这个名词描述的是一种复调写作手法,重要特征为同一个主题(也可能有变化)间隔某一相同节拍叠放。
这里我能想到最好的例子是莫扎特的“品菊”,这首很明显就是一个六声部卡农,写的十分精巧。在向后发展的过程中,卡农就很少单独出现了,一般会作为插段或者发展部的开头。
我十分赞同有人所说“流行音乐是相对简单”的这个观点,事实上这和我认知到的知识层面相当一致。更深一层,我认为其根本原因是人类耳朵的构造本身不能识别过于复杂的东西。现在大家觉得AI取代音乐,偏颇在于这个模型只放在流行音乐上,而且是华语乐坛上。
这样的数据如果想要来概括“音乐”的话,还是有些管中窥豹。因为流行音乐只是音乐的一小部分。像是向古代看,马勒,斯克里亚宾这些人,向近代看,斯特拉文斯基,施尼特凯这些人,向现代看,潘德列茨基,细川俊夫等等这些人,像这样的尝试或者说研究应该能将音乐更多样的表达出来吧。
AI一出,音乐都成了套路?流行音乐确实越来越“套路了”流行音乐的前身更像是极简主义音乐和爵士等风格的杂合体(当然这么说可能也不能完全概括),它既继承了一部分前人所探寻的东西也引入了新的观念。比如说“流量”。这一点让大众来决定了流行音乐会走向何方。
但现代派音乐这种高深的东西真的是大众不能欣赏的吗?
我认为不是,举例子就是电音的发展。电音在上世纪三四十年代出现的时候可是最先锋的一波。到了六十年代像管风琴一样大的机器出现在伯恩斯坦的指挥台旁边时他仍是新鲜玩意。但我们早已对它习以为常了。
用这种技术来创造新的合成器音色,或者用这种技术来模拟已有的音色,都是现在常用的东西。除了这些,在和声的范畴里,在流行音乐中远功能和声已然成为了家常便饭,这也是先前古典时期或者更早巴洛克时期没有的东西。
所以我想,现代派音乐中丰富的技巧会成为流行音乐发展的一部分的。我作为青年也是有想要将我的想法更多的与别人交流的想法的。在这些想法中也不乏批判性的。不论正确与否,这些想法都会是有意义有价值的。
我们所谓的套路和弦,也就是平均歌的评价标准只是歌曲评价标准的一部分,也就是用户期望违背模型——越贴近平均歌,代表着这首歌更满足用户的期望,用户越能猜到这首歌接下来会唱什么,这是双刃剑。
用户能猜到接下来的旋律,代表这首歌落入俗套,但歌曲不满足听众期望也不是好事。
所以这个AI模型往往和信息熵结合起来,也就是期望违背-信息熵模型。2016年Eerola在《Expectancy-Violation and Information-Theoretic Models of Melodic Complexity》论文里面就提出这种模型。
同时“平均歌”本身这个思路也不算新颖,在1984年的时候,Simonton于《Melodic structure and note transition probabilities: A content analysis of 15,618ical themes》中也对15,618个古典乐曲主题进行了内容分析,研究了这些主题的旋律结构和音符转换概率。
MATLAB中,根据这种内容分析,将现有旋律和15,618个古典乐曲的平均水平进行分析,从而得到一个评分,这个评分可以用于评估歌曲的原创性,也就是说,在80年代的思路下,通过对比“平均歌”,也只能证明歌曲的原创性如何,而不能引申出歌曲的“优劣”、“好坏”。
AI暂时取代不了流行音乐?说了你不信,尤其是华语音乐原因就是华语乐坛还很落后,平均歌是个很有意思的应用,用快速傅里叶变换分析音乐波形,直接对波形进行处理,所以相当于是把音乐的所有参数都融入进去了。也就是说,用深度学习神经网络这个黑盒子,进行统一的无差别的识别,因而产生的平均歌理论,是一个从节奏、调式、听感效果等等各方面的平均。
但音乐对于情感的权重是不一样的,在神经网络的黑盒子里,你不清楚节奏、配器、BPM、歌手声音哪个权重更高。
比如2001年如果孙燕姿的歌曲多,那么可能孙燕姿的声音在神经网络面前就是平均歌的标准,而孙燕姿本身的声音音色不能影响太多歌曲的情感。所以针对波形的快速傅里叶变换也有缺陷。更好地,还是应该直接使用MIDI进行分析,但大量的流行音乐MIDI库的搭建是件难题。
同时,华语音乐周杰伦一代黄金时代的结束,归结于音乐的简单化逻辑上略显苍白。华语乐坛的“副歌化”更多地取决于听众的心态和平时接触的流媒体等。AI的诞生一定程度会影响音乐创作,但就如同绘画一般,不会完全导致音乐创作的结束。
而从音乐的简单化说起,文中以卡农和弦为例子,讲述了大部分歌曲采用同样的和声套路、和弦进行,但却没考虑到配器、曲式结构等变化。
最后,主要还是华语流行音乐还是非常落后,我们经常有个感觉是音乐是不是像刘慈欣《诗云》一样,把旋律和套路啥的都写光了。实际上呢,单独就欧美音乐风格,包括古典、爵士、摇滚、朋克、R&B、HOUSE、Britpop、Trip-Hop、Gangsta、Rap、Synth Pop、ORCHESTRA、CHAMBER POP、民歌(FOLK)、BOSSA NOVA、CLASSICAL等等。
华语流行音乐前几十年着重发展在这几方面,内地前三十年是地方民歌、民谣、戏曲和红歌等(以及它们的流行化),崔健开中国摇滚,高晓松等人开内地民谣;香港是粤语民歌,戏曲,流行摇滚,然后就是各种粤语pop。
台湾前三十年和内地音乐重合度很高,70年代民歌运动开台湾新民歌,新民谣,闽南语民谣,再是罗大佑,齐秦的流行摇滚,流行民歌,再到POP,一票音乐人都玩这个。最后就是周杰伦一代开华语RB、说唱、新中国风,再到融合风格。
可能不全面,如果你稍稍懂世界乐坛就会发现,那就是华语音乐风格非常稀少。
这个就像大众天天周杰伦和黄金时代,但在所谓的音乐爱好者当中,他们是不是经常骂“港台芭乐”“都市情歌”,虽然绝对了点,但侧面也证明华语乐坛音乐风格非常稀缺,很多风格独立音乐人,乐队确实有人玩,玩得还不错,但是没多少人听。
而如果华语音乐学习欧美音乐风格,并且做得很好的话,很大程度上就和欧美套路歌曲有较大的区别,这就是融合本土化了,日本音乐就是这么做的。
你要说AI和前人把旋律,编曲和风格都做尽了,你再做也离不开相似和抄袭。
相信我,如果华语观众都能听得出来,那也不会说华语乐坛不行了。简单点讲,同样的旋律改节奏,同样的编曲换配器,这个再结合中文和外国唱法不同,有多少普通人分得出来这个?更不用提,后面还有文化语境带来的不同表达。
只要不明面抄袭,其实任何文化行业都是这么玩的!