感谢回复!当我们谈论到“音乐性”的时候,意味着我们在用一种相当抽象的语言来描述声音这种客观存在的事物。一般来说人们倾向于使用这样综合而抽象的语言来形容一个普通演奏者和专业演奏家在演奏出来的音乐上听觉的区别。比如马友友演奏的《Salut d'amour》和欧阳娜娜演奏的版本。当我一听我就觉得,嗯,还是马友友的更有味道,更有所谓的音乐性。
但是当你从技术的角度拆分的去看这个问题,你会发现从音乐这种相对宏观的角度来看区别在于节奏快慢,强弱变换,对乐谱的理解,演奏技法的细微不同,这种不同是导致两个演奏者作品不同的根本原因。而所谓的感情投入则是映射到演奏过程中去的。
而当你从声学这样微观的角度来说的时候,形成你听觉的就是声音的三要素,频率,响度和音色。人耳确实有相当高的声音分辨率,但是仍然是有极限的。极限的存在就限制了我们听觉能力不可能随科技发展而发展这样一个事实。
如果你是做声音工作的,那么你也会知道目前所能听到的商业作品录音包括古典音乐大都经历过数模转换存储与回放的过程。试问这样的过程是否能够保留音乐性?
如果这个过程能够保留音乐性就没有逻辑来说未来的声音或者音乐通过加入了更多人工插件、算法干预的声音素材不存在音乐性。
我自己本科的背景就是音乐,在我学习的过程中我对科技发展尤其是电子乐器的观点始终持“可以去研究发展但始终无法替代声学乐器”这样的一种观点。时至今日也是。但单就后期处理来说,事实就是我们在越来越多的依赖后期和插件,但是至于边界在哪,我们都说不清楚,更甚至可以说者在将来是个哲学问题。因为科技会越来越发展,修音高的技术也不会停滞不前。终有一天会有太过于逆天的技术出现的。我们这些从业人员该如何看才是问题。