最近大伙儿讨论AI比较火热啊!那我来蹭个热度吧~~
十年前刚入行时我是怎么也不会想到AI能发展到今天这个地步的。如果当时有个2024年穿越过来的人(好吧,哪怕就是我自己)告诉我2024年发生的事,我会觉得这是个神棍来骗钱的。
一个真实的例子。大约四五年前吧,我接到一单编曲,甲方有歌词和主旋律,需要编伴奏。讨论确认需求之后对方问我,几分钟可以做好。我解释了编曲工作的专业性和复杂性,即便不是按天计也是按小时计。对曰:你们不是有一种软件,只要输入旋律就能生成伴奏吗?当时的我简直被气笑了。呛了对方一句,谁要开发出这种软件直接发财了。如今回顾这件事,像小丑照镜子。
从前觉得消音不可能消得干净,如今不但可以,甚至还可以分割提取每一个不同的声部,甚至还能消除人声混响得到原始干音。
从前觉得扒带还原度90%+是优势,如今AI扒带不仅能100%还原,甚至还能还原成MIDI以供后续自主编辑。
从前觉得AI作曲编曲只是基于大数据的深度学习,属于高级裁缝,没有灵魂,如今盲听AI作品甚至难以分辨是AI还是真人创作。
AI的恐怖之处不在于当下能够实现哪些功能,而在于未来还将开发出什么功能我们无法预知。AI正在把我们从前认为的“不可能!绝对不可能!”一点一点变成不仅可能,甚至还很可以。那我们不妨大胆假设一些在传统认知当中绝对不可能实现的事情吧!
比如:弦乐自动表情。
书写好弦乐MIDI音符后,AI根据整个工程的编曲情况自动生成表情线,情绪能够准确对得上整个工程,并且能够在改变工程的其他部分(包括但不限于变速,变节奏,MUTE掉某个声部,新增某些声部,整体改变段落中情绪起伏等等)的同时,AI自适应变更表情线。另外,他还可以学习不同厂商音源的特性,在我们变更乐器插件时,他还能自动调节MIDI的时值,从而展现出该音源最佳的表现力。
再如:找灵感。
当我们编曲进行到中途不知如何继续下去为好时,只用按下“AI+空格”键,他就能接着我们写了一半的工程开始往下写。所有的声部都是无缝衔接,并且由于已经学习过我们已写的部分,在情绪的表达上能做到前后一致,段落准确。另外,我们可以根据个人需要,让他接下来写的部分可以指定风格、配器、情绪、节奏等等各种不同的要素。可一键生成多个版本,总有一款适合你。当然,自动生成的这些部分也都是MIDI块,可根据个人喜好自主编辑。
再再如:自动混音。
当我们在DAW中按下“AI+M”键,他会学习我们当前的工程,之后开始对分轨进行混音。包括但不限于自动调整音量推子、声像、挂效果器,并对有需要的部分进行自动化控制,生成包络线。总线进行必要的母带处理。并且能够识别到当前我们所使用的监听环境,自动调整到最适合的回放方式。由于鼠标键盘已经可以采集指纹,屏显摄像头可以采集人脸和视网膜,他知道此时坐在电脑前的是谁。于是,根据历史数据库中所储存的信息,学习到此人平时工作惯用的效果器插件和混音风格,他生成的自动混音也会自适应此人的口味。当然,我们也可以选择口味,比如混出自我,混出汉子寂寞,混出陈致逸等等。
再再再如:小白一体机。
如果我不是音乐人,不仅对乐理对编曲一窍不通,不懂DAW操作,不懂任何音乐术语,甚至五音不全节奏不稳,但是我想做原创………………此时,我可以选择输入文字来描述我的需求,也可以直接对着话筒吼一声:“嘿!CubAIse,写一首歌,要这样这样那样那样的。”此时AI会开始读取我的人生轨迹。听歌软件的播放历史是必选项,根据听歌的时长来筛选我喜欢的风格类型,根据我切歌的速度来判断我讨厌的类型从而避雷,根据我随着年龄的增长而变化的品位来生成轨迹曲线并预判未来我可能会喜欢的风格走向。同时,他还会分析我日常的步频,对突然变慢或者停下来的时刻进行分析,当时是否因为旁边有家商店什么的播放了某些我喜欢的音乐从而导致了我的驻足聆听,用以补充听歌软件所分析出来的数据。同时,他还会对我的社交软件进行分析。包括我与人家的聊天记录,发的BLOG和分享的内容,从而分析出我的性格和喜好。接着再根据我支付宝跟微信的消费记录分析我的消费观。根据我的运动手环测出我当下的心率,结合历史数据分析我当前的心理状况。再根据长线条综合判断我是一个什么样的人。此时再开始生成音频,大概率我不会不喜欢。即便不喜欢,也可以通过更改关键词来重新生成,或者对当前生成的音频的某个片段进行精准修改。完成之后甚至不用我去唱,他会通过分析我发语音和打电话时的声纹来自动生成属于我的声音。这样,即便我五音不全节奏不稳,也还是能“唱”出动听的歌声。之后一键混音,并自动匹配所有音乐平台的参数标准,分别生成可以以音乐人身份发布的符合平台规则标准的音频文件,就可以在各个音乐平台分布了。当然,词曲编录唱混肯定都是挂我的名。
尤其是最后一条,看起来简直可笑。但,说不定未来真能实现呢?AI的恐怖之处让我们不敢再轻易说出“不可能!绝对不可能!”,因为每一个我们曾坚定认为的不可能,正在,甚至已经变成可能。
未来,拭目以待吧!