建议还是先听一下。这样才能和大家讨论在同一个频率上。
因为我一开始也是觉得AI写音乐是扯淡的心态。
大模型就可以直接学习清晰准确的分轨。
人家AI也不用知道音乐是用什么音符、和声写的。
大数据模型学习不必照搬人类学习的习惯和模式。
别抱着“挑错”的心态。
如果抱着“我要怎么利用这个工具”的心态,就会发现AI音乐的美好。
目前suno还不能生成分轨,但是生成的曲子已经比我之前其他工具做的强多了。
刚听的时候我还有点不服气,而且Suno V2真的不太好听。
suno v3刚听了一两首我还在找茬,
多听了几首之后我开始担心自己的工作,

再听几首之后我在想如果失业不可避免的话,那么这玩意究竟应该怎么利用。
以下是以“Suno目前情况”来说。(不排除以后能有分轨、能导出midi等功能)
比如他写的旋律发展不好听。但是利用他的第一句,我自己续写,就可以节省更多脑细胞。
比如说我做配乐,心中有两三种方案,想问客户要那种。最直接的就是掏出几首AI音乐,任君挑选。选中风格之后,我再自己编曲。
它不是音质差么,那我直接用来生成lofi风格的曲子,那可太对味了。而且那种噼啪的音效也会有。
奉劝大家:“AI音乐就是屎,你们千万别用。谁用我鄙视谁。”
(然后我自己偷偷用。

)
本帖最后由 qwetvj 于 24-3-29 01:09 编辑