2 min read

Google MusicLM:AI音乐生成迈入新纪元,从MIDI到原始音频的飞跃

Google MusicLM:AI音乐生成迈入新纪元,从MIDI到原始音频的飞跃

Google Research近期发布的MusicLM模型,代表了AI音乐生成领域的重大进展。该模型借鉴了先进的AI语言处理技术,能够直接根据文本描述生成音乐,如同Dall-E 2生成图像一样,为音乐创作带来了全新的可能性。

回顾历史,算法音乐的探索早于计算机时代。从莫扎特的“骰子音乐”到早期计算机音乐的实验,人类一直在寻求用算法辅助创作。随着计算机算力提升和MIDI等格式的出现,AI音乐生成逐渐成熟,但MIDI格式的局限性限制了音乐的丰富性和表现力。

OpenAI的Jukebox模型是向原始音频处理迈出的重要一步,它通过将音频分割成“token”进行压缩和处理,显著提升了音乐生成的质量和多样性。而Google的MusicLM则在此基础上更进一步,采用了更粗粒度的音频表示,能够更精准地控制音乐的生成,尽管目前音频质量仍有提升空间,但其潜力已足够令人瞩目。

MusicLM的出现,预示着AI在音乐领域的应用将更加广泛和深入。虽然目前该模型尚未公开发布,且在一些细节上仍有待完善,但其展示出的能力已经引发了业界的广泛关注和讨论。音乐家们正面临AI带来的机遇与挑战,未来的音乐创作模式和产业格局或将因此发生颠覆性变化。

查看消息来源

订阅情报