Meta 推出新的文本转音乐人工智能工具,与谷歌竞争
有了人工智能,知道如何输入提示可能是生成歌曲所需的唯一技能。
人工智能已经慢慢渗透到音乐行业,创造出病毒式传播的歌曲,让我们最喜欢的歌手的声音起死回生,甚至有资格获得格莱美奖(某种程度上)。 Meta 发布了新的人工智能工具,这将使使用人工智能生成音乐变得更加容易。
周二,Meta 发布了 AudioCraft,这是一套生成式 AI 模型,据 Meta 称,可以从文本中创建“高质量且逼真”的音乐。
🎵 今天我们将分享有关 AudioCraft 的详细信息,这是一个生成式 AI 模型系列,可让您轻松地从文本生成高质量的音频和音乐。https://t.co/04XAq4rlap pic.twitter.com/JreMIBGbTF
Audiocraft 由 Meta 的三个生成式 AI 模型组成:MusicGen、AudioGen 和 EnCodec。 MusicGen 和 AudioGen 都从文本生成声音,其中一种生成音乐,后者生成特定的音频和声音效果。
您可以在 HuggingFace 上访问 MusicGen 并体验演示。对于提示,您可以描述您想听的任何时代的任何类型的音乐。例如,Meta 分享了这样的例子:“一首 80 年代流行歌曲,背景是沉重的鼓和合成器垫”。
EnCodec 是一种由神经网络组成的音频编解码器,可压缩音频并重建输入信号。据新闻稿称,作为公告的一部分,Meta 发布了 Encodec 的最改进版本,可以用更少的工件生成更高质量的音乐。
Meta 还发布了预先训练的 AudioGen 模型,使用户可以生成环境声音和声音效果,例如狗叫或地板吱吱作响。
最后,Meta 共享了所有三个开源模型的权重和代码,以便研究人员和从业者可以利用它来训练其他模型。
Meta 在新闻稿中表示,AudioCraft 有潜力成为一种新型标准乐器,就像曾经的合成器一样。
“通过更多的控制,我们认为 MusicGen 可以变成一种新型乐器 - 就像合成器首次出现时一样,”Meta 说。
这并不是第一个这种性质的生成人工智能模型。谷歌在一月份发布了 MusicLM,这是它自己的模型,可以将文本转换为音乐。最近的一篇研究论文显示,谷歌还利用人工智能从人类大脑活动中重建音乐。