MusicGen Meta 的开源AI 语言模型 可将文本和旋律转化为完整的作品
作者:网络整理 • 更新时间:2023-06-16 20:37:11 •阅读
东辰网6月12日消息,Meta近日在Github上开源了其AI语言模型MusicGen,该模型基于谷歌2017年推出的Transformer模型。顾名思义,MusicGen主要用于音乐生成,可以转换文本和现有的旋律合成完整的作品。
研发团队表示:“我们使用了20000小时的授权音乐来训练模型,并使用Meta的EnCodec编码器将音频数据分解成更小的单元进行并行处理,使得MusicGen的计算效率和生成速度比同类型的更快人工智能模型更好。”
此外,MusicGen还支持文本和旋律的组合输入,比如你可以提议生成“一首轻歌”,同时要求“将其与贝多芬的《欢乐颂》相结合”。
研发团队还对MusicGen 的实际性能进行了测试。结果表明,与Google的MusicLM和Riffusion、Mousai、Noise2Music等其他音乐模型相比,MusicGen在音乐与文本提示的匹配度、作曲的可信度等指标上表现更好,普遍略高于Google .音乐LM 级别。
Meta 已将该模型授权用于商业用途,并在Huggingface 上发布了一个演示网络应用程序。
模型地址附在东辰网:点此前往
Demo应用地址:点此前往
本文由网络整理发布,不代表东辰网立场,转载联系作者并注明出处:https://www.ktwxcd.com/sszx/251869.html