【ITBEAR科技资讯】6月12日消息,meta日前在GitHub上发布了一款名为MusicGen的AI语言模型,该模型基于谷歌2017年推出的Transformer模型,主要用于音乐生成。据meta的研发团队透露,他们经过对20000小时的授权音乐进行训练,并采用了meta的EnCodec编码器,将音频数据分解为更小的单元进行并行处理,以提升MusicGen的运算效率和生成速度,使其在同类AI模型中表现出色。
这一开源模型支持将文本和旋律结合输入,用户可以提出生成"一首轻快的曲目"并要求将其与贝多芬的《欢乐颂》相结合。研发团队通过对MusicGen的实际测试发现,该模型在测试音乐与文本提示的匹配度以及作曲的可信度等指标上表现优秀,总体而言略高于谷歌的MusicLM水平。相较于其他音乐模型如Riffusion、Mousai和Noise2Music等,MusicGen也展现出更出色的表现。
据ITBEAR科技资讯了解,meta已授权该模型供商业使用,并在Huggingface上发布了一个供演示用的网页应用。这一开源举措将为音乐生成领域带来更多创新和应用可能性。MusicGen的推出为音乐爱好者和专业音乐创作者提供了一个有趣且实用的工具,可以帮助他们从文本和旋律中快速生成完整的乐曲。随着AI技术的不断发展,人工智能音乐创作领域将迎来更多突破和进步。