腾讯多媒体实验室发布自研 AI 作曲框架 XMusic,不通音律也能帮你“自动作曲”

作为2023世界人工智能大会的亮点之一,AIGC技术在各企业展区中引人注目。腾讯多媒体实验室展示的自研 AI 通用作曲框架 XMusic就是其中之一,可谓是本次大会的一颗璀璨明星。

2023年7月6日-8日,2023世界人工智能大会在上海盛大举行,各企业纷纷展示了令人叹为观止的技术成果。除了蚂蚁集团的AI安全检测平台“蚁鉴2.0”、亚马逊云科技的“Amazon Bedrock”以及华为的“昇腾AI大模型超级工厂”等,还有一款备受瞩目的作品。

作为2023世界人工智能大会的亮点之一,AIGC技术在各企业展区中引人注目。腾讯多媒体实验室展示的自研 AI 通用作曲框架 XMusic就是其中之一,可谓是本次大会的一颗璀璨明星。

据悉,XMusic是一套基于AIGC技术的生成式通用作曲框架,它支持多模态内容作为输入提示词,包括视频、图片、文字、标签、哼唱等,可以生成情绪、曲风、节奏可控的高质量音乐。


腾讯多媒体实验室发布自研 AI 作曲框架 XMusic,不通音律也能帮你“自动作曲”


这套作曲框架广泛适用于各种场景,包括视频剪辑配乐、商超会场环境音乐的选择,以及互动娱乐、辅助创作、音乐教育、互动娱乐、音乐治疗等。它被誉为个人的“行走的音乐库”,用户只需提供图片、文字、视频甚至哼唱,XMusic即可生成相应的乐曲。


例如,只需要输入“逗趣横生,让人捧腹大笑”的描述,XMusic就能创作出一段节奏俏皮、旋律欢快的音乐。腾讯还展示了XMusic在音乐课堂中的另一个应用场景:音乐老师可以利用XMusic生成多样的节拍、节奏和音高练习曲目,并结合实际教学,充分发挥AI生成音乐的辅助教学能力。

据腾讯透露,该作曲框架借助自家自研的多模态和序列建模技术,能够将输入的提示词内容转化为符号音乐要素的空间,并以此为条件引导模型生成精准、丰富、动听的音乐,范围涵盖了商用级的音乐生成能力。

本站文章均为原创,版权归本站所有,如需转载或引用请注明出处如:“本文章转载自:

腾讯多媒体实验室发布自研 AI 作曲框架 XMusic,不通音律也能帮你“自动作曲” - Extfans”

相关标签

上一篇:快手搜索正内测短视频直播行业首个智能问答产品

下一篇:Chrome清理大师,小却精悍的专业清理工具