跳到主要内容

Heartmula

HeartMuLa: 根据歌词和标签生成类似 Suno 的音乐。

技能元数据

来源内置(默认安装)
路径skills/media/heartmula
版本1.0.0
标签music, audio, generation, ai, heartmula, heartcodec, lyrics, songs
相关技能audiocraft

参考:完整 SKILL.md

信息

以下是 Hermes 在触发此技能时加载的完整技能定义。这是 Agent 在技能激活时看到的指令。

HeartMuLa - 开源音乐生成

概述

HeartMuLa 是一系列开源音乐基础模型(Apache-2.0 许可),能够根据歌词和标签生成音乐,并支持多语言。可根据歌词和标签生成完整歌曲。作为开源方案,可与 Suno 相媲美。包括:

  • HeartMuLa - 音乐语言模型(3B/7B),用于从歌词和标签生成音乐
  • HeartCodec - 12.5Hz 音乐编解码器,用于高保真音频重建
  • HeartTranscriptor - 基于 Whisper 的歌词转录
  • HeartCLAP - 音频-文本对齐模型

使用场景

  • 用户希望根据文本描述生成音乐/歌曲
  • 用户需要一个开源的 Suno 替代方案
  • 用户希望进行本地/离线音乐生成
  • 用户询问关于 HeartMuLa、heartlib 或 AI 音乐生成

硬件要求

  • 最低配置:8GB VRAM,使用 --lazy_load true(顺序加载/卸载模型)
  • 推荐配置:16GB+ VRAM,单 GPU 使用更舒适
  • 多 GPU:使用 --mula_device cuda:0 --codec_device cuda:1 跨 GPU 分配
  • 3B 模型在 lazy_load 模式下峰值显存约为 6.2GB

安装步骤

1. 克隆仓库

cd ~/  # 或所需目录
git clone https://github.com/HeartMuLa/heartlib.git
cd heartlib

2. 创建虚拟环境(需要 Python 3.10)

uv venv --python 3.10 .venv
. .venv/bin/activate
uv pip install -e .

3. 修复依赖兼容性问题

重要提示:截至 2026 年 2 月,固定的依赖项与较新的软件包存在冲突。请应用以下修复:

# 升级 datasets(旧版本与当前 pyarrow 不兼容)
uv pip install --upgrade datasets

# 升级 transformers(需要与 huggingface-hub 1.x 兼容)
uv pip install --upgrade transformers

4. 修补源代码(transformers 5.x 必需)

补丁 1 - RoPE 缓存修复,位于 src/heartlib/heartmula/modeling_heartmula.py

HeartMuLa 类的 setup_caches 方法中,在 reset_caches 的 try/except 块之后、with device: 块之前,添加 RoPE 重新初始化:

# 重新初始化在元设备加载期间跳过的 RoPE 缓存
from torchtune.models.llama3_1._position_embeddings import Llama3ScaledRoPE
for module in self.modules():
if isinstance(module, Llama3ScaledRoPE) and not module.is_cache_built:
module.rope_init()
module.to(device)

原因from_pretrained 会先在 meta 设备上创建模型;Llama3ScaledRoPE.rope_init() 会跳过在 meta 张量上构建缓存,之后权重加载到真实设备后也不会重建。

补丁 2 - HeartCodec 加载修复,位于 src/heartlib/pipelines/music_generation.py

在所有 HeartCodec.from_pretrained() 调用(共 2 处:__init__ 中的立即加载和 codec 属性中的延迟加载)中添加 ignore_mismatched_sizes=True

原因:VQ 码本中的 initted 缓冲区在检查点中形状为 [1],而在模型中为 []。数据相同,只是标量与 0 维张量的区别。忽略即可。

5. 下载模型检查点

cd heartlib  # 项目根目录
hf download --local-dir './ckpt' 'HeartMuLa/HeartMuLaGen'
hf download --local-dir './ckpt/HeartMuLa-oss-3B' 'HeartMuLa/HeartMuLa-oss-3B-happy-new-year'
hf download --local-dir './ckpt/HeartCodec-oss' 'HeartMuLa/HeartCodec-oss-20260123'

三个下载可以并行进行。总大小约数 GB。

GPU / CUDA

HeartMuLa 默认使用 CUDA(--mula_device cuda --codec_device cuda)。如果用户拥有已安装 PyTorch CUDA 支持的 NVIDIA GPU,则无需额外设置。

  • 已安装的 torch==2.4.1 开箱即支持 CUDA 12.1
  • torchtune 可能报告版本 0.4.0+cpu——这只是包元数据,它仍然通过 PyTorch 使用 CUDA
  • 要验证是否正在使用 GPU,请在输出中查找 "CUDA memory" 行(例如 "CUDA memory before unloading: 6.20 GB")
  • 没有 GPU? 可以使用 --mula_device cpu --codec_device cpu 在 CPU 上运行,但预计生成速度会极慢(单首歌曲可能需要 30-60 分钟以上,而 GPU 上约需 4 分钟)。CPU 模式还需要大量 RAM(约 12GB+ 空闲)。如果用户没有 NVIDIA GPU,建议使用云 GPU 服务(Google Colab 免费版 T4、Lambda Labs 等)或在线演示 https://heartmula.github.io/。

使用方法

基本生成

cd heartlib
. .venv/bin/activate
python ./examples/run_music_generation.py \
--model_path=./ckpt \
--version="3B" \
--lyrics="./assets/lyrics.txt" \
--tags="./assets/tags.txt" \
--save_path="./assets/output.mp3" \
--lazy_load true

输入格式

标签(逗号分隔,无空格):

piano,happy,wedding,synthesizer,romantic

rock,energetic,guitar,drums,male-vocal

歌词(使用方括号结构标签):

[Intro]

[Verse]
你的歌词在这里...

[Chorus]
副歌歌词...

[Bridge]
桥段歌词...

[Outro]

关键参数

参数默认值描述
--max_audio_length_ms240000最大长度(毫秒,240 秒 = 4 分钟)
--topk50Top-k 采样
--temperature1.0采样温度
--cfg_scale1.5无分类器引导尺度
--lazy_loadfalse按需加载/卸载模型(节省显存)
--mula_dtypebfloat16HeartMuLa 的数据类型(推荐 bf16)
--codec_dtypefloat32HeartCodec 的数据类型(推荐 fp32 以保证质量)

性能

  • RTF(实时因子)≈ 1.0 — 一首 4 分钟的歌曲大约需要 4 分钟生成
  • 输出:MP3,48kHz 立体声,128kbps

注意事项

  1. 不要对 HeartCodec 使用 bf16 — 会降低音频质量。请使用 fp32(默认)。
  2. 标签可能被忽略 — 已知问题(#90)。歌词往往占主导地位;可以尝试调整标签顺序。
  3. macOS 上无法使用 Triton — 仅 Linux/CUDA 支持 GPU 加速。
  4. RTX 5080 不兼容 — 上游问题中已有报告。
  5. 依赖锁定冲突需要上述的手动升级和补丁。