mrfakename's picture
Upload folder using huggingface_hub
9f5c8f7 verified
# ACE-Step 推理 API 文档
**Language / 语言 / 言語:** [English](../en/INFERENCE.md) | [中文](INFERENCE.md) | [日本語](../ja/INFERENCE.md)
---
本文档提供 ACE-Step 推理 API 的综合文档,包括所有支持任务类型的参数规范。
## 目录
- [快速开始](#快速开始)
- [API 概述](#api-概述)
- [GenerationParams 参数](#generationparams-参数)
- [GenerationConfig 参数](#generationconfig-参数)
- [任务类型](#任务类型)
- [辅助函数](#辅助函数)
- [完整示例](#完整示例)
- [最佳实践](#最佳实践)
---
## 快速开始
### 基本用法
```python
from acestep.handler import AceStepHandler
from acestep.llm_inference import LLMHandler
from acestep.inference import GenerationParams, GenerationConfig, generate_music
# 初始化处理器
dit_handler = AceStepHandler()
llm_handler = LLMHandler()
# 初始化服务
dit_handler.initialize_service(
project_root="/path/to/project",
config_path="acestep-v15-turbo",
device="cuda"
)
llm_handler.initialize(
checkpoint_dir="/path/to/checkpoints",
lm_model_path="acestep-5Hz-lm-0.6B",
backend="vllm",
device="cuda"
)
# 配置生成参数
params = GenerationParams(
caption="欢快的电子舞曲,重低音",
bpm=128,
duration=30,
)
# 配置生成设置
config = GenerationConfig(
batch_size=2,
audio_format="flac",
)
# 生成音乐
result = generate_music(dit_handler, llm_handler, params, config, save_dir="/path/to/output")
# 访问结果
if result.success:
for audio in result.audios:
print(f"已生成:{audio['path']}")
print(f"Key:{audio['key']}")
print(f"Seed:{audio['params']['seed']}")
else:
print(f"错误:{result.error}")
```
---
## API 概述
### 主要函数
#### generate_music
```python
def generate_music(
dit_handler,
llm_handler,
params: GenerationParams,
config: GenerationConfig,
save_dir: Optional[str] = None,
progress=None,
) -> GenerationResult
```
使用 ACE-Step 模型生成音乐的主函数。
#### understand_music
```python
def understand_music(
llm_handler,
audio_codes: str,
temperature: float = 0.85,
top_k: Optional[int] = None,
top_p: Optional[float] = None,
repetition_penalty: float = 1.0,
use_constrained_decoding: bool = True,
constrained_decoding_debug: bool = False,
) -> UnderstandResult
```
分析音频语义代码并提取元数据(caption、lyrics、BPM、调性等)。
#### create_sample
```python
def create_sample(
llm_handler,
query: str,
instrumental: bool = False,
vocal_language: Optional[str] = None,
temperature: float = 0.85,
top_k: Optional[int] = None,
top_p: Optional[float] = None,
repetition_penalty: float = 1.0,
use_constrained_decoding: bool = True,
constrained_decoding_debug: bool = False,
) -> CreateSampleResult
```
从自然语言描述生成完整的音乐样本(caption、lyrics、元数据)。
#### format_sample
```python
def format_sample(
llm_handler,
caption: str,
lyrics: str,
user_metadata: Optional[Dict[str, Any]] = None,
temperature: float = 0.85,
top_k: Optional[int] = None,
top_p: Optional[float] = None,
repetition_penalty: float = 1.0,
use_constrained_decoding: bool = True,
constrained_decoding_debug: bool = False,
) -> FormatSampleResult
```
格式化和增强用户提供的 caption 和 lyrics,生成结构化元数据。
### 配置对象
API 使用两个配置数据类:
**GenerationParams** - 包含所有音乐生成参数:
```python
@dataclass
class GenerationParams:
# 任务和指令
task_type: str = "text2music"
instruction: str = "Fill the audio semantic mask based on the given conditions:"
# 音频上传
reference_audio: Optional[str] = None
src_audio: Optional[str] = None
# LM 代码提示
audio_codes: str = ""
# 文本输入
caption: str = ""
lyrics: str = ""
instrumental: bool = False
# 元数据
vocal_language: str = "unknown"
bpm: Optional[int] = None
keyscale: str = ""
timesignature: str = ""
duration: float = -1.0
# 高级设置
inference_steps: int = 8
seed: int = -1
guidance_scale: float = 7.0
use_adg: bool = False
cfg_interval_start: float = 0.0
cfg_interval_end: float = 1.0
shift: float = 1.0 # 新增:时间步偏移因子
infer_method: str = "ode" # 新增:扩散推理方法
timesteps: Optional[List[float]] = None # 新增:自定义时间步
repainting_start: float = 0.0
repainting_end: float = -1
audio_cover_strength: float = 1.0
# 5Hz 语言模型参数
thinking: bool = True
lm_temperature: float = 0.85
lm_cfg_scale: float = 2.0
lm_top_k: int = 0
lm_top_p: float = 0.9
lm_negative_prompt: str = "NO USER INPUT"
use_cot_metas: bool = True
use_cot_caption: bool = True
use_cot_lyrics: bool = False
use_cot_language: bool = True
use_constrained_decoding: bool = True
# CoT 生成的值(由 LM 自动填充)
cot_bpm: Optional[int] = None
cot_keyscale: str = ""
cot_timesignature: str = ""
cot_duration: Optional[float] = None
cot_vocal_language: str = "unknown"
cot_caption: str = ""
cot_lyrics: str = ""
```
**GenerationConfig** - 包含批处理和输出配置:
```python
@dataclass
class GenerationConfig:
batch_size: int = 2
allow_lm_batch: bool = False
use_random_seed: bool = True
seeds: Optional[List[int]] = None
lm_batch_chunk_size: int = 8
constrained_decoding_debug: bool = False
audio_format: str = "flac"
```
### 结果对象
**GenerationResult** - 音乐生成结果:
```python
@dataclass
class GenerationResult:
# 音频输出
audios: List[Dict[str, Any]] # 音频字典列表
# 生成信息
status_message: str # 生成状态消息
extra_outputs: Dict[str, Any] # 额外输出(latents、masks、lm_metadata、time_costs)
# 成功状态
success: bool # 生成是否成功
error: Optional[str] # 失败时的错误消息
```
**音频字典结构:**
`audios` 列表中的每个项目包含:
```python
{
"path": str, # 保存的音频文件路径
"tensor": Tensor, # 音频张量 [channels, samples],CPU,float32
"key": str, # 唯一音频键(基于参数的 UUID)
"sample_rate": int, # 采样率(默认:48000)
"params": Dict, # 此音频的生成参数(包括 seed、audio_codes 等)
}
```
**UnderstandResult** - 音乐理解结果:
```python
@dataclass
class UnderstandResult:
# 元数据字段
caption: str = ""
lyrics: str = ""
bpm: Optional[int] = None
duration: Optional[float] = None
keyscale: str = ""
language: str = ""
timesignature: str = ""
# 状态
status_message: str = ""
success: bool = True
error: Optional[str] = None
```
**CreateSampleResult** - 样本创建结果:
```python
@dataclass
class CreateSampleResult:
# 元数据字段
caption: str = ""
lyrics: str = ""
bpm: Optional[int] = None
duration: Optional[float] = None
keyscale: str = ""
language: str = ""
timesignature: str = ""
instrumental: bool = False
# 状态
status_message: str = ""
success: bool = True
error: Optional[str] = None
```
**FormatSampleResult** - 样本格式化结果:
```python
@dataclass
class FormatSampleResult:
# 元数据字段
caption: str = ""
lyrics: str = ""
bpm: Optional[int] = None
duration: Optional[float] = None
keyscale: str = ""
language: str = ""
timesignature: str = ""
# 状态
status_message: str = ""
success: bool = True
error: Optional[str] = None
```
---
## GenerationParams 参数
### 文本输入
| 参数 | 类型 | 默认值 | 说明 |
|-----------|------|---------|-------------|
| `caption` | `str` | `""` | 期望音乐的文本描述。可以是简单提示如"放松的钢琴音乐",或包含风格、情绪、乐器等的详细描述。最多 512 字符。|
| `lyrics` | `str` | `""` | 人声音乐的歌词文本。纯音乐使用 `"[Instrumental]"`。支持多种语言。最多 4096 字符。|
| `instrumental` | `bool` | `False` | 如果为 True,无论歌词如何都生成纯音乐。|
### 音乐元数据
| 参数 | 类型 | 默认值 | 说明 |
|-----------|------|---------|-------------|
| `bpm` | `Optional[int]` | `None` | 每分钟节拍数(30-300)。`None` 启用通过 LM 自动检测。|
| `keyscale` | `str` | `""` | 音乐调性(例如"C Major"、"Am"、"F# minor")。空字符串启用自动检测。|
| `timesignature` | `str` | `""` | 拍号(2 表示 '2/4',3 表示 '3/4',4 表示 '4/4',6 表示 '6/8')。空字符串启用自动检测。|
| `vocal_language` | `str` | `"unknown"` | 人声语言代码(ISO 639-1)。支持:`"en"``"zh"``"ja"``"es"``"fr"` 等。使用 `"unknown"` 自动检测。|
| `duration` | `float` | `-1.0` | 目标音频长度(秒)(10-600)。如果 <= 0 或 None,模型根据歌词长度自动选择。|
### 生成参数
| 参数 | 类型 | 默认值 | 说明 |
|-----------|------|---------|-------------|
| `inference_steps` | `int` | `8` | 去噪步数。Turbo 模型:1-20(推荐 8)。Base 模型:1-200(推荐 32-64)。越高 = 质量越好但更慢。|
| `guidance_scale` | `float` | `7.0` | 无分类器引导比例(1.0-15.0)。较高的值增加对文本提示的遵循度。仅支持非 turbo 模型。典型范围:5.0-9.0。|
| `seed` | `int` | `-1` | 用于可重复性的随机种子。使用 `-1` 表示随机种子,或任何正整数表示固定种子。|
### 高级 DiT 参数
| 参数 | 类型 | 默认值 | 说明 |
|-----------|------|---------|-------------|
| `use_adg` | `bool` | `False` | 使用自适应双引导(仅 base 模型)。以速度为代价提高质量。|
| `cfg_interval_start` | `float` | `0.0` | CFG 应用起始比例(0.0-1.0)。控制何时开始应用无分类器引导。|
| `cfg_interval_end` | `float` | `1.0` | CFG 应用结束比例(0.0-1.0)。控制何时停止应用无分类器引导。|
| `shift` | `float` | `1.0` | 时间步偏移因子(范围 1.0-5.0,默认 1.0)。当 != 1.0 时,对时间步应用 `t = shift * t / (1 + (shift - 1) * t)`。turbo 模型推荐 3.0。|
| `infer_method` | `str` | `"ode"` | 扩散推理方法。`"ode"`(Euler)更快且确定性。`"sde"`(随机)可能产生不同的带方差结果。|
| `timesteps` | `Optional[List[float]]` | `None` | 自定义时间步,从 1.0 到 0.0 的浮点数列表(例如 `[0.97, 0.76, 0.615, 0.5, 0.395, 0.28, 0.18, 0.085, 0]`)。如果提供,覆盖 `inference_steps``shift`。|
### 任务特定参数
| 参数 | 类型 | 默认值 | 说明 |
|-----------|------|---------|-------------|
| `task_type` | `str` | `"text2music"` | 生成任务类型。详见[任务类型](#任务类型)部分。|
| `instruction` | `str` | `"Fill the audio semantic mask based on the given conditions:"` | 任务特定指令提示。|
| `reference_audio` | `Optional[str]` | `None` | 用于风格迁移或续写任务的参考音频文件路径。|
| `src_audio` | `Optional[str]` | `None` | 用于音频到音频任务(cover、repaint 等)的源音频文件路径。|
| `audio_codes` | `str` | `""` | 预提取的 5Hz 音频语义代码字符串。仅供高级使用。|
| `repainting_start` | `float` | `0.0` | 重绘开始时间(秒)(用于 repaint/lego 任务)。|
| `repainting_end` | `float` | `-1` | 重绘结束时间(秒)。使用 `-1` 表示音频末尾。|
| `audio_cover_strength` | `float` | `1.0` | 音频 cover/代码影响强度(0.0-1.0)。风格迁移任务设置较小值(0.2)。|
### 5Hz 语言模型参数
| 参数 | 类型 | 默认值 | 说明 |
|-----------|------|---------|-------------|
| `thinking` | `bool` | `True` | 启用 5Hz 语言模型"思维链"推理用于语义/音乐元数据和代码。|
| `lm_temperature` | `float` | `0.85` | LM 采样温度(0.0-2.0)。越高 = 更有创意/多样,越低 = 更保守。|
| `lm_cfg_scale` | `float` | `2.0` | LM 无分类器引导比例。越高 = 更强的提示遵循度。|
| `lm_top_k` | `int` | `0` | LM top-k 采样。`0` 禁用 top-k 过滤。典型值:40-100。|
| `lm_top_p` | `float` | `0.9` | LM 核采样(0.0-1.0)。`1.0` 禁用核采样。典型值:0.9-0.95。|
| `lm_negative_prompt` | `str` | `"NO USER INPUT"` | LM 引导的负面提示。帮助避免不想要的特征。|
| `use_cot_metas` | `bool` | `True` | 使用 LM CoT 推理生成元数据(BPM、调性、时长等)。|
| `use_cot_caption` | `bool` | `True` | 使用 LM CoT 推理优化用户 caption。|
| `use_cot_language` | `bool` | `True` | 使用 LM CoT 推理检测人声语言。|
| `use_cot_lyrics` | `bool` | `False` | (保留供将来使用)使用 LM CoT 生成/优化歌词。|
| `use_constrained_decoding` | `bool` | `True` | 启用结构化 LM 输出的约束解码。|
### CoT 生成的值
这些字段在启用 CoT 推理时由 LM 自动填充:
| 参数 | 类型 | 默认值 | 说明 |
|-----------|------|---------|-------------|
| `cot_bpm` | `Optional[int]` | `None` | LM 生成的 BPM 值。|
| `cot_keyscale` | `str` | `""` | LM 生成的调性。|
| `cot_timesignature` | `str` | `""` | LM 生成的拍号。|
| `cot_duration` | `Optional[float]` | `None` | LM 生成的时长。|
| `cot_vocal_language` | `str` | `"unknown"` | LM 检测的人声语言。|
| `cot_caption` | `str` | `""` | LM 优化的 caption。|
| `cot_lyrics` | `str` | `""` | LM 生成/优化的歌词。|
---
## GenerationConfig 参数
| 参数 | 类型 | 默认值 | 说明 |
|-----------|------|---------|-------------|
| `batch_size` | `int` | `2` | 并行生成的样本数量(1-8)。较高的值需要更多 GPU 内存。|
| `allow_lm_batch` | `bool` | `False` | 允许 LM 批处理。当 `batch_size >= 2``thinking=True` 时更快。|
| `use_random_seed` | `bool` | `True` | 是否使用随机种子。`True` 每次不同结果,`False` 可重复结果。|
| `seeds` | `Optional[List[int]]` | `None` | 批量生成的种子列表。如果提供的种子少于 batch_size,将用随机种子填充。也可以是单个 int。|
| `lm_batch_chunk_size` | `int` | `8` | 每个 LM 推理块的最大批处理大小(GPU 内存限制)。|
| `constrained_decoding_debug` | `bool` | `False` | 启用约束解码的调试日志。|
| `audio_format` | `str` | `"flac"` | 输出音频格式。选项:`"mp3"``"wav"``"flac"`。默认 FLAC 以快速保存。|
---
## 任务类型
ACE-Step 支持 6 种不同的生成任务类型,每种都针对特定用例进行了优化。
### 1. Text2Music(默认)
**目的**:从文本描述和可选元数据生成音乐。
**关键参数**
```python
params = GenerationParams(
task_type="text2music",
caption="充满活力的摇滚音乐,电吉他",
lyrics="[Instrumental]", # 或实际歌词
bpm=140,
duration=30,
)
```
**必需**
- `caption``lyrics`(至少一个)
**可选但推荐**
- `bpm`:控制节奏
- `keyscale`:控制音乐调性
- `timesignature`:控制节拍结构
- `duration`:控制长度
- `vocal_language`:控制人声特征
**用例**
- 从文本描述生成音乐
- 从提示创建伴奏
- 生成带歌词的歌曲
---
### 2. Cover
**目的**:转换现有音频,保持结构但改变风格/音色。
**关键参数**
```python
params = GenerationParams(
task_type="cover",
src_audio="original_song.mp3",
caption="爵士钢琴版本",
audio_cover_strength=0.8, # 0.0-1.0
)
```
**必需**
- `src_audio`:源音频文件路径
- `caption`:期望风格/转换的描述
**可选**
- `audio_cover_strength`:控制原始音频的影响
- `1.0`:强烈保持原始结构
- `0.5`:平衡转换
- `0.1`:宽松解读
- `lyrics`:新歌词(如果要更改人声)
**用例**
- 创建不同风格的翻唱
- 在保持旋律的同时更改乐器
- 风格转换
---
### 3. Repaint
**目的**:重新生成音频的特定时间段,保持其余部分不变。
**关键参数**
```python
params = GenerationParams(
task_type="repaint",
src_audio="original.mp3",
repainting_start=10.0, # 秒
repainting_end=20.0, # 秒
caption="带钢琴独奏的平滑过渡",
)
```
**必需**
- `src_audio`:源音频文件路径
- `repainting_start`:开始时间(秒)
- `repainting_end`:结束时间(秒)(使用 `-1` 表示文件末尾)
- `caption`:重绘部分期望内容的描述
**用例**
- 修复生成音乐的特定部分
- 为歌曲的某些部分添加变化
- 创建平滑过渡
- 替换有问题的片段
---
### 4. Lego(仅 Base 模型)
**目的**:在现有音频的上下文中生成特定乐器轨道。
**关键参数**
```python
params = GenerationParams(
task_type="lego",
src_audio="backing_track.mp3",
instruction="Generate the guitar track based on the audio context:",
caption="带有蓝调感觉的主音吉他旋律",
repainting_start=0.0,
repainting_end=-1,
)
```
**必需**
- `src_audio`:源/伴奏音频路径
- `instruction`:必须指定轨道类型(例如"Generate the {TRACK_NAME} track...")
- `caption`:期望轨道特征的描述
**可用轨道**
- `"vocals"`、`"backing_vocals"`、`"drums"`、`"bass"`、`"guitar"`、`"keyboard"`、
- `"percussion"``"strings"``"synth"``"fx"``"brass"``"woodwinds"`
**用例**
- 添加特定乐器轨道
- 在伴奏轨道上叠加额外乐器
- 迭代创建多轨作品
---
### 5. Extract(仅 Base 模型)
**目的**:从混音音频中提取/分离特定乐器轨道。
**关键参数**
```python
params = GenerationParams(
task_type="extract",
src_audio="full_mix.mp3",
instruction="Extract the vocals track from the audio:",
)
```
**必需**
- `src_audio`:混音音频文件路径
- `instruction`:必须指定要提取的轨道
**可用轨道**:与 Lego 任务相同
**用例**
- 音轨分离
- 分离特定乐器
- 创建混音
- 分析单独轨道
---
### 6. Complete(仅 Base 模型)
**目的**:用指定的乐器完成/扩展部分轨道。
**关键参数**
```python
params = GenerationParams(
task_type="complete",
src_audio="incomplete_track.mp3",
instruction="Complete the input track with drums, bass, guitar:",
caption="摇滚风格完成",
)
```
**必需**
- `src_audio`:不完整/部分轨道的路径
- `instruction`:必须指定要添加的轨道
- `caption`:期望风格的描述
**用例**
- 编排不完整的作品
- 添加伴奏轨道
- 自动完成音乐想法
---
## 辅助函数
### understand_music
分析音频代码以提取音乐元数据。
```python
from acestep.inference import understand_music
result = understand_music(
llm_handler=llm_handler,
audio_codes="<|audio_code_123|><|audio_code_456|>...",
temperature=0.85,
use_constrained_decoding=True,
)
if result.success:
print(f"Caption:{result.caption}")
print(f"歌词:{result.lyrics}")
print(f"BPM:{result.bpm}")
print(f"调性:{result.keyscale}")
print(f"时长:{result.duration}s")
print(f"语言:{result.language}")
else:
print(f"错误:{result.error}")
```
**用例**
- 分析现有音乐
- 从音频代码提取元数据
- 逆向工程生成参数
---
### create_sample
从自然语言描述生成完整的音乐样本。这是"简单模式"/"灵感模式"功能。
```python
from acestep.inference import create_sample
result = create_sample(
llm_handler=llm_handler,
query="一首适合安静夜晚的柔和孟加拉情歌",
instrumental=False,
vocal_language="bn", # 可选:限制为孟加拉语
temperature=0.85,
)
if result.success:
print(f"Caption:{result.caption}")
print(f"歌词:{result.lyrics}")
print(f"BPM:{result.bpm}")
print(f"时长:{result.duration}s")
print(f"调性:{result.keyscale}")
print(f"是否纯音乐:{result.instrumental}")
# 与 generate_music 一起使用
params = GenerationParams(
caption=result.caption,
lyrics=result.lyrics,
bpm=result.bpm,
duration=result.duration,
keyscale=result.keyscale,
vocal_language=result.language,
)
else:
print(f"错误:{result.error}")
```
**参数**
| 参数 | 类型 | 默认值 | 说明 |
|-----------|------|---------|-------------|
| `query` | `str` | 必需 | 期望音乐的自然语言描述 |
| `instrumental` | `bool` | `False` | 是否生成纯音乐 |
| `vocal_language` | `Optional[str]` | `None` | 将歌词限制为特定语言(例如"en"、"zh"、"bn")|
| `temperature` | `float` | `0.85` | 采样温度 |
| `top_k` | `Optional[int]` | `None` | Top-k 采样(None 禁用)|
| `top_p` | `Optional[float]` | `None` | Top-p 采样(None 禁用)|
| `repetition_penalty` | `float` | `1.0` | 重复惩罚 |
| `use_constrained_decoding` | `bool` | `True` | 使用基于 FSM 的约束解码 |
---
### format_sample
格式化和增强用户提供的 caption 和 lyrics,生成结构化元数据。
```python
from acestep.inference import format_sample
result = format_sample(
llm_handler=llm_handler,
caption="拉丁流行,雷鬼音",
lyrics="[Verse 1]\nBailando en la noche...",
user_metadata={"bpm": 95}, # 可选:约束特定值
temperature=0.85,
)
if result.success:
print(f"增强后的 Caption:{result.caption}")
print(f"格式化后的歌词:{result.lyrics}")
print(f"BPM:{result.bpm}")
print(f"时长:{result.duration}s")
print(f"调性:{result.keyscale}")
print(f"检测到的语言:{result.language}")
else:
print(f"错误:{result.error}")
```
**参数**
| 参数 | 类型 | 默认值 | 说明 |
|-----------|------|---------|-------------|
| `caption` | `str` | 必需 | 用户的 caption/描述 |
| `lyrics` | `str` | 必需 | 用户的带结构标签的歌词 |
| `user_metadata` | `Optional[Dict]` | `None` | 约束特定元数据值(bpm、duration、keyscale、timesignature、language)|
| `temperature` | `float` | `0.85` | 采样温度 |
| `top_k` | `Optional[int]` | `None` | Top-k 采样(None 禁用)|
| `top_p` | `Optional[float]` | `None` | Top-p 采样(None 禁用)|
| `repetition_penalty` | `float` | `1.0` | 重复惩罚 |
| `use_constrained_decoding` | `bool` | `True` | 使用基于 FSM 的约束解码 |
---
## 完整示例
### 示例 1:简单文本到音乐生成
```python
from acestep.inference import GenerationParams, GenerationConfig, generate_music
params = GenerationParams(
task_type="text2music",
caption="宁静的氛围音乐,柔和的钢琴和弦乐",
duration=60,
bpm=80,
keyscale="C Major",
)
config = GenerationConfig(
batch_size=2, # 生成 2 个变体
audio_format="flac",
)
result = generate_music(dit_handler, llm_handler, params, config, save_dir="/output")
if result.success:
for i, audio in enumerate(result.audios, 1):
print(f"变体 {i}:{audio['path']}")
```
### 示例 2:带歌词的歌曲生成
```python
params = GenerationParams(
task_type="text2music",
caption="流行民谣,情感人声",
lyrics="""Verse 1:
今天走在街上
想着你曾说过的话
一切都变得不同了
但我会找到自己的路
Chorus:
我在前进,我很坚强
这就是我属于的地方
""",
vocal_language="zh",
bpm=72,
duration=45,
)
config = GenerationConfig(batch_size=1)
result = generate_music(dit_handler, llm_handler, params, config, save_dir="/output")
```
### 示例 3:使用自定义时间步
```python
params = GenerationParams(
task_type="text2music",
caption="复杂和声的爵士融合",
# 自定义 9 步调度
timesteps=[0.97, 0.76, 0.615, 0.5, 0.395, 0.28, 0.18, 0.085, 0],
thinking=True,
)
config = GenerationConfig(batch_size=1)
result = generate_music(dit_handler, llm_handler, params, config, save_dir="/output")
```
### 示例 4:使用 Shift 参数(Turbo 模型)
```python
params = GenerationParams(
task_type="text2music",
caption="欢快的电子舞曲",
inference_steps=8,
shift=3.0, # Turbo 模型推荐
infer_method="ode",
)
config = GenerationConfig(batch_size=2)
result = generate_music(dit_handler, llm_handler, params, config, save_dir="/output")
```
### 示例 5:使用 create_sample 的简单模式
```python
from acestep.inference import create_sample, GenerationParams, GenerationConfig, generate_music
# 步骤 1:从描述创建样本
sample = create_sample(
llm_handler=llm_handler,
query="充满活力的韩国流行舞曲,带有朗朗上口的 Hook",
vocal_language="ko",
)
if sample.success:
# 步骤 2:使用样本生成音乐
params = GenerationParams(
caption=sample.caption,
lyrics=sample.lyrics,
bpm=sample.bpm,
duration=sample.duration,
keyscale=sample.keyscale,
vocal_language=sample.language,
thinking=True,
)
config = GenerationConfig(batch_size=2)
result = generate_music(dit_handler, llm_handler, params, config, save_dir="/output")
```
### 示例 6:格式化和增强用户输入
```python
from acestep.inference import format_sample, GenerationParams, GenerationConfig, generate_music
# 步骤 1:格式化用户输入
formatted = format_sample(
llm_handler=llm_handler,
caption="摇滚民谣",
lyrics="[Verse]\n在黑暗中我找到了自己的路...",
)
if formatted.success:
# 步骤 2:使用增强后的输入生成
params = GenerationParams(
caption=formatted.caption,
lyrics=formatted.lyrics,
bpm=formatted.bpm,
duration=formatted.duration,
keyscale=formatted.keyscale,
thinking=True,
use_cot_metas=False, # 已格式化,跳过元数据 CoT
)
config = GenerationConfig(batch_size=2)
result = generate_music(dit_handler, llm_handler, params, config, save_dir="/output")
```
---
## 最佳实践
### 1. Caption 写作
**好的 Caption**
```python
# 具体且描述性强
caption="欢快的电子舞曲,重低音和合成器主旋律"
# 包含情绪和风格
caption="忧郁的独立民谣,原声吉他和柔和的人声"
# 指定乐器
caption="爵士三重奏,钢琴、立式贝斯和刷子鼓"
```
**避免**
```python
# 太模糊
caption="好音乐"
# 矛盾
caption="快慢音乐" # 节奏冲突
```
### 2. 参数调优
**最佳质量**
- 使用 base 模型,`inference_steps=64` 或更高
- 启用 `use_adg=True`
- 设置 `guidance_scale=7.0-9.0`
- 设置 `shift=3.0` 以获得更好的时间步分布
- 使用无损音频格式(`audio_format="wav"`
**追求速度**
- 使用 turbo 模型,`inference_steps=8`
- 禁用 ADG(`use_adg=False`
- 使用 `infer_method="ode"`(默认)
- 使用压缩格式(`audio_format="mp3"`)或默认 FLAC
**一致性**
- 在 config 中设置 `use_random_seed=False`
- 使用固定的 `seeds` 列表或在 params 中使用单个 `seed`
- 保持较低的 `lm_temperature`(0.7-0.85)
**多样性**
- 在 config 中设置 `use_random_seed=True`
- 增加 `lm_temperature`(0.9-1.1)
- 使用 `batch_size > 1` 获得变体
### 3. 时长指南
- **纯音乐**:30-180 秒效果良好
- **带歌词**:推荐自动检测(设置 `duration=-1` 或保持默认)
- **短片段**:最少 10-20 秒
- **长格式**:最多 600 秒(10 分钟)
### 4. LM 使用
**何时启用 LM(`thinking=True`)**
- 需要自动元数据检测
- 想要 caption 优化
- 从最少输入生成
- 需要多样化输出
**何时禁用 LM(`thinking=False`)**
- 已有精确的元数据
- 需要更快的生成
- 想要完全控制参数
### 5. 批处理
```python
# 高效批量生成
config = GenerationConfig(
batch_size=8, # 支持的最大值
allow_lm_batch=True, # 启用以提速(当 thinking=True 时)
lm_batch_chunk_size=4, # 根据 GPU 内存调整
)
```
### 6. 错误处理
```python
result = generate_music(dit_handler, llm_handler, params, config, save_dir="/output")
if not result.success:
print(f"生成失败:{result.error}")
print(f"状态:{result.status_message}")
else:
# 处理成功结果
for audio in result.audios:
path = audio['path']
key = audio['key']
seed = audio['params']['seed']
# ... 处理音频文件
```
### 7. 内存管理
对于大批量大小或长时长:
- 监控 GPU 内存使用
- 如果出现 OOM 错误,减少 `batch_size`
- 减少 `lm_batch_chunk_size` 用于 LM 操作
- 考虑在初始化期间使用 `offload_to_cpu=True`
---
## 故障排除
### 常见问题
**问题**:内存不足错误
- **解决方案**:减少 `batch_size``inference_steps`,或启用 CPU 卸载
**问题**:结果质量差
- **解决方案**:增加 `inference_steps`,调整 `guidance_scale`,使用 base 模型
**问题**:结果与提示不匹配
- **解决方案**:使 caption 更具体,增加 `guidance_scale`,启用 LM 优化(`thinking=True`
**问题**:生成缓慢
- **解决方案**:使用 turbo 模型,减少 `inference_steps`,禁用 ADG
**问题**:LM 不生成代码
- **解决方案**:验证 `llm_handler` 已初始化,检查 `thinking=True``use_cot_metas=True`
**问题**:种子不被尊重
- **解决方案**:在 config 中设置 `use_random_seed=False` 并提供 `seeds` 列表或在 params 中提供 `seed`
**问题**:自定义时间步不工作
- **解决方案**:确保时间步是从 1.0 到 0.0 的浮点数列表,正确排序
---
## 版本历史
- **v1.5.2**:当前版本
- 添加了 `shift` 参数用于时间步偏移
- 添加了 `infer_method` 参数用于 ODE/SDE 选择
- 添加了 `timesteps` 参数用于自定义时间步调度
- 添加了 `understand_music()` 函数用于音频分析
- 添加了 `create_sample()` 函数用于简单模式生成
- 添加了 `format_sample()` 函数用于输入增强
- 添加了 `UnderstandResult``CreateSampleResult``FormatSampleResult` 数据类
- **v1.5.1**:上一版本
-`GenerationConfig` 拆分为 `GenerationParams``GenerationConfig`
- 重命名参数以保持一致性(`key_scale``keyscale``time_signature``timesignature``audio_duration``duration``use_llm_thinking``thinking``audio_code_string``audio_codes`
- 添加了 `instrumental` 参数
- 添加了 `use_constrained_decoding` 参数
- 添加了 CoT 自动填充字段(`cot_*`
- 将默认 `audio_format` 更改为 "flac"
- 将默认 `batch_size` 更改为 2
- 将默认 `thinking` 更改为 True
- 简化了 `GenerationResult` 结构,统一 `audios` 列表
-`extra_outputs` 中添加了统一的 `time_costs`
- **v1.5**:初始版本
- 引入了 `GenerationConfig``GenerationResult` 数据类
- 简化了参数传递
- 添加了综合文档
---
更多信息,请参阅:
- 主 README:[`../../README.md`](../../README.md)
- REST API 文档:[`API.md`](API.md)
- Gradio 演示指南:[`GRADIO_GUIDE.md`](GRADIO_GUIDE.md)
- 项目仓库:[ACE-Step-1.5](https://github.com/yourusername/ACE-Step-1.5)