| # ACE-Step 推論 API ドキュメント | |
| **Language / 语言 / 言語:** [English](../en/INFERENCE.md) | [中文](../zh/INFERENCE.md) | [日本語](INFERENCE.md) | |
| --- | |
| 本ドキュメントはACE-Step推論APIの包括的なドキュメントを提供し、サポートされているすべてのタスクタイプのパラメータ仕様を含みます。 | |
| ## 目次 | |
| - [クイックスタート](#クイックスタート) | |
| - [API概要](#api概要) | |
| - [GenerationParamsパラメータ](#generationparamsパラメータ) | |
| - [GenerationConfigパラメータ](#generationconfigパラメータ) | |
| - [タスクタイプ](#タスクタイプ) | |
| - [ヘルパー関数](#ヘルパー関数) | |
| - [完全な例](#完全な例) | |
| - [ベストプラクティス](#ベストプラクティス) | |
| --- | |
| ## クイックスタート | |
| ### 基本的な使用法 | |
| ```python | |
| from acestep.handler import AceStepHandler | |
| from acestep.llm_inference import LLMHandler | |
| from acestep.inference import GenerationParams, GenerationConfig, generate_music | |
| # ハンドラーの初期化 | |
| dit_handler = AceStepHandler() | |
| llm_handler = LLMHandler() | |
| # サービスの初期化 | |
| dit_handler.initialize_service( | |
| project_root="/path/to/project", | |
| config_path="acestep-v15-turbo", | |
| device="cuda" | |
| ) | |
| llm_handler.initialize( | |
| checkpoint_dir="/path/to/checkpoints", | |
| lm_model_path="acestep-5Hz-lm-0.6B", | |
| backend="vllm", | |
| device="cuda" | |
| ) | |
| # 生成パラメータの設定 | |
| params = GenerationParams( | |
| caption="重低音のアップビートなエレクトロニックダンスミュージック", | |
| bpm=128, | |
| duration=30, | |
| ) | |
| # 生成設定の構成 | |
| config = GenerationConfig( | |
| batch_size=2, | |
| audio_format="flac", | |
| ) | |
| # 音楽を生成 | |
| result = generate_music(dit_handler, llm_handler, params, config, save_dir="/path/to/output") | |
| # 結果にアクセス | |
| if result.success: | |
| for audio in result.audios: | |
| print(f"生成完了:{audio['path']}") | |
| print(f"Key:{audio['key']}") | |
| print(f"Seed:{audio['params']['seed']}") | |
| else: | |
| print(f"エラー:{result.error}") | |
| ``` | |
| --- | |
| ## API概要 | |
| ### メイン関数 | |
| #### generate_music | |
| ```python | |
| def generate_music( | |
| dit_handler, | |
| llm_handler, | |
| params: GenerationParams, | |
| config: GenerationConfig, | |
| save_dir: Optional[str] = None, | |
| progress=None, | |
| ) -> GenerationResult | |
| ``` | |
| ACE-Stepモデルを使用して音楽を生成するメイン関数。 | |
| #### understand_music | |
| ```python | |
| def understand_music( | |
| llm_handler, | |
| audio_codes: str, | |
| temperature: float = 0.85, | |
| top_k: Optional[int] = None, | |
| top_p: Optional[float] = None, | |
| repetition_penalty: float = 1.0, | |
| use_constrained_decoding: bool = True, | |
| constrained_decoding_debug: bool = False, | |
| ) -> UnderstandResult | |
| ``` | |
| オーディオセマンティックコードを分析し、メタデータ(caption、lyrics、BPM、キーなど)を抽出します。 | |
| #### create_sample | |
| ```python | |
| def create_sample( | |
| llm_handler, | |
| query: str, | |
| instrumental: bool = False, | |
| vocal_language: Optional[str] = None, | |
| temperature: float = 0.85, | |
| top_k: Optional[int] = None, | |
| top_p: Optional[float] = None, | |
| repetition_penalty: float = 1.0, | |
| use_constrained_decoding: bool = True, | |
| constrained_decoding_debug: bool = False, | |
| ) -> CreateSampleResult | |
| ``` | |
| 自然言語の説明から完全な音楽サンプル(caption、lyrics、メタデータ)を生成します。 | |
| #### format_sample | |
| ```python | |
| def format_sample( | |
| llm_handler, | |
| caption: str, | |
| lyrics: str, | |
| user_metadata: Optional[Dict[str, Any]] = None, | |
| temperature: float = 0.85, | |
| top_k: Optional[int] = None, | |
| top_p: Optional[float] = None, | |
| repetition_penalty: float = 1.0, | |
| use_constrained_decoding: bool = True, | |
| constrained_decoding_debug: bool = False, | |
| ) -> FormatSampleResult | |
| ``` | |
| ユーザー提供のcaptionとlyricsをフォーマット・強化し、構造化されたメタデータを生成します。 | |
| ### 設定オブジェクト | |
| APIは2つの設定データクラスを使用します: | |
| **GenerationParams** - すべての音楽生成パラメータを含む: | |
| ```python | |
| @dataclass | |
| class GenerationParams: | |
| # タスクと指示 | |
| task_type: str = "text2music" | |
| instruction: str = "Fill the audio semantic mask based on the given conditions:" | |
| # オーディオアップロード | |
| reference_audio: Optional[str] = None | |
| src_audio: Optional[str] = None | |
| # LMコードヒント | |
| audio_codes: str = "" | |
| # テキスト入力 | |
| caption: str = "" | |
| lyrics: str = "" | |
| instrumental: bool = False | |
| # メタデータ | |
| vocal_language: str = "unknown" | |
| bpm: Optional[int] = None | |
| keyscale: str = "" | |
| timesignature: str = "" | |
| duration: float = -1.0 | |
| # 高度な設定 | |
| inference_steps: int = 8 | |
| seed: int = -1 | |
| guidance_scale: float = 7.0 | |
| use_adg: bool = False | |
| cfg_interval_start: float = 0.0 | |
| cfg_interval_end: float = 1.0 | |
| shift: float = 1.0 # 新規:タイムステップシフト係数 | |
| infer_method: str = "ode" # 新規:拡散推論方法 | |
| timesteps: Optional[List[float]] = None # 新規:カスタムタイムステップ | |
| repainting_start: float = 0.0 | |
| repainting_end: float = -1 | |
| audio_cover_strength: float = 1.0 | |
| # 5Hz言語モデルパラメータ | |
| thinking: bool = True | |
| lm_temperature: float = 0.85 | |
| lm_cfg_scale: float = 2.0 | |
| lm_top_k: int = 0 | |
| lm_top_p: float = 0.9 | |
| lm_negative_prompt: str = "NO USER INPUT" | |
| use_cot_metas: bool = True | |
| use_cot_caption: bool = True | |
| use_cot_lyrics: bool = False | |
| use_cot_language: bool = True | |
| use_constrained_decoding: bool = True | |
| # CoT生成値(LMによって自動入力) | |
| cot_bpm: Optional[int] = None | |
| cot_keyscale: str = "" | |
| cot_timesignature: str = "" | |
| cot_duration: Optional[float] = None | |
| cot_vocal_language: str = "unknown" | |
| cot_caption: str = "" | |
| cot_lyrics: str = "" | |
| ``` | |
| **GenerationConfig** - バッチと出力設定を含む: | |
| ```python | |
| @dataclass | |
| class GenerationConfig: | |
| batch_size: int = 2 | |
| allow_lm_batch: bool = False | |
| use_random_seed: bool = True | |
| seeds: Optional[List[int]] = None | |
| lm_batch_chunk_size: int = 8 | |
| constrained_decoding_debug: bool = False | |
| audio_format: str = "flac" | |
| ``` | |
| ### 結果オブジェクト | |
| **GenerationResult** - 音楽生成の結果: | |
| ```python | |
| @dataclass | |
| class GenerationResult: | |
| # オーディオ出力 | |
| audios: List[Dict[str, Any]] # オーディオ辞書のリスト | |
| # 生成情報 | |
| status_message: str # 生成からのステータスメッセージ | |
| extra_outputs: Dict[str, Any] # 追加出力(latents、masks、lm_metadata、time_costs) | |
| # 成功ステータス | |
| success: bool # 生成が成功したかどうか | |
| error: Optional[str] # 失敗した場合のエラーメッセージ | |
| ``` | |
| **オーディオ辞書構造:** | |
| `audios` リストの各アイテムには以下が含まれます: | |
| ```python | |
| { | |
| "path": str, # 保存されたオーディオへのファイルパス | |
| "tensor": Tensor, # オーディオテンソル [channels, samples]、CPU、float32 | |
| "key": str, # ユニークなオーディオキー(パラメータに基づくUUID) | |
| "sample_rate": int, # サンプルレート(デフォルト:48000) | |
| "params": Dict, # このオーディオの生成パラメータ(seed、audio_codesなどを含む) | |
| } | |
| ``` | |
| --- | |
| ## GenerationParamsパラメータ | |
| ### テキスト入力 | |
| | パラメータ | 型 | デフォルト | 説明 | | |
| |-----------|------|---------|-------------| | |
| | `caption` | `str` | `""` | 希望する音楽のテキスト説明。「リラックスしたピアノ音楽」のような単純なプロンプトや、ジャンル、ムード、楽器などを含む詳細な説明が可能。最大512文字。| | |
| | `lyrics` | `str` | `""` | ボーカル音楽の歌詞テキスト。インストゥルメンタルトラックには `"[Instrumental]"` を使用。複数言語をサポート。最大4096文字。| | |
| | `instrumental` | `bool` | `False` | Trueの場合、歌詞に関係なくインストゥルメンタル音楽を生成。| | |
| ### 音楽メタデータ | |
| | パラメータ | 型 | デフォルト | 説明 | | |
| |-----------|------|---------|-------------| | |
| | `bpm` | `Optional[int]` | `None` | 1分あたりのビート数(30-300)。`None` でLM経由の自動検出を有効化。| | |
| | `keyscale` | `str` | `""` | 音楽キー(例:「C Major」、「Am」、「F# minor」)。空文字列で自動検出を有効化。| | |
| | `timesignature` | `str` | `""` | 拍子記号(2は'2/4'、3は'3/4'、4は'4/4'、6は'6/8')。空文字列で自動検出を有効化。| | |
| | `vocal_language` | `str` | `"unknown"` | ボーカルの言語コード(ISO 639-1)。サポート:`"en"`、`"zh"`、`"ja"`、`"es"`、`"fr"` など。自動検出には `"unknown"` を使用。| | |
| | `duration` | `float` | `-1.0` | 目標オーディオ長(秒)(10-600)。<= 0またはNoneの場合、モデルが歌詞の長さに基づいて自動選択。| | |
| ### 生成パラメータ | |
| | パラメータ | 型 | デフォルト | 説明 | | |
| |-----------|------|---------|-------------| | |
| | `inference_steps` | `int` | `8` | デノイズステップ数。Turboモデル:1-20(推奨8)。Baseモデル:1-200(推奨32-64)。高い = 品質向上だが遅い。| | |
| | `guidance_scale` | `float` | `7.0` | 分類器フリーガイダンススケール(1.0-15.0)。高い値はテキストプロンプトへの忠実性を増加。非turboモデルのみサポート。典型的な範囲:5.0-9.0。| | |
| | `seed` | `int` | `-1` | 再現性のためのランダムシード。ランダムシードには `-1`、固定シードには任意の正の整数を使用。| | |
| ### 高度なDiTパラメータ | |
| | パラメータ | 型 | デフォルト | 説明 | | |
| |-----------|------|---------|-------------| | |
| | `use_adg` | `bool` | `False` | 適応デュアルガイダンスを使用(baseモデルのみ)。速度を犠牲にして品質を向上。| | |
| | `cfg_interval_start` | `float` | `0.0` | CFG適用開始比率(0.0-1.0)。分類器フリーガイダンスの適用開始タイミングを制御。| | |
| | `cfg_interval_end` | `float` | `1.0` | CFG適用終了比率(0.0-1.0)。分類器フリーガイダンスの適用終了タイミングを制御。| | |
| | `shift` | `float` | `1.0` | タイムステップシフト係数(範囲1.0-5.0、デフォルト1.0)。!= 1.0の場合、タイムステップに `t = shift * t / (1 + (shift - 1) * t)` を適用。turboモデルには3.0推奨。| | |
| | `infer_method` | `str` | `"ode"` | 拡散推論方法。`"ode"`(Euler)はより高速で決定的。`"sde"`(確率的)は分散のある異なる結果を生成する可能性あり。| | |
| | `timesteps` | `Optional[List[float]]` | `None` | カスタムタイムステップ、1.0から0.0の浮動小数点リスト(例:`[0.97, 0.76, 0.615, 0.5, 0.395, 0.28, 0.18, 0.085, 0]`)。提供された場合、`inference_steps` と `shift` をオーバーライド。| | |
| ### タスク固有パラメータ | |
| | パラメータ | 型 | デフォルト | 説明 | | |
| |-----------|------|---------|-------------| | |
| | `task_type` | `str` | `"text2music"` | 生成タスクタイプ。詳細は[タスクタイプ](#タスクタイプ)セクションを参照。| | |
| | `instruction` | `str` | `"Fill the audio semantic mask based on the given conditions:"` | タスク固有の指示プロンプト。| | |
| | `reference_audio` | `Optional[str]` | `None` | スタイル転送または継続タスク用の参照オーディオファイルパス。| | |
| | `src_audio` | `Optional[str]` | `None` | オーディオ間タスク(cover、repaintなど)用のソースオーディオファイルパス。| | |
| | `audio_codes` | `str` | `""` | 事前抽出された5Hzオーディオセマンティックコード文字列。高度な使用のみ。| | |
| | `repainting_start` | `float` | `0.0` | リペイント開始時間(秒)(repaint/legoタスク用)。| | |
| | `repainting_end` | `float` | `-1` | リペイント終了時間(秒)。オーディオの終端には `-1` を使用。| | |
| | `audio_cover_strength` | `float` | `1.0` | オーディオカバー/コードの影響強度(0.0-1.0)。スタイル転送タスクには小さい値(0.2)を設定。| | |
| ### 5Hz言語モデルパラメータ | |
| | パラメータ | 型 | デフォルト | 説明 | | |
| |-----------|------|---------|-------------| | |
| | `thinking` | `bool` | `True` | セマンティック/音楽メタデータとコード用の5Hz言語モデル「思考の連鎖」推論を有効化。| | |
| | `lm_temperature` | `float` | `0.85` | LMサンプリング温度(0.0-2.0)。高い = より創造的/多様、低い = より保守的。| | |
| | `lm_cfg_scale` | `float` | `2.0` | LM分類器フリーガイダンススケール。高い = プロンプトへのより強い忠実性。| | |
| | `lm_top_k` | `int` | `0` | LM top-kサンプリング。`0` でtop-kフィルタリングを無効化。典型的な値:40-100。| | |
| | `lm_top_p` | `float` | `0.9` | LM核サンプリング(0.0-1.0)。`1.0` で核サンプリングを無効化。典型的な値:0.9-0.95。| | |
| | `lm_negative_prompt` | `str` | `"NO USER INPUT"` | LMガイダンス用のネガティブプロンプト。不要な特性を避けるのに役立つ。| | |
| | `use_cot_metas` | `bool` | `True` | LM CoT推論を使用してメタデータを生成(BPM、キー、duration など)。| | |
| | `use_cot_caption` | `bool` | `True` | LM CoT推論を使用してユーザーcaptionを改良。| | |
| | `use_cot_language` | `bool` | `True` | LM CoT推論を使用してボーカル言語を検出。| | |
| | `use_cot_lyrics` | `bool` | `False` | (将来の使用のために予約)LM CoTを使用して歌詞を生成/改良。| | |
| | `use_constrained_decoding` | `bool` | `True` | 構造化されたLM出力のための制約付きデコーディングを有効化。| | |
| --- | |
| ## GenerationConfigパラメータ | |
| | パラメータ | 型 | デフォルト | 説明 | | |
| |-----------|------|---------|-------------| | |
| | `batch_size` | `int` | `2` | 並列生成するサンプル数(1-8)。高い値はより多くのGPUメモリを必要とする。| | |
| | `allow_lm_batch` | `bool` | `False` | LMでのバッチ処理を許可。`batch_size >= 2` かつ `thinking=True` の場合により高速。| | |
| | `use_random_seed` | `bool` | `True` | ランダムシードを使用するかどうか。`True` で毎回異なる結果、`False` で再現可能な結果。| | |
| | `seeds` | `Optional[List[int]]` | `None` | バッチ生成用のシードリスト。提供された場合、batch_sizeより少なければランダムシードでパディング。単一のintも可。| | |
| | `lm_batch_chunk_size` | `int` | `8` | LM推論チャンクあたりの最大バッチサイズ(GPUメモリ制約)。| | |
| | `constrained_decoding_debug` | `bool` | `False` | 制約付きデコーディングのデバッグログを有効化。| | |
| | `audio_format` | `str` | `"flac"` | 出力オーディオ形式。オプション:`"mp3"`、`"wav"`、`"flac"`。高速保存のためデフォルトはFLAC。| | |
| --- | |
| ## タスクタイプ | |
| ACE-Stepは6種類の生成タスクタイプをサポートし、それぞれ特定のユースケースに最適化されています。 | |
| ### 1. Text2Music(デフォルト) | |
| **目的**:テキスト説明とオプションのメタデータから音楽を生成。 | |
| **主要パラメータ**: | |
| ```python | |
| params = GenerationParams( | |
| task_type="text2music", | |
| caption="エレキギターのエネルギッシュなロック音楽", | |
| lyrics="[Instrumental]", # または実際の歌詞 | |
| bpm=140, | |
| duration=30, | |
| ) | |
| ``` | |
| **必須**: | |
| - `caption` または `lyrics`(少なくとも1つ) | |
| **オプションだが推奨**: | |
| - `bpm`:テンポを制御 | |
| - `keyscale`:音楽キーを制御 | |
| - `timesignature`:リズム構造を制御 | |
| - `duration`:長さを制御 | |
| - `vocal_language`:ボーカル特性を制御 | |
| **ユースケース**: | |
| - テキスト説明から音楽を生成 | |
| - プロンプトからバッキングトラックを作成 | |
| - 歌詞付きの曲を生成 | |
| --- | |
| ### 2. Cover | |
| **目的**:既存のオーディオを構造を維持しながらスタイル/音色を変更して変換。 | |
| **主要パラメータ**: | |
| ```python | |
| params = GenerationParams( | |
| task_type="cover", | |
| src_audio="original_song.mp3", | |
| caption="ジャズピアノバージョン", | |
| audio_cover_strength=0.8, # 0.0-1.0 | |
| ) | |
| ``` | |
| **必須**: | |
| - `src_audio`:ソースオーディオファイルパス | |
| - `caption`:希望するスタイル/変換の説明 | |
| **オプション**: | |
| - `audio_cover_strength`:元のオーディオの影響を制御 | |
| - `1.0`:元の構造を強く維持 | |
| - `0.5`:バランスの取れた変換 | |
| - `0.1`:緩やかな解釈 | |
| - `lyrics`:新しい歌詞(ボーカルを変更する場合) | |
| **ユースケース**: | |
| - 異なるスタイルのカバーを作成 | |
| - メロディを維持しながら楽器編成を変更 | |
| - ジャンル変換 | |
| --- | |
| ### 3. Repaint | |
| **目的**:オーディオの特定の時間セグメントを再生成し、残りは変更しない。 | |
| **主要パラメータ**: | |
| ```python | |
| params = GenerationParams( | |
| task_type="repaint", | |
| src_audio="original.mp3", | |
| repainting_start=10.0, # 秒 | |
| repainting_end=20.0, # 秒 | |
| caption="ピアノソロでスムーズなトランジション", | |
| ) | |
| ``` | |
| **必須**: | |
| - `src_audio`:ソースオーディオファイルパス | |
| - `repainting_start`:開始時間(秒) | |
| - `repainting_end`:終了時間(秒)(ファイル終端には `-1` を使用) | |
| - `caption`:リペイントセクションの希望するコンテンツの説明 | |
| **ユースケース**: | |
| - 生成された音楽の特定セクションを修正 | |
| - 曲の一部にバリエーションを追加 | |
| - スムーズなトランジションを作成 | |
| - 問題のあるセグメントを置き換え | |
| --- | |
| ### 4. Lego(Baseモデルのみ) | |
| **目的**:既存のオーディオのコンテキストで特定の楽器トラックを生成。 | |
| **主要パラメータ**: | |
| ```python | |
| params = GenerationParams( | |
| task_type="lego", | |
| src_audio="backing_track.mp3", | |
| instruction="Generate the guitar track based on the audio context:", | |
| caption="ブルージーな感じのリードギターメロディ", | |
| repainting_start=0.0, | |
| repainting_end=-1, | |
| ) | |
| ``` | |
| **必須**: | |
| - `src_audio`:ソース/バッキングオーディオパス | |
| - `instruction`:トラックタイプを指定する必要あり(例:「Generate the {TRACK_NAME} track...」) | |
| - `caption`:希望するトラック特性の説明 | |
| **利用可能なトラック**: | |
| - `"vocals"`、`"backing_vocals"`、`"drums"`、`"bass"`、`"guitar"`、`"keyboard"`、 | |
| - `"percussion"`、`"strings"`、`"synth"`、`"fx"`、`"brass"`、`"woodwinds"` | |
| **ユースケース**: | |
| - 特定の楽器トラックを追加 | |
| - バッキングトラック上に追加の楽器をレイヤー | |
| - マルチトラック作品を反復的に作成 | |
| --- | |
| ### 5. Extract(Baseモデルのみ) | |
| **目的**:ミックスオーディオから特定の楽器トラックを抽出/分離。 | |
| **主要パラメータ**: | |
| ```python | |
| params = GenerationParams( | |
| task_type="extract", | |
| src_audio="full_mix.mp3", | |
| instruction="Extract the vocals track from the audio:", | |
| ) | |
| ``` | |
| **必須**: | |
| - `src_audio`:ミックスオーディオファイルパス | |
| - `instruction`:抽出するトラックを指定する必要あり | |
| **利用可能なトラック**:Legoタスクと同じ | |
| **ユースケース**: | |
| - ステム分離 | |
| - 特定の楽器を分離 | |
| - リミックスを作成 | |
| - 個別トラックを分析 | |
| --- | |
| ### 6. Complete(Baseモデルのみ) | |
| **目的**:指定された楽器で部分的なトラックを完成/拡張。 | |
| **主要パラメータ**: | |
| ```python | |
| params = GenerationParams( | |
| task_type="complete", | |
| src_audio="incomplete_track.mp3", | |
| instruction="Complete the input track with drums, bass, guitar:", | |
| caption="ロックスタイルの完成", | |
| ) | |
| ``` | |
| **必須**: | |
| - `src_audio`:不完全/部分的なトラックのパス | |
| - `instruction`:追加するトラックを指定する必要あり | |
| - `caption`:希望するスタイルの説明 | |
| **ユースケース**: | |
| - 不完全な作品をアレンジ | |
| - バッキングトラックを追加 | |
| - 音楽アイデアを自動完成 | |
| --- | |
| ## ヘルパー関数 | |
| ### understand_music | |
| オーディオコードを分析して音楽についてのメタデータを抽出。 | |
| ```python | |
| from acestep.inference import understand_music | |
| result = understand_music( | |
| llm_handler=llm_handler, | |
| audio_codes="<|audio_code_123|><|audio_code_456|>...", | |
| temperature=0.85, | |
| use_constrained_decoding=True, | |
| ) | |
| if result.success: | |
| print(f"Caption:{result.caption}") | |
| print(f"歌詞:{result.lyrics}") | |
| print(f"BPM:{result.bpm}") | |
| print(f"キー:{result.keyscale}") | |
| print(f"長さ:{result.duration}秒") | |
| print(f"言語:{result.language}") | |
| else: | |
| print(f"エラー:{result.error}") | |
| ``` | |
| **ユースケース**: | |
| - 既存の音楽を分析 | |
| - オーディオコードからメタデータを抽出 | |
| - 生成パラメータをリバースエンジニアリング | |
| --- | |
| ### create_sample | |
| 自然言語の説明から完全な音楽サンプルを生成。これは「シンプルモード」/「インスピレーションモード」機能です。 | |
| ```python | |
| from acestep.inference import create_sample | |
| result = create_sample( | |
| llm_handler=llm_handler, | |
| query="静かな夜のための柔らかいベンガルのラブソング", | |
| instrumental=False, | |
| vocal_language="bn", # オプション:ベンガル語に制限 | |
| temperature=0.85, | |
| ) | |
| if result.success: | |
| print(f"Caption:{result.caption}") | |
| print(f"歌詞:{result.lyrics}") | |
| print(f"BPM:{result.bpm}") | |
| print(f"長さ:{result.duration}秒") | |
| print(f"キー:{result.keyscale}") | |
| print(f"インストゥルメンタルか:{result.instrumental}") | |
| # generate_musicと一緒に使用 | |
| params = GenerationParams( | |
| caption=result.caption, | |
| lyrics=result.lyrics, | |
| bpm=result.bpm, | |
| duration=result.duration, | |
| keyscale=result.keyscale, | |
| vocal_language=result.language, | |
| ) | |
| else: | |
| print(f"エラー:{result.error}") | |
| ``` | |
| --- | |
| ### format_sample | |
| ユーザー提供のcaptionとlyricsをフォーマット・強化し、構造化されたメタデータを生成。 | |
| ```python | |
| from acestep.inference import format_sample | |
| result = format_sample( | |
| llm_handler=llm_handler, | |
| caption="ラテンポップ、レゲトン", | |
| lyrics="[Verse 1]\nBailando en la noche...", | |
| user_metadata={"bpm": 95}, # オプション:特定の値を制約 | |
| temperature=0.85, | |
| ) | |
| if result.success: | |
| print(f"強化されたCaption:{result.caption}") | |
| print(f"フォーマットされた歌詞:{result.lyrics}") | |
| print(f"BPM:{result.bpm}") | |
| print(f"長さ:{result.duration}秒") | |
| print(f"キー:{result.keyscale}") | |
| print(f"検出された言語:{result.language}") | |
| else: | |
| print(f"エラー:{result.error}") | |
| ``` | |
| --- | |
| ## ベストプラクティス | |
| ### 1. Captionの書き方 | |
| **良いCaption**: | |
| ```python | |
| # 具体的で説明的 | |
| caption="重低音とシンセサイザーリードのアップビートなエレクトロニックダンスミュージック" | |
| # ムードとジャンルを含む | |
| caption="アコースティックギターと柔らかいボーカルのメランコリックなインディーフォーク" | |
| # 楽器を指定 | |
| caption="ピアノ、アップライトベース、ブラシドラムのジャズトリオ" | |
| ``` | |
| **避けるべき**: | |
| ```python | |
| # 曖昧すぎる | |
| caption="良い音楽" | |
| # 矛盾 | |
| caption="速い遅い音楽" # テンポの矛盾 | |
| ``` | |
| ### 2. パラメータチューニング | |
| **最高品質のために**: | |
| - baseモデルを使用し、`inference_steps=64` 以上 | |
| - `use_adg=True` を有効化 | |
| - `guidance_scale=7.0-9.0` を設定 | |
| - より良いタイムステップ分布のために `shift=3.0` を設定 | |
| - ロスレスオーディオ形式を使用(`audio_format="wav"`) | |
| **速度のために**: | |
| - turboモデルを使用し、`inference_steps=8` | |
| - ADGを無効化(`use_adg=False`) | |
| - `infer_method="ode"`(デフォルト)を使用 | |
| - 圧縮形式を使用(`audio_format="mp3"`)またはデフォルトのFLAC | |
| **一貫性のために**: | |
| - configで `use_random_seed=False` を設定 | |
| - 固定 `seeds` リストまたはparamsで単一 `seed` を使用 | |
| - `lm_temperature` を低く保つ(0.7-0.85) | |
| **多様性のために**: | |
| - configで `use_random_seed=True` を設定 | |
| - `lm_temperature` を増加(0.9-1.1) | |
| - バリエーションのために `batch_size > 1` を使用 | |
| ### 3. Durationガイドライン | |
| - **インストゥルメンタル**:30-180秒が適切 | |
| - **歌詞付き**:自動検出を推奨(`duration=-1` を設定またはデフォルトのまま) | |
| - **短いクリップ**:最小10-20秒 | |
| - **長尺**:最大600秒(10分) | |
| ### 4. LMの使用 | |
| **LMを有効にする場合(`thinking=True`)**: | |
| - 自動メタデータ検出が必要 | |
| - caption改良が欲しい | |
| - 最小限の入力から生成 | |
| - 多様な出力が必要 | |
| **LMを無効にする場合(`thinking=False`)**: | |
| - すでに正確なメタデータがある | |
| - より高速な生成が必要 | |
| - パラメータの完全な制御が欲しい | |
| --- | |
| ## トラブルシューティング | |
| ### よくある問題 | |
| **問題**:メモリ不足エラー | |
| - **解決策**:`batch_size`、`inference_steps` を減らすか、CPUオフロードを有効化 | |
| **問題**:結果の品質が悪い | |
| - **解決策**:`inference_steps` を増やす、`guidance_scale` を調整、baseモデルを使用 | |
| **問題**:結果がプロンプトと一致しない | |
| - **解決策**:captionをより具体的に、`guidance_scale` を増やす、LM改良を有効化(`thinking=True`) | |
| **問題**:生成が遅い | |
| - **解決策**:turboモデルを使用、`inference_steps` を減らす、ADGを無効化 | |
| **問題**:LMがコードを生成しない | |
| - **解決策**:`llm_handler` が初期化されていることを確認、`thinking=True` と `use_cot_metas=True` を確認 | |
| **問題**:シードが尊重されない | |
| - **解決策**:configで `use_random_seed=False` を設定し、`seeds` リストまたはparamsで `seed` を提供 | |
| **問題**:カスタムタイムステップが機能しない | |
| - **解決策**:タイムステップが1.0から0.0の浮動小数点リストで、適切に順序付けられていることを確認 | |
| --- | |
| 詳細については以下を参照: | |
| - メインREADME:[`../../README.md`](../../README.md) | |
| - REST APIドキュメント:[`API.md`](API.md) | |
| - Gradioデモガイド:[`GRADIO_GUIDE.md`](GRADIO_GUIDE.md) | |
| - プロジェクトリポジトリ:[ACE-Step-1.5](https://github.com/yourusername/ACE-Step-1.5) | |