| <div align="center"> | |
| <h1>GPT-SoVITS-WebUI</h1> | |
| Güçlü Birkaç Örnekli Ses Dönüştürme ve Metinden Konuşmaya Web Arayüzü.<br><br> | |
| [](https://github.com/RVC-Boss/GPT-SoVITS) | |
| <a href="https://trendshift.io/repositories/7033" target="_blank"><img src="https://trendshift.io/api/badge/repositories/7033" alt="RVC-Boss%2FGPT-SoVITS | Trendshift" style="width: 250px; height: 55px;" width="250" height="55"/></a> | |
| [](https://www.python.org) | |
| [](https://github.com/RVC-Boss/gpt-sovits/releases) | |
| [](https://colab.research.google.com/github/RVC-Boss/GPT-SoVITS/blob/main/Colab-WebUI.ipynb) | |
| [](https://lj1995-gpt-sovits-proplus.hf.space/) | |
| [](https://hub.docker.com/r/xxxxrt666/gpt-sovits) | |
| [](https://www.yuque.com/baicaigongchang1145haoyuangong/ib3g1e) | |
| [](https://rentry.co/GPT-SoVITS-guide#/) | |
| [](https://github.com/RVC-Boss/GPT-SoVITS/blob/main/docs/en/Changelog_EN.md) | |
| [](https://github.com/RVC-Boss/GPT-SoVITS/blob/main/LICENSE) | |
| [**English**](../../README.md) | [**中文简体**](../cn/README.md) | [**日本語**](../ja/README.md) | [**한국어**](../ko/README.md) | **Türkçe** | |
| </div> | |
| --- | |
| ## Özellikler: | |
| 1. **Sıfır Örnekli Metinden Konuşmaya:** 5 saniyelik bir vokal örneği girin ve anında metinden konuşmaya dönüşümünü deneyimleyin. | |
| 2. **Birkaç Örnekli Metinden Konuşmaya:** Daha iyi ses benzerliği ve gerçekçiliği için modeli yalnızca 1 dakikalık eğitim verisiyle ince ayarlayın. | |
| 3. **Çapraz Dil Desteği:** Eğitim veri setinden farklı dillerde çıkarım, şu anda İngilizce, Japonca, Çince, Kantonca ve Koreceyi destekliyor. | |
| 4. **Web Arayüzü Araçları:** Entegre araçlar arasında vokal eşliğinde ayırma, otomatik eğitim seti segmentasyonu, Çince ASR ve metin etiketleme bulunur ve yeni başlayanların eğitim veri setleri ve GPT/SoVITS modelleri oluşturmalarına yardımcı olur. | |
| **[Demo videomuzu](https://www.bilibili.com/video/BV12g4y1m7Uw) buradan izleyin!** | |
| Görünmeyen konuşmacılar birkaç örnekli ince ayar demosu: | |
| https://github.com/RVC-Boss/GPT-SoVITS/assets/129054828/05bee1fa-bdd8-4d85-9350-80c060ab47fb | |
| **Kullanıcı Kılavuzu: [简体中文](https://www.yuque.com/baicaigongchang1145haoyuangong/ib3g1e) | [English](https://rentry.co/GPT-SoVITS-guide#/)** | |
| ## Kurulum | |
| ### Test Edilmiş Ortamlar | |
| | Python Version | PyTorch Version | Device | | |
| | -------------- | ---------------- | ------------- | | |
| | Python 3.10 | PyTorch 2.5.1 | CUDA 12.4 | | |
| | Python 3.11 | PyTorch 2.5.1 | CUDA 12.4 | | |
| | Python 3.11 | PyTorch 2.7.0 | CUDA 12.8 | | |
| | Python 3.9 | PyTorch 2.8.0dev | CUDA 12.8 | | |
| | Python 3.9 | PyTorch 2.5.1 | Apple silicon | | |
| | Python 3.11 | PyTorch 2.7.0 | Apple silicon | | |
| | Python 3.9 | PyTorch 2.2.2 | CPU | | |
| ### Windows | |
| Eğer bir Windows kullanıcısıysanız (win>=10 ile test edilmiştir), [entegre paketi indirin](https://huggingface.co/lj1995/GPT-SoVITS-windows-package/resolve/main/GPT-SoVITS-v3lora-20250228.7z?download=true) ve _go-webui.bat_ dosyasına çift tıklayarak GPT-SoVITS-WebUI'yi başlatın. | |
| ```pwsh | |
| conda create -n GPTSoVits python=3.10 | |
| conda activate GPTSoVits | |
| pwsh -F install.ps1 --Device <CU126|CU128|CPU> --Source <HF|HF-Mirror|ModelScope> [--DownloadUVR5] | |
| ``` | |
| ### Linux | |
| ```bash | |
| conda create -n GPTSoVits python=3.10 | |
| conda activate GPTSoVits | |
| bash install.sh --device <CU126|CU128|ROCM|CPU> --source <HF|HF-Mirror|ModelScope> [--download-uvr5] | |
| ``` | |
| ### macOS | |
| **Not: Mac'lerde GPU'larla eğitilen modeller, diğer cihazlarda eğitilenlere göre önemli ölçüde daha düşük kalitede sonuç verir, bu nedenle geçici olarak CPU'lar kullanıyoruz.** | |
| Aşağıdaki komutları çalıştırarak programı yükleyin: | |
| ```bash | |
| conda create -n GPTSoVits python=3.10 | |
| conda activate GPTSoVits | |
| bash install.sh --device <MPS|CPU> --source <HF|HF-Mirror|ModelScope> [--download-uvr5] | |
| ``` | |
| ### El ile Yükleme | |
| #### Bağımlılıkları Yükleme | |
| ```bash | |
| conda create -n GPTSoVits python=3.10 | |
| conda activate GPTSoVits | |
| pip install -r extra-req.txt --no-deps | |
| pip install -r requirements.txt | |
| ``` | |
| #### FFmpeg'i Yükleme | |
| ##### Conda Kullanıcıları | |
| ```bash | |
| conda activate GPTSoVits | |
| conda install ffmpeg | |
| ``` | |
| ##### Ubuntu/Debian Kullanıcıları | |
| ```bash | |
| sudo apt install ffmpeg | |
| sudo apt install libsox-dev | |
| ``` | |
| ##### Windows Kullanıcıları | |
| [ffmpeg.exe](https://huggingface.co/lj1995/VoiceConversionWebUI/blob/main/ffmpeg.exe) ve [ffprobe.exe](https://huggingface.co/lj1995/VoiceConversionWebUI/blob/main/ffprobe.exe) dosyalarını indirin ve GPT-SoVITS kök dizinine yerleştirin | |
| [Visual Studio 2017](https://aka.ms/vs/17/release/vc_redist.x86.exe) ortamını yükleyin | |
| ##### MacOS Kullanıcıları | |
| ```bash | |
| brew install ffmpeg | |
| ``` | |
| ### GPT-SoVITS Çalıştırma (Docker Kullanarak) | |
| #### Docker İmajı Seçimi | |
| Kod tabanı hızla geliştiği halde Docker imajları daha yavaş yayınlandığı için lütfen şu adımları izleyin: | |
| - En güncel kullanılabilir imaj etiketlerini görmek için [Docker Hub](https://hub.docker.com/r/xxxxrt666/gpt-sovits) adresini kontrol edin | |
| - Ortamınıza uygun bir imaj etiketi seçin | |
| - `Lite`, Docker imajında ASR modelleri ve UVR5 modellerinin **bulunmadığı** anlamına gelir. UVR5 modellerini manuel olarak indirebilirsiniz; ASR modelleri ise gerektiğinde program tarafından otomatik olarak indirilir | |
| - Docker Compose sırasında, uygun mimariye (amd64 veya arm64) ait imaj otomatik olarak indirilir | |
| - Docker Compose, mevcut dizindeki **tüm dosyaları** bağlayacaktır. Docker imajını kullanmadan önce lütfen proje kök dizinine geçin ve **en son kodu çekin** | |
| - Opsiyonel: En güncel değişiklikleri almak için, sağlanan Dockerfile ile yerel olarak imajı kendiniz oluşturabilirsiniz | |
| #### Ortam Değişkenleri | |
| - `is_half`: Yarı hassasiyet (fp16) kullanımını kontrol eder. GPU’nuz destekliyorsa, belleği azaltmak için `true` olarak ayarlayın. | |
| #### Paylaşılan Bellek Yapılandırması | |
| Windows (Docker Desktop) ortamında, varsayılan paylaşılan bellek boyutu düşüktür ve bu beklenmedik hatalara neden olabilir. Sistem belleğinize göre Docker Compose dosyasındaki `shm_size` değerini (örneğin `16g`) artırmanız önerilir. | |
| #### Servis Seçimi | |
| `docker-compose.yaml` dosyasında iki tür servis tanımlanmıştır: | |
| - `GPT-SoVITS-CU126` ve `GPT-SoVITS-CU128`: Tüm özellikleri içeren tam sürüm. | |
| - `GPT-SoVITS-CU126-Lite` ve `GPT-SoVITS-CU128-Lite`: Daha az bağımlılığa ve sınırlı işlevselliğe sahip hafif sürüm. | |
| Belirli bir servisi Docker Compose ile çalıştırmak için şu komutu kullanın: | |
| ```bash | |
| docker compose run --service-ports <GPT-SoVITS-CU126-Lite|GPT-SoVITS-CU128-Lite|GPT-SoVITS-CU126|GPT-SoVITS-CU128> | |
| ``` | |
| #### Docker İmajını Yerel Olarak Oluşturma | |
| Docker imajını kendiniz oluşturmak isterseniz şu komutu kullanın: | |
| ```bash | |
| bash docker_build.sh --cuda <12.6|12.8> [--lite] | |
| ``` | |
| #### Çalışan Konteynere Erişim (Bash Shell) | |
| Konteyner arka planda çalışırken, aşağıdaki komutla içine girebilirsiniz: | |
| ```bash | |
| docker exec -it <GPT-SoVITS-CU126-Lite|GPT-SoVITS-CU128-Lite|GPT-SoVITS-CU126|GPT-SoVITS-CU128> bash | |
| ``` | |
| ## Önceden Eğitilmiş Modeller | |
| **Eğer `install.sh` başarıyla çalıştırılırsa, No.1,2,3 adımını atlayabilirsiniz.** | |
| 1. [GPT-SoVITS Models](https://huggingface.co/lj1995/GPT-SoVITS) üzerinden önceden eğitilmiş modelleri indirip `GPT_SoVITS/pretrained_models` dizinine yerleştirin. | |
| 2. [G2PWModel.zip(HF)](https://huggingface.co/XXXXRT/GPT-SoVITS-Pretrained/resolve/main/G2PWModel.zip)| [G2PWModel.zip(ModelScope)](https://www.modelscope.cn/models/XXXXRT/GPT-SoVITS-Pretrained/resolve/master/G2PWModel.zip) üzerinden modeli indirip sıkıştırmayı açın ve `G2PWModel` olarak yeniden adlandırın, ardından `GPT_SoVITS/text` dizinine yerleştirin. (Sadece Çince TTS için) | |
| 3. UVR5 (Vokal/Enstrümantal Ayrımı & Yankı Giderme) için, [UVR5 Weights](https://huggingface.co/lj1995/VoiceConversionWebUI/tree/main/uvr5_weights) üzerinden modelleri indirip `tools/uvr5/uvr5_weights` dizinine yerleştirin. | |
| - UVR5'te bs_roformer veya mel_band_roformer modellerini kullanıyorsanız, modeli ve ilgili yapılandırma dosyasını manuel olarak indirip `tools/UVR5/UVR5_weights` klasörüne yerleştirebilirsiniz. **Model dosyası ve yapılandırma dosyasının adı, uzantı dışında aynı olmalıdır**. Ayrıca, model ve yapılandırma dosyasının adlarında **"roformer"** kelimesi yer almalıdır, böylece roformer sınıfındaki bir model olarak tanınır. | |
| - Model adı ve yapılandırma dosyası adı içinde **doğrudan model tipini belirtmek önerilir**. Örneğin: mel_mand_roformer, bs_roformer. Belirtilmezse, yapılandırma dosyasından özellikler karşılaştırılarak model tipi belirlenir. Örneğin, `bs_roformer_ep_368_sdr_12.9628.ckpt` modeli ve karşılık gelen yapılandırma dosyası `bs_roformer_ep_368_sdr_12.9628.yaml` bir çifttir. Aynı şekilde, `kim_mel_band_roformer.ckpt` ve `kim_mel_band_roformer.yaml` da bir çifttir. | |
| 4. Çince ASR için, [Damo ASR Model](https://modelscope.cn/models/damo/speech_paraformer-large_asr_nat-zh-cn-16k-common-vocab8404-pytorch/files), [Damo VAD Model](https://modelscope.cn/models/damo/speech_fsmn_vad_zh-cn-16k-common-pytorch/files) ve [Damo Punc Model](https://modelscope.cn/models/damo/punc_ct-transformer_zh-cn-common-vocab272727-pytorch/files) üzerinden modelleri indirip `tools/asr/models` dizinine yerleştirin. | |
| 5. İngilizce veya Japonca ASR için, [Faster Whisper Large V3](https://huggingface.co/Systran/faster-whisper-large-v3) üzerinden modeli indirip `tools/asr/models` dizinine yerleştirin. Ayrıca, [diğer modeller](https://huggingface.co/Systran) benzer bir etki yaratabilir ve daha az disk alanı kaplayabilir. | |
| ## Veri Seti Formatı | |
| TTS açıklama .list dosya formatı: | |
| ``` | |
| vocal_path|speaker_name|language|text | |
| ``` | |
| Dil sözlüğü: | |
| - 'zh': Çince | |
| - 'ja': Japonca | |
| - 'en': İngilizce | |
| - 'ko': Korece | |
| - 'yue': Kantonca | |
| Örnek: | |
| ``` | |
| D:\GPT-SoVITS\xxx/xxx.wav|xxx|en|I like playing Genshin. | |
| ``` | |
| ## İnce Ayar ve Çıkarım | |
| ### WebUI'yi Açın | |
| #### Entegre Paket Kullanıcıları | |
| `go-webui.bat` dosyasına çift tıklayın veya `go-webui.ps1` kullanın. | |
| V1'e geçmek istiyorsanız, `go-webui-v1.bat` dosyasına çift tıklayın veya `go-webui-v1.ps1` kullanın. | |
| #### Diğerleri | |
| ```bash | |
| python webui.py <dil(isteğe bağlı)> | |
| ``` | |
| V1'e geçmek istiyorsanız, | |
| ```bash | |
| python webui.py v1 <dil(isteğe bağlı)> | |
| ``` | |
| veya WebUI'de manuel olarak sürüm değiştirin. | |
| ### İnce Ayar | |
| #### Yol Otomatik Doldurma artık destekleniyor | |
| 1. Ses yolunu doldurun | |
| 2. Sesi küçük parçalara ayırın | |
| 3. Gürültü azaltma (isteğe bağlı) | |
| 4. ASR | |
| 5. ASR transkripsiyonlarını düzeltin | |
| 6. Bir sonraki sekmeye geçin ve modeli ince ayar yapın | |
| ### Çıkarım WebUI'sini Açın | |
| #### Entegre Paket Kullanıcıları | |
| `go-webui-v2.bat` dosyasına çift tıklayın veya `go-webui-v2.ps1` kullanın, ardından çıkarım webui'sini `1-GPT-SoVITS-TTS/1C-inference` adresinde açın. | |
| #### Diğerleri | |
| ```bash | |
| python GPT_SoVITS/inference_webui.py <dil(isteğe bağlı)> | |
| ``` | |
| VEYA | |
| ```bash | |
| python webui.py | |
| ``` | |
| ardından çıkarım webui'sini `1-GPT-SoVITS-TTS/1C-inference` adresinde açın. | |
| ## V2 Sürüm Notları | |
| Yeni Özellikler: | |
| 1. Korece ve Kantonca destekler | |
| 2. Optimize edilmiş metin ön yüzü | |
| 3. Önceden eğitilmiş model 2k saatten 5k saate kadar genişletildi | |
| 4. Düşük kaliteli referans sesler için geliştirilmiş sentez kalitesi | |
| [detaylar burada](<https://github.com/RVC-Boss/GPT-SoVITS/wiki/GPT%E2%80%90SoVITS%E2%80%90v2%E2%80%90features-(%E6%96%B0%E7%89%B9%E6%80%A7)>) | |
| V1 ortamından V2'yi kullanmak için: | |
| 1. `pip install -r requirements.txt` ile bazı paketleri güncelleyin | |
| 2. github'dan en son kodları klonlayın. | |
| 3. [huggingface](https://huggingface.co/lj1995/GPT-SoVITS/tree/main/gsv-v2final-pretrained) adresinden v2 önceden eğitilmiş modelleri indirin ve bunları `GPT_SoVITS/pretrained_models/gsv-v2final-pretrained` dizinine yerleştirin. | |
| Ek olarak Çince V2: [G2PWModel.zip(HF)](https://huggingface.co/XXXXRT/GPT-SoVITS-Pretrained/resolve/main/G2PWModel.zip)| [G2PWModel.zip(ModelScope)](https://www.modelscope.cn/models/XXXXRT/GPT-SoVITS-Pretrained/resolve/master/G2PWModel.zip) (G2PW modellerini indirip, zipten çıkarıp, `G2PWModel` olarak yeniden adlandırıp `GPT_SoVITS/text` dizinine yerleştirin.) | |
| ## V3 Sürüm Notları | |
| Yeni Özellikler: | |
| 1. **Tını benzerliği** daha yüksek olup, hedef konuşmacıyı yakınsamak için daha az eğitim verisi gerekmektedir (tını benzerliği, base model doğrudan kullanılacak şekilde fine-tuning yapılmadan önemli ölçüde iyileştirilmiştir). | |
| 2. GPT modeli daha **kararlı** hale geldi, tekrarlar ve atlamalar azaldı ve **daha zengin duygusal ifadeler** ile konuşma üretmek daha kolay hale geldi. | |
| [daha fazla detay](<https://github.com/RVC-Boss/GPT-SoVITS/wiki/GPT%E2%80%90SoVITS%E2%80%90v3%E2%80%90features-(%E6%96%B0%E7%89%B9%E6%80%A7)>) | |
| V2 ortamında V3 kullanımı: | |
| 1. `pip install -r requirements.txt` ile bazı paketleri güncelleyin. | |
| 2. GitHub'dan en son kodları klonlayın. | |
| 3. [huggingface](https://huggingface.co/lj1995/GPT-SoVITS/tree/main) üzerinden v3 önceden eğitilmiş modellerini (s1v3.ckpt, s2Gv3.pth ve models--nvidia--bigvgan_v2_24khz_100band_256x klasörünü) indirin ve `GPT_SoVITS/pretrained_models` dizinine yerleştirin. | |
| ek: Ses Süper Çözünürlük modeli için [nasıl indirileceği](../../tools/AP_BWE_main/24kto48k/readme.txt) hakkında bilgi alabilirsiniz. | |
| ## V4 Sürüm Notları | |
| Yeni Özellikler: | |
| 1. **V4, V3'te görülen non-integer upsample işleminden kaynaklanan metalik ses sorununu düzeltti ve sesin boğuklaşmasını önlemek için doğrudan 48kHz ses çıktısı sunar (V3 sadece 24kHz destekler)**. Yazar, V4'ün V3'ün yerine geçebileceğini belirtmiştir ancak daha fazla test yapılması gerekmektedir. | |
| [Daha fazla bilgi](<https://github.com/RVC-Boss/GPT-SoVITS/wiki/GPT%E2%80%90SoVITS%E2%80%90v3v4%E2%80%90features-(%E6%96%B0%E7%89%B9%E6%80%A7)>) | |
| V1/V2/V3 ortamından V4'e geçiş: | |
| 1. Bazı bağımlılıkları güncellemek için `pip install -r requirements.txt` komutunu çalıştırın. | |
| 2. GitHub'dan en son kodları klonlayın. | |
| 3. [huggingface](https://huggingface.co/lj1995/GPT-SoVITS/tree/main) üzerinden V4 ön eğitilmiş modelleri indirin (`gsv-v4-pretrained/s2v4.ckpt` ve `gsv-v4-pretrained/vocoder.pth`) ve bunları `GPT_SoVITS/pretrained_models` dizinine koyun. | |
| ## V2Pro Sürüm Notları | |
| Yeni Özellikler: | |
| 1. **V2 ile karşılaştırıldığında biraz daha yüksek VRAM kullanımı sağlar ancak V4'ten daha iyi performans gösterir; aynı donanım maliyeti ve hız avantajını korur**. | |
| [Daha fazla bilgi](<https://github.com/RVC-Boss/GPT-SoVITS/wiki/GPT%E2%80%90SoVITS%E2%80%90features-(%E5%90%84%E7%89%88%E6%9C%AC%E7%89%B9%E6%80%A7)>) | |
| 2. V1/V2 ve V2Pro serisi benzer özelliklere sahipken, V3/V4 de yakın işlevleri paylaşır. Ortalama kalite düşük olan eğitim setleriyle V1/V2/V2Pro iyi sonuçlar verebilir ama V3/V4 veremez. Ayrıca, V3/V4’ün ürettiği ses tonu genel eğitim setine değil, referans ses örneğine daha çok benzemektedir. | |
| V1/V2/V3/V4 ortamından V2Pro'ya geçiş: | |
| 1. Bazı bağımlılıkları güncellemek için `pip install -r requirements.txt` komutunu çalıştırın. | |
| 2. GitHub'dan en son kodları klonlayın. | |
| 3. [huggingface](https://huggingface.co/lj1995/GPT-SoVITS/tree/main) üzerinden V2Pro ön eğitilmiş modelleri indirin (`v2Pro/s2Dv2Pro.pth`, `v2Pro/s2Gv2Pro.pth`, `v2Pro/s2Dv2ProPlus.pth`, `v2Pro/s2Gv2ProPlus.pth`, ve `sv/pretrained_eres2netv2w24s4ep4.ckpt`) ve bunları `GPT_SoVITS/pretrained_models` dizinine koyun. | |
| ## Yapılacaklar Listesi | |
| - [x] **Yüksek Öncelikli:** | |
| - [x] Japonca ve İngilizceye yerelleştirme. | |
| - [x] Kullanıcı kılavuzu. | |
| - [x] Japonca ve İngilizce veri seti ince ayar eğitimi. | |
| - [ ] **Özellikler:** | |
| - [x] Sıfır örnekli ses dönüştürme (5s) / birkaç örnekli ses dönüştürme (1dk). | |
| - [x] Metinden konuşmaya konuşma hızı kontrolü. | |
| - [ ] ~~Gelişmiş metinden konuşmaya duygu kontrolü.~~ | |
| - [ ] SoVITS token girdilerini kelime dağarcığı olasılık dağılımına değiştirme denemesi. | |
| - [x] İngilizce ve Japonca metin ön ucunu iyileştirme. | |
| - [ ] Küçük ve büyük boyutlu metinden konuşmaya modelleri geliştirme. | |
| - [x] Colab betikleri. | |
| - [ ] Eğitim veri setini genişletmeyi dene (2k saat -> 10k saat). | |
| - [x] daha iyi sovits temel modeli (geliştirilmiş ses kalitesi) | |
| - [ ] model karışımı | |
| ## (Ekstra) Komut satırından çalıştırma yöntemi | |
| UVR5 için Web Arayüzünü açmak için komut satırını kullanın | |
| ```bash | |
| python tools/uvr5/webui.py "<infer_device>" <is_half> <webui_port_uvr5> | |
| ``` | |
| <!-- Bir tarayıcı açamıyorsanız, UVR işleme için aşağıdaki formatı izleyin,Bu ses işleme için mdxnet kullanıyor | |
| ``` | |
| python mdxnet.py --model --input_root --output_vocal --output_ins --agg_level --format --device --is_half_precision | |
| ``` --> | |
| Veri setinin ses segmentasyonu komut satırı kullanılarak bu şekilde yapılır | |
| ```bash | |
| python audio_slicer.py \ | |
| --input_path "<orijinal_ses_dosyası_veya_dizininin_yolu>" \ | |
| --output_root "<alt_bölümlere_ayrılmış_ses_kliplerinin_kaydedileceği_dizin>" \ | |
| --threshold <ses_eşiği> \ | |
| --min_length <her_bir_alt_klibin_minimum_süresi> \ | |
| --min_interval <bitişik_alt_klipler_arasındaki_en_kısa_zaman_aralığı> | |
| --hop_size <ses_eğrisini_hesaplamak_için_adım_boyutu> | |
| ``` | |
| Veri seti ASR işleme komut satırı kullanılarak bu şekilde yapılır (Yalnızca Çince) | |
| ```bash | |
| python tools/asr/funasr_asr.py -i <girdi> -o <çıktı> | |
| ``` | |
| ASR işleme Faster_Whisper aracılığıyla gerçekleştirilir (Çince dışındaki ASR işaretleme) | |
| (İlerleme çubukları yok, GPU performansı zaman gecikmelerine neden olabilir) | |
| ```bash | |
| python ./tools/asr/fasterwhisper_asr.py -i <girdi> -o <çıktı> -l <dil> | |
| ``` | |
| Özel bir liste kaydetme yolu etkinleştirildi | |
| ## Katkı Verenler | |
| Özellikle aşağıdaki projelere ve katkıda bulunanlara teşekkür ederiz: | |
| ### Teorik Araştırma | |
| - [ar-vits](https://github.com/innnky/ar-vits) | |
| - [SoundStorm](https://github.com/yangdongchao/SoundStorm/tree/master/soundstorm/s1/AR) | |
| - [vits](https://github.com/jaywalnut310/vits) | |
| - [TransferTTS](https://github.com/hcy71o/TransferTTS/blob/master/models.py#L556) | |
| - [contentvec](https://github.com/auspicious3000/contentvec/) | |
| - [hifi-gan](https://github.com/jik876/hifi-gan) | |
| - [fish-speech](https://github.com/fishaudio/fish-speech/blob/main/tools/llama/generate.py#L41) | |
| - [f5-TTS](https://github.com/SWivid/F5-TTS/blob/main/src/f5_tts/model/backbones/dit.py) | |
| - [shortcut flow matching](https://github.com/kvfrans/shortcut-models/blob/main/targets_shortcut.py) | |
| ### Önceden Eğitilmiş Modeller | |
| - [Chinese Speech Pretrain](https://github.com/TencentGameMate/chinese_speech_pretrain) | |
| - [Chinese-Roberta-WWM-Ext-Large](https://huggingface.co/hfl/chinese-roberta-wwm-ext-large) | |
| - [BigVGAN](https://github.com/NVIDIA/BigVGAN) | |
| - [eresnetv2](https://modelscope.cn/models/iic/speech_eres2netv2w24s4ep4_sv_zh-cn_16k-common) | |
| ### Tahmin İçin Metin Ön Ucu | |
| - [paddlespeech zh_normalization](https://github.com/PaddlePaddle/PaddleSpeech/tree/develop/paddlespeech/t2s/frontend/zh_normalization) | |
| - [split-lang](https://github.com/DoodleBears/split-lang) | |
| - [g2pW](https://github.com/GitYCC/g2pW) | |
| - [pypinyin-g2pW](https://github.com/mozillazg/pypinyin-g2pW) | |
| - [paddlespeech g2pw](https://github.com/PaddlePaddle/PaddleSpeech/tree/develop/paddlespeech/t2s/frontend/g2pw) | |
| ### WebUI Araçları | |
| - [ultimatevocalremovergui](https://github.com/Anjok07/ultimatevocalremovergui) | |
| - [audio-slicer](https://github.com/openvpi/audio-slicer) | |
| - [SubFix](https://github.com/cronrpc/SubFix) | |
| - [FFmpeg](https://github.com/FFmpeg/FFmpeg) | |
| - [gradio](https://github.com/gradio-app/gradio) | |
| - [faster-whisper](https://github.com/SYSTRAN/faster-whisper) | |
| - [FunASR](https://github.com/alibaba-damo-academy/FunASR) | |
| - [AP-BWE](https://github.com/yxlu-0102/AP-BWE) | |
| @Naozumi520'ye Kantonca eğitim setini sağladığı ve Kantonca ile ilgili bilgiler konusunda rehberlik ettiği için minnettarım. | |
| ## Tüm katkıda bulunanlara çabaları için teşekkürler | |
| <a href="https://github.com/RVC-Boss/GPT-SoVITS/graphs/contributors" target="_blank"> | |
| <img src="https://contrib.rocks/image?repo=RVC-Boss/GPT-SoVITS" /> | |
| </a> | |