# LiveTrans [English](README.md) | **中文** Windows 实时音频翻译工具。捕获系统音频(WASAPI loopback),通过语音识别(ASR)转为文字,再调用 LLM API 翻译,结果显示在透明悬浮字幕窗口上。 适用于看外语视频、直播、会议等场景——无需修改播放器,全局音频捕获即开即用。 ![Python 3.10+](https://img.shields.io/badge/Python-3.10%2B-blue) ![Windows](https://img.shields.io/badge/Platform-Windows-0078d4) ![License](https://img.shields.io/badge/License-MIT-green) ## 功能特性 - **实时翻译**:系统音频 → 语音识别 → LLM 翻译 → 字幕显示,全流程自动 - **多 ASR 引擎**:支持 faster-whisper、FunASR SenseVoice(日语优化)、FunASR Nano - **灵活的翻译后端**:兼容所有 OpenAI 格式 API(DeepSeek、Grok、Qwen、GPT 等) - **低延迟 VAD**:32ms 音频块 + Silero VAD,自适应静音检测 - **透明悬浮窗**:始终置顶、鼠标穿透、可拖拽,不影响正常操作 - **支持 CUDA 加速**:ASR 模型可使用 GPU 推理 - **模型自动管理**:首次启动引导下载,支持 ModelScope / HuggingFace 双源 - **翻译基准测试**:内置 benchmark 工具,方便对比不同模型效果 ## 截图 **英语 → 中文**(Twitch 直播) ![英译中](screenshot/en-to-cn.png) **日语 → 中文**(日语直播) ![日译中](screenshot/jp-to-cn.png) ## 系统要求 - **操作系统**:Windows 10/11 - **Python**:3.10+ - **GPU**(推荐):NVIDIA 显卡 + CUDA 12.6(用于 ASR 加速) - **网络**:需要访问翻译 API(如 DeepSeek、OpenAI 等) ## 安装 ### 1. 克隆仓库 ```bash git clone https://github.com/TheDeathDragon/LiveTranslate.git cd LiveTranslate ``` ### 2. 创建虚拟环境 ```bash python -m venv .venv .venv\Scripts\activate ``` ### 3. 安装 PyTorch(CUDA 版) 根据你的 CUDA 版本选择安装命令,参考 [PyTorch 官网](https://pytorch.org/get-started/locally/): ```bash # CUDA 12.6(推荐) pip install torch torchaudio --index-url https://download.pytorch.org/whl/cu126 # 仅 CPU(无 NVIDIA 显卡) pip install torch torchaudio --index-url https://download.pytorch.org/whl/cpu ``` ### 4. 安装其余依赖 ```bash pip install -r requirements.txt pip install funasr --no-deps ``` > **注意**:FunASR 使用 `--no-deps` 安装,因为其依赖 `editdistance` 需要 C++ 编译器。`requirements.txt` 中已包含纯 Python 替代品 `editdistance-s`。 ### 5. 启动 ```bash .venv\Scripts\python.exe main.py ``` 或者双击 `start.bat`。 ## 首次使用 1. **首次启动**会弹出设置向导,选择模型下载源(ModelScope 适合国内,HuggingFace 适合海外)和模型缓存路径 2. 自动下载 Silero VAD 和 SenseVoice ASR 模型(约 1GB) 3. 下载完成后自动进入主界面 ## 配置翻译 API 在悬浮窗点击 **设置** → **翻译** 标签页,配置你的翻译 API: | 参数 | 说明 | |------|------| | API Base | API 地址,如 `https://api.deepseek.com/v1` | | API Key | 你的 API 密钥 | | Model | 模型名,如 `deepseek-chat` | | 代理 | `none`(直连)/ `system`(系统代理)/ 自定义代理地址 | 支持任何 OpenAI 兼容 API,包括但不限于: - [DeepSeek](https://platform.deepseek.com/) - [xAI Grok](https://console.x.ai/) - [阿里云 Qwen](https://dashscope.aliyuncs.com/) - [OpenAI GPT](https://platform.openai.com/) - 本地部署的 [Ollama](https://ollama.ai/)、[vLLM](https://github.com/vllm-project/vllm) 等 ## 使用方法 1. 播放含外语音频的视频/直播 2. 启动 LiveTrans,悬浮窗自动出现 3. 实时显示识别文字和翻译结果 ### 悬浮窗控件 - **暂停/继续**:暂停或恢复翻译 - **清除**:清空当前字幕 - **鼠标穿透**:开启后鼠标可穿透字幕窗口 - **始终置顶**:保持在最上层 - **自动滚动**:新字幕自动滚动到底部 - **模型切换**:下拉选择不同翻译模型 - **目标语言**:切换翻译目标语言 ### 设置面板 通过悬浮窗 **设置** 按钮或系统托盘菜单打开,包含: - **VAD/ASR**:选择 ASR 引擎、VAD 模式、灵敏度参数 - **翻译**:API 配置、系统提示词、多模型管理 - **Benchmark**:翻译速度和质量基准测试 - **缓存**:模型缓存路径管理 ## 架构 ``` Audio (WASAPI 32ms) → VAD (Silero) → ASR (Whisper/SenseVoice/Nano) → LLM Translation → Overlay ``` ``` main.py 主入口,管线编排 ├── audio_capture.py WASAPI loopback 音频捕获 ├── vad_processor.py Silero VAD 语音活动检测 ├── asr_engine.py faster-whisper ASR 后端 ├── asr_sensevoice.py FunASR SenseVoice 后端 ├── asr_funasr_nano.py FunASR Nano 后端 ├── translator.py OpenAI 兼容翻译客户端 ├── model_manager.py 模型检测、下载、缓存管理 ├── subtitle_overlay.py PyQt6 透明悬浮窗 ├── control_panel.py 设置面板 UI ├── dialogs.py 设置向导、模型下载对话框 ├── log_window.py 实时日志查看器 ├── benchmark.py 翻译基准测试 └── config.yaml 默认配置文件 ``` ## 已知限制 - 仅支持 Windows(依赖 WASAPI loopback) - ASR 模型首次加载需要数秒(GPU)到数十秒(CPU) - 翻译质量取决于所用 LLM API 的能力 - 嘈杂环境或多人同时说话时识别效果下降 ## 许可证 [MIT License](LICENSE)