File size: 5,548 Bytes
bd95217 | 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 | # LiveTrans
[English](README.md) | **中文**
Windows 实时音频翻译工具。捕获系统音频(WASAPI loopback),通过语音识别(ASR)转为文字,再调用 LLM API 翻译,结果显示在透明悬浮字幕窗口上。
适用于看外语视频、直播、会议等场景——无需修改播放器,全局音频捕获即开即用。



## 功能特性
- **实时翻译**:系统音频 → 语音识别 → LLM 翻译 → 字幕显示,全流程自动
- **多 ASR 引擎**:支持 faster-whisper、FunASR SenseVoice(日语优化)、FunASR Nano
- **灵活的翻译后端**:兼容所有 OpenAI 格式 API(DeepSeek、Grok、Qwen、GPT 等)
- **低延迟 VAD**:32ms 音频块 + Silero VAD,自适应静音检测
- **透明悬浮窗**:始终置顶、鼠标穿透、可拖拽,不影响正常操作
- **支持 CUDA 加速**:ASR 模型可使用 GPU 推理
- **模型自动管理**:首次启动引导下载,支持 ModelScope / HuggingFace 双源
- **翻译基准测试**:内置 benchmark 工具,方便对比不同模型效果
## 截图
**英语 → 中文**(Twitch 直播)

**日语 → 中文**(日语直播)

## 系统要求
- **操作系统**:Windows 10/11
- **Python**:3.10+
- **GPU**(推荐):NVIDIA 显卡 + CUDA 12.6(用于 ASR 加速)
- **网络**:需要访问翻译 API(如 DeepSeek、OpenAI 等)
## 安装
### 1. 克隆仓库
```bash
git clone https://github.com/TheDeathDragon/LiveTranslate.git
cd LiveTranslate
```
### 2. 创建虚拟环境
```bash
python -m venv .venv
.venv\Scripts\activate
```
### 3. 安装 PyTorch(CUDA 版)
根据你的 CUDA 版本选择安装命令,参考 [PyTorch 官网](https://pytorch.org/get-started/locally/):
```bash
# CUDA 12.6(推荐)
pip install torch torchaudio --index-url https://download.pytorch.org/whl/cu126
# 仅 CPU(无 NVIDIA 显卡)
pip install torch torchaudio --index-url https://download.pytorch.org/whl/cpu
```
### 4. 安装其余依赖
```bash
pip install -r requirements.txt
pip install funasr --no-deps
```
> **注意**:FunASR 使用 `--no-deps` 安装,因为其依赖 `editdistance` 需要 C++ 编译器。`requirements.txt` 中已包含纯 Python 替代品 `editdistance-s`。
### 5. 启动
```bash
.venv\Scripts\python.exe main.py
```
或者双击 `start.bat`。
## 首次使用
1. **首次启动**会弹出设置向导,选择模型下载源(ModelScope 适合国内,HuggingFace 适合海外)和模型缓存路径
2. 自动下载 Silero VAD 和 SenseVoice ASR 模型(约 1GB)
3. 下载完成后自动进入主界面
## 配置翻译 API
在悬浮窗点击 **设置** → **翻译** 标签页,配置你的翻译 API:
| 参数 | 说明 |
|------|------|
| API Base | API 地址,如 `https://api.deepseek.com/v1` |
| API Key | 你的 API 密钥 |
| Model | 模型名,如 `deepseek-chat` |
| 代理 | `none`(直连)/ `system`(系统代理)/ 自定义代理地址 |
支持任何 OpenAI 兼容 API,包括但不限于:
- [DeepSeek](https://platform.deepseek.com/)
- [xAI Grok](https://console.x.ai/)
- [阿里云 Qwen](https://dashscope.aliyuncs.com/)
- [OpenAI GPT](https://platform.openai.com/)
- 本地部署的 [Ollama](https://ollama.ai/)、[vLLM](https://github.com/vllm-project/vllm) 等
## 使用方法
1. 播放含外语音频的视频/直播
2. 启动 LiveTrans,悬浮窗自动出现
3. 实时显示识别文字和翻译结果
### 悬浮窗控件
- **暂停/继续**:暂停或恢复翻译
- **清除**:清空当前字幕
- **鼠标穿透**:开启后鼠标可穿透字幕窗口
- **始终置顶**:保持在最上层
- **自动滚动**:新字幕自动滚动到底部
- **模型切换**:下拉选择不同翻译模型
- **目标语言**:切换翻译目标语言
### 设置面板
通过悬浮窗 **设置** 按钮或系统托盘菜单打开,包含:
- **VAD/ASR**:选择 ASR 引擎、VAD 模式、灵敏度参数
- **翻译**:API 配置、系统提示词、多模型管理
- **Benchmark**:翻译速度和质量基准测试
- **缓存**:模型缓存路径管理
## 架构
```
Audio (WASAPI 32ms) → VAD (Silero) → ASR (Whisper/SenseVoice/Nano) → LLM Translation → Overlay
```
```
main.py 主入口,管线编排
├── audio_capture.py WASAPI loopback 音频捕获
├── vad_processor.py Silero VAD 语音活动检测
├── asr_engine.py faster-whisper ASR 后端
├── asr_sensevoice.py FunASR SenseVoice 后端
├── asr_funasr_nano.py FunASR Nano 后端
├── translator.py OpenAI 兼容翻译客户端
├── model_manager.py 模型检测、下载、缓存管理
├── subtitle_overlay.py PyQt6 透明悬浮窗
├── control_panel.py 设置面板 UI
├── dialogs.py 设置向导、模型下载对话框
├── log_window.py 实时日志查看器
├── benchmark.py 翻译基准测试
└── config.yaml 默认配置文件
```
## 已知限制
- 仅支持 Windows(依赖 WASAPI loopback)
- ASR 模型首次加载需要数秒(GPU)到数十秒(CPU)
- 翻译质量取决于所用 LLM API 的能力
- 嘈杂环境或多人同时说话时识别效果下降
## 许可证
[MIT License](LICENSE)
|