File size: 5,548 Bytes
bd95217
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
# LiveTrans

[English](README.md) | **中文**

Windows 实时音频翻译工具。捕获系统音频(WASAPI loopback),通过语音识别(ASR)转为文字,再调用 LLM API 翻译,结果显示在透明悬浮字幕窗口上。

适用于看外语视频、直播、会议等场景——无需修改播放器,全局音频捕获即开即用。

![Python 3.10+](https://img.shields.io/badge/Python-3.10%2B-blue)
![Windows](https://img.shields.io/badge/Platform-Windows-0078d4)
![License](https://img.shields.io/badge/License-MIT-green)

## 功能特性

- **实时翻译**:系统音频 → 语音识别 → LLM 翻译 → 字幕显示,全流程自动
- **多 ASR 引擎**:支持 faster-whisper、FunASR SenseVoice(日语优化)、FunASR Nano
- **灵活的翻译后端**:兼容所有 OpenAI 格式 API(DeepSeek、Grok、Qwen、GPT 等)
- **低延迟 VAD**:32ms 音频块 + Silero VAD,自适应静音检测
- **透明悬浮窗**:始终置顶、鼠标穿透、可拖拽,不影响正常操作
- **支持 CUDA 加速**:ASR 模型可使用 GPU 推理
- **模型自动管理**:首次启动引导下载,支持 ModelScope / HuggingFace 双源
- **翻译基准测试**:内置 benchmark 工具,方便对比不同模型效果

## 截图

**英语 → 中文**(Twitch 直播)

![英译中](screenshot/en-to-cn.png)

**日语 → 中文**(日语直播)

![日译中](screenshot/jp-to-cn.png)

## 系统要求

- **操作系统**:Windows 10/11
- **Python**:3.10+
- **GPU**(推荐):NVIDIA 显卡 + CUDA 12.6(用于 ASR 加速)
- **网络**:需要访问翻译 API(如 DeepSeek、OpenAI 等)

## 安装

### 1. 克隆仓库

```bash
git clone https://github.com/TheDeathDragon/LiveTranslate.git
cd LiveTranslate
```

### 2. 创建虚拟环境

```bash
python -m venv .venv
.venv\Scripts\activate
```

### 3. 安装 PyTorch(CUDA 版)

根据你的 CUDA 版本选择安装命令,参考 [PyTorch 官网](https://pytorch.org/get-started/locally/):

```bash
# CUDA 12.6(推荐)
pip install torch torchaudio --index-url https://download.pytorch.org/whl/cu126

# 仅 CPU(无 NVIDIA 显卡)
pip install torch torchaudio --index-url https://download.pytorch.org/whl/cpu
```

### 4. 安装其余依赖

```bash
pip install -r requirements.txt
pip install funasr --no-deps
```

> **注意**:FunASR 使用 `--no-deps` 安装,因为其依赖 `editdistance` 需要 C++ 编译器。`requirements.txt` 中已包含纯 Python 替代品 `editdistance-s`。

### 5. 启动

```bash
.venv\Scripts\python.exe main.py
```

或者双击 `start.bat`## 首次使用

1. **首次启动**会弹出设置向导,选择模型下载源(ModelScope 适合国内,HuggingFace 适合海外)和模型缓存路径
2. 自动下载 Silero VAD 和 SenseVoice ASR 模型(约 1GB)
3. 下载完成后自动进入主界面

## 配置翻译 API

在悬浮窗点击 **设置****翻译** 标签页,配置你的翻译 API:

| 参数 | 说明 |
|------|------|
| API Base | API 地址,如 `https://api.deepseek.com/v1` |
| API Key | 你的 API 密钥 |
| Model | 模型名,如 `deepseek-chat` |
| 代理 | `none`(直连)/ `system`(系统代理)/ 自定义代理地址 |

支持任何 OpenAI 兼容 API,包括但不限于:
- [DeepSeek](https://platform.deepseek.com/)
- [xAI Grok](https://console.x.ai/)
- [阿里云 Qwen](https://dashscope.aliyuncs.com/)
- [OpenAI GPT](https://platform.openai.com/)
- 本地部署的 [Ollama](https://ollama.ai/)、[vLLM](https://github.com/vllm-project/vllm) 等

## 使用方法

1. 播放含外语音频的视频/直播
2. 启动 LiveTrans,悬浮窗自动出现
3. 实时显示识别文字和翻译结果

### 悬浮窗控件

- **暂停/继续**:暂停或恢复翻译
- **清除**:清空当前字幕
- **鼠标穿透**:开启后鼠标可穿透字幕窗口
- **始终置顶**:保持在最上层
- **自动滚动**:新字幕自动滚动到底部
- **模型切换**:下拉选择不同翻译模型
- **目标语言**:切换翻译目标语言

### 设置面板

通过悬浮窗 **设置** 按钮或系统托盘菜单打开,包含:

- **VAD/ASR**:选择 ASR 引擎、VAD 模式、灵敏度参数
- **翻译**:API 配置、系统提示词、多模型管理
- **Benchmark**:翻译速度和质量基准测试
- **缓存**:模型缓存路径管理

## 架构

```
Audio (WASAPI 32ms) → VAD (Silero) → ASR (Whisper/SenseVoice/Nano) → LLM Translation → Overlay
```

```
main.py                 主入口,管线编排
├── audio_capture.py    WASAPI loopback 音频捕获
├── vad_processor.py    Silero VAD 语音活动检测
├── asr_engine.py       faster-whisper ASR 后端
├── asr_sensevoice.py   FunASR SenseVoice 后端
├── asr_funasr_nano.py  FunASR Nano 后端
├── translator.py       OpenAI 兼容翻译客户端
├── model_manager.py    模型检测、下载、缓存管理
├── subtitle_overlay.py PyQt6 透明悬浮窗
├── control_panel.py    设置面板 UI
├── dialogs.py          设置向导、模型下载对话框
├── log_window.py       实时日志查看器
├── benchmark.py        翻译基准测试
└── config.yaml         默认配置文件
```

## 已知限制

- 仅支持 Windows(依赖 WASAPI loopback)
- ASR 模型首次加载需要数秒(GPU)到数十秒(CPU)
- 翻译质量取决于所用 LLM API 的能力
- 嘈杂环境或多人同时说话时识别效果下降

## 许可证

[MIT License](LICENSE)