LiveTranslate / README_zh.md
fasdfsa's picture
init
bd95217

LiveTrans

English | 中文

Windows 实时音频翻译工具。捕获系统音频(WASAPI loopback),通过语音识别(ASR)转为文字,再调用 LLM API 翻译,结果显示在透明悬浮字幕窗口上。

适用于看外语视频、直播、会议等场景——无需修改播放器,全局音频捕获即开即用。

Python 3.10+ Windows License

功能特性

  • 实时翻译:系统音频 → 语音识别 → LLM 翻译 → 字幕显示,全流程自动
  • 多 ASR 引擎:支持 faster-whisper、FunASR SenseVoice(日语优化)、FunASR Nano
  • 灵活的翻译后端:兼容所有 OpenAI 格式 API(DeepSeek、Grok、Qwen、GPT 等)
  • 低延迟 VAD:32ms 音频块 + Silero VAD,自适应静音检测
  • 透明悬浮窗:始终置顶、鼠标穿透、可拖拽,不影响正常操作
  • 支持 CUDA 加速:ASR 模型可使用 GPU 推理
  • 模型自动管理:首次启动引导下载,支持 ModelScope / HuggingFace 双源
  • 翻译基准测试:内置 benchmark 工具,方便对比不同模型效果

截图

英语 → 中文(Twitch 直播)

英译中

日语 → 中文(日语直播)

日译中

系统要求

  • 操作系统:Windows 10/11
  • Python:3.10+
  • GPU(推荐):NVIDIA 显卡 + CUDA 12.6(用于 ASR 加速)
  • 网络:需要访问翻译 API(如 DeepSeek、OpenAI 等)

安装

1. 克隆仓库

git clone https://github.com/TheDeathDragon/LiveTranslate.git
cd LiveTranslate

2. 创建虚拟环境

python -m venv .venv
.venv\Scripts\activate

3. 安装 PyTorch(CUDA 版)

根据你的 CUDA 版本选择安装命令,参考 PyTorch 官网

# CUDA 12.6(推荐)
pip install torch torchaudio --index-url https://download.pytorch.org/whl/cu126

# 仅 CPU(无 NVIDIA 显卡)
pip install torch torchaudio --index-url https://download.pytorch.org/whl/cpu

4. 安装其余依赖

pip install -r requirements.txt
pip install funasr --no-deps

注意:FunASR 使用 --no-deps 安装,因为其依赖 editdistance 需要 C++ 编译器。requirements.txt 中已包含纯 Python 替代品 editdistance-s

5. 启动

.venv\Scripts\python.exe main.py

或者双击 start.bat

首次使用

  1. 首次启动会弹出设置向导,选择模型下载源(ModelScope 适合国内,HuggingFace 适合海外)和模型缓存路径
  2. 自动下载 Silero VAD 和 SenseVoice ASR 模型(约 1GB)
  3. 下载完成后自动进入主界面

配置翻译 API

在悬浮窗点击 设置翻译 标签页,配置你的翻译 API:

参数 说明
API Base API 地址,如 https://api.deepseek.com/v1
API Key 你的 API 密钥
Model 模型名,如 deepseek-chat
代理 none(直连)/ system(系统代理)/ 自定义代理地址

支持任何 OpenAI 兼容 API,包括但不限于:

使用方法

  1. 播放含外语音频的视频/直播
  2. 启动 LiveTrans,悬浮窗自动出现
  3. 实时显示识别文字和翻译结果

悬浮窗控件

  • 暂停/继续:暂停或恢复翻译
  • 清除:清空当前字幕
  • 鼠标穿透:开启后鼠标可穿透字幕窗口
  • 始终置顶:保持在最上层
  • 自动滚动:新字幕自动滚动到底部
  • 模型切换:下拉选择不同翻译模型
  • 目标语言:切换翻译目标语言

设置面板

通过悬浮窗 设置 按钮或系统托盘菜单打开,包含:

  • VAD/ASR:选择 ASR 引擎、VAD 模式、灵敏度参数
  • 翻译:API 配置、系统提示词、多模型管理
  • Benchmark:翻译速度和质量基准测试
  • 缓存:模型缓存路径管理

架构

Audio (WASAPI 32ms) → VAD (Silero) → ASR (Whisper/SenseVoice/Nano) → LLM Translation → Overlay
main.py                 主入口,管线编排
├── audio_capture.py    WASAPI loopback 音频捕获
├── vad_processor.py    Silero VAD 语音活动检测
├── asr_engine.py       faster-whisper ASR 后端
├── asr_sensevoice.py   FunASR SenseVoice 后端
├── asr_funasr_nano.py  FunASR Nano 后端
├── translator.py       OpenAI 兼容翻译客户端
├── model_manager.py    模型检测、下载、缓存管理
├── subtitle_overlay.py PyQt6 透明悬浮窗
├── control_panel.py    设置面板 UI
├── dialogs.py          设置向导、模型下载对话框
├── log_window.py       实时日志查看器
├── benchmark.py        翻译基准测试
└── config.yaml         默认配置文件

已知限制

  • 仅支持 Windows(依赖 WASAPI loopback)
  • ASR 模型首次加载需要数秒(GPU)到数十秒(CPU)
  • 翻译质量取决于所用 LLM API 的能力
  • 嘈杂环境或多人同时说话时识别效果下降

许可证

MIT License