title: KiroProxy
emoji: 🚀
colorFrom: blue
colorTo: purple
sdk: docker
pinned: false
license: mit
short_description: Kiro IDE API 反向代理服务器 - 支持多账号管理和多协议转换
app_port: 7860
Kiro API Proxy
Kiro IDE API 反向代理服务器,支持多账号轮询、Token 自动刷新、配额管理
功能 ? 快速开始 ? CLI 配置 ? API ? 许可证
?? 测试说明
本项目支持 Claude Code、Codex CLI、Gemini CLI 三种客户端,工具调用功能已全面支持。
功能特性
核心功能
- 多协议支持 - OpenAI / Anthropic / Gemini 三种协议兼容
- 完整工具调用 - 三种协议的工具调用功能全面支持
- 图片理解 - 支持 Claude Code / Codex CLI 图片输入
- 网络搜索 - 支持 Claude Code / Codex CLI 网络搜索工具
- 思考功能 - 支持 Claude 的扩展思考功能(Extended Thinking)
- 多账号轮询(默认随机) - 每次请求随机切换账号,分散压力,避免单账号 RPM 过高
- 会话粘性(可选) - 非
random策略下,同一会话 60 秒内使用同一账号,保持上下文 - Web UI - 简洁的管理界面,支持监控、日志、设置
v1.7.1 新功能
- Windows 支持补强 - 注册表浏览器检测 + PATH 回退,兼容便携版
- 打包资源修复 - PyInstaller 打包后可正常加载图标与内置文档
- Token 扫描稳定性 - Windows 路径编码处理修复
v1.6.3 新功能
- 命令行工具 (CLI) - 无 GUI 服务器也能轻松管理
python run.py accounts list- 列出账号python run.py accounts export/import- 导出/导入账号python run.py accounts add- 交互式添加 Tokenpython run.py accounts scan- 扫描本地 Tokenpython run.py login google/github- 命令行登录python run.py login remote- 生成远程登录链接
- 远程登录链接 - 在有浏览器的机器上完成授权,Token 自动同步
- 账号导入导出 - 跨机器迁移账号配置
- 手动添加 Token - 直接粘贴 accessToken/refreshToken
v1.6.2 新功能
- Codex CLI 完整支持 - 使用 OpenAI Responses API (
/v1/responses)- 完整工具调用支持(shell、file 等所有工具)
- 图片输入支持(
input_image类型) - 网络搜索支持(
web_search工具) - 错误代码映射(rate_limit、context_length 等)
- Claude Code 增强 - 图片理解和网络搜索完整支持
- 支持 Anthropic 和 OpenAI 两种图片格式
- 支持
web_search/web_search_20250305工具
v1.6.1 新功能
- 请求限速 - 通过限制请求频率降低账号封禁风险
- 每账号最小请求间隔
- 每账号每分钟最大请求数
- 全局每分钟最大请求数
- WebUI 设置页面可配置
- 账号封禁检测 - 自动检测 TEMPORARILY_SUSPENDED 错误
- 友好的错误日志输出
- 自动禁用被封禁账号
- 自动切换到其他可用账号
- 统一错误处理 - 三种协议使用统一的错误分类和处理
v1.6.0 功能
- 历史消息管理 - 4 种策略处理对话长度限制,可自由组合
- 自动截断:发送前优先保留最新上下文并摘要前文,必要时按数量/字符数截断
- 智能摘要:用 AI 生成早期对话摘要,保留关键信息
- 摘要缓存:历史变化不大时复用最近摘要,减少重复 LLM 调用(默认启用)
- 错误重试:遇到长度错误时自动截断重试(默认启用)
- 预估检测:预估 token 数量,超限预先截断
- Gemini 工具调用 - 完整支持 functionDeclarations/functionCall/functionResponse
- 设置页面 - WebUI 新增设置标签页,可配置历史消息管理策略
v1.5.0 功能
- 用量查询 - 查询账号配额使用情况,显示已用/余额/使用率
- 多登录方式 - 支持 Google / GitHub / AWS Builder ID 三种登录方式
- 流量监控 - 完整的 LLM 请求监控,支持搜索、过滤、导出
- 浏览器选择 - 自动检测已安装浏览器,支持无痕模式
- 文档中心 - 内置帮助文档,左侧目录 + 右侧 Markdown 渲染
v1.4.0 功能
- Token 预刷新 - 后台每 5 分钟检查,提前 15 分钟自动刷新
- 健康检查 - 每 10 分钟检测账号可用性,自动标记状态
- 请求统计增强 - 按账号/模型统计,24 小时趋势
- 请求重试机制 - 网络错误/5xx 自动重试,指数退避
工具调用支持
| 功能 | Anthropic (Claude Code) | OpenAI (Codex CLI) | Gemini |
|---|---|---|---|
| 工具定义 | ? tools |
? tools.function |
? functionDeclarations |
| 工具调用响应 | ? tool_use |
? tool_calls |
? functionCall |
| 工具结果 | ? tool_result |
? tool 角色消息 |
? functionResponse |
| 强制工具调用 | ? tool_choice |
? tool_choice |
? toolConfig.mode |
| 工具数量限制 | ? 50 个 | ? 50 个 | ? 50 个 |
| 历史消息修复 | ? | ? | ? |
| 图片理解 | ? | ? | ? |
| 网络搜索 | ? | ? | ? |
已知限制
对话长度限制
Kiro API 有输入长度限制。当对话历史过长时,会返回错误:
Input is too long. (CONTENT_LENGTH_EXCEEDS_THRESHOLD)
自动处理(v1.6.0+)
代理内置了历史消息管理功能,可在「设置」页面配置:
- 错误重试(默认):遇到长度错误时自动截断并重试
- 智能摘要:用 AI 生成早期对话摘要,保留关键信息
- 摘要缓存(默认):历史变化不大时复用最近摘要,减少重复 LLM 调用
- 自动截断:每次请求前优先保留最新上下文并摘要前文,必要时按数量/字符数截断
- 预估检测:预估 token 数量,超限预先截断
如需 关闭自动压缩/重试(超限时直接报错),可设置环境变量 KIROPROXY_HISTORY_ERROR_RETRY=0,或将历史配置的 strategies 中移除 error_retry。
摘要缓存可通过以下配置项调整(默认值):
summary_cache_enabled:truesummary_cache_min_delta_messages:3summary_cache_min_delta_chars:4000summary_cache_max_age_seconds:180
手动处理
- 在 Claude Code 中输入
/clear清空对话历史 - 告诉 AI 你之前在做什么,它会读取代码文件恢复上下文
快速开始
方式一:下载预编译版本
从 Releases 下载对应平台的安装包,解压后直接运行。
方式二:从源码运行
# 克隆项目
git clone https://github.com/yourname/kiro-proxy.git
cd kiro-proxy
# 创建虚拟环境
python -m venv venv
source venv/bin/activate # Windows: venv\Scripts\activate
# 安装依赖
pip install -r requirements.txt
# 运行
python run.py
# 或指定端口
python run.py 8081
启动后访问 http://localhost:8080
命令行工具 (CLI)
无 GUI 服务器可使用 CLI 管理账号:
# 账号管理
python run.py accounts list # 列出账号
python run.py accounts export -o acc.json # 导出账号
python run.py accounts import acc.json # 导入账号
python run.py accounts add # 交互式添加 Token
python run.py accounts scan --auto # 扫描并自动添加本地 Token
# 登录
python run.py login google # Google 登录
python run.py login github # GitHub 登录
python run.py login remote --host myserver.com:8080 # 生成远程登录链接
# 服务
python run.py serve # 启动服务 (默认 8080)
python run.py serve -p 8081 # 指定端口
python run.py status # 查看状态
登录获取 Token
方式一:在线登录(推荐)
- 打开 Web UI,点击「在线登录」
- 选择登录方式:Google / GitHub / AWS Builder ID
- 在浏览器中完成授权
- 账号自动添加
方式二:扫描 Token
- 打开 Kiro IDE,使用 Google/GitHub 账号登录
- 登录成功后 token 自动保存到
~/.aws/sso/cache/ - 在 Web UI 点击「扫描 Token」添加账号
CLI 配置
模型对照表
| Kiro 模型 | 能力 | Claude Code | Codex |
|---|---|---|---|
claude-sonnet-4 |
??? 推荐 | claude-sonnet-4 |
gpt-4o |
claude-sonnet-4.5 |
???? 更强 | claude-sonnet-4.5 |
gpt-4o |
claude-haiku-4.5 |
? 快速 | claude-haiku-4.5 |
gpt-4o-mini |
Claude Code 配置
名称: Kiro Proxy
API Key: any
Base URL: http://localhost:8080
模型: claude-sonnet-4
Codex 配置
Codex CLI 使用 OpenAI Responses API,配置如下:
# 设置环境变量
export OPENAI_API_KEY=any
export OPENAI_BASE_URL=http://localhost:8080/v1
# 运行 Codex
codex
或在 ~/.codex/config.toml 中配置:
[providers.openai]
api_key = "any"
base_url = "http://localhost:8080/v1"
思考功能支持
什么是思考功能
思考功能(Extended Thinking)允许 Claude 在生成回答前展示其思考过程,帮助用户理解 AI 的推理步骤。
如何使用
在请求中添加 thinking(或对应协议的 thinking 配置)即可启用:
{
"model": "claude-sonnet-4.5",
"messages": [
{
"role": "user",
"content": "解释一下量子计算的原理"
}
],
"thinking": {
"thinking_type": "enabled",
"budget_tokens": 20000
},
"stream": true
}
OpenAI Chat Completions (POST /v1/chat/completions) 也支持:
{
"model": "gpt-4o",
"messages": [{"role": "user", "content": "解释一下量子计算的原理"}],
"thinking": { "type": "enabled" },
"stream": true
}
OpenAI Responses (POST /v1/responses) 也支持:
{
"model": "gpt-4o",
"input": "解释一下量子计算的原理",
"thinking": { "type": "enabled" }
}
Gemini generateContent (POST /v1/models/{model}:generateContent) 也支持:
{
"contents": [{"role": "user", "parts": [{"text": "解释一下量子计算的原理"}]}],
"generationConfig": {
"thinkingConfig": { "includeThoughts": true }
}
}
参数说明
thinking_type: 思考类型,设为"enabled"启用思考功能budget_tokens: 思考过程的 token 预算(不传则视为无限制)
响应格式
启用思考功能后,流式响应会包含两种内容块:
- 思考块(type: "thinking"):展示 AI 的思考过程
- 文本块(type: "text"):最终的回答内容
示例响应:
data: {"type":"content_block_start","index":1,"content_block":{"type":"thinking","thinking":""}}
data: {"type":"content_block_delta","index":1,"delta":{"type":"thinking_delta","thinking":"让我思考一下量子计算的原理..."}}
data: {"type":"content_block_stop","index":1}
data: {"type":"content_block_start","index":0,"content_block":{"type":"text","text":""}}
data: {"type":"content_block_delta","index":0,"delta":{"type":"text_delta","text":"量子计算是一种..."}}
data: {"type":"content_block_stop","index":0}
API 端点
| 协议 | 端点 | 用途 |
|---|---|---|
| OpenAI | POST /v1/chat/completions |
Chat Completions API |
| OpenAI | POST /v1/responses |
Responses API (Codex CLI) |
| OpenAI | GET /v1/models |
模型列表 |
| Anthropic | POST /v1/messages |
Claude Code |
| Anthropic | POST /v1/messages/count_tokens |
Token 计数 |
| Gemini | POST /v1/models/{model}:generateContent |
Gemini CLI |
管理 API
| 端点 | 方法 | 说明 |
|---|---|---|
/api/accounts |
GET | 获取所有账号状态 |
/api/accounts/{id} |
GET | 获取账号详情 |
/api/accounts/{id}/usage |
GET | 获取账号用量信息 |
/api/accounts/{id}/refresh |
POST | 刷新账号 Token |
/api/accounts/{id}/restore |
POST | 恢复账号(从冷却状态) |
/api/accounts/refresh-all |
POST | 刷新所有即将过期的 Token |
/api/flows |
GET | 获取流量记录 |
/api/flows/stats |
GET | 获取流量统计 |
/api/flows/{id} |
GET | 获取流量详情 |
/api/quota |
GET | 获取配额状态 |
/api/stats |
GET | 获取统计信息 |
/api/health-check |
POST | 手动触发健康检查 |
/api/browsers |
GET | 获取可用浏览器列表 |
/api/docs |
GET | 获取文档列表 |
/api/docs/{id} |
GET | 获取文档内容 |
项目结构
.
├── run.py
├── build.py
├── pyproject.toml
├── requirements.txt
├── kiro_proxy/
│ ├── main.py # FastAPI 应用入口
│ ├── config.py # 全局配置
│ ├── converters/ # 协议转换
│ ├── core/ # 核心模块
│ ├── credential/ # 凭证管理
│ ├── auth/ # 认证模块
│ ├── handlers/ # API 处理器
│ │ ├── anthropic/ # /v1/messages
│ │ ├── admin/ # 管理 API
│ │ ├── openai.py # /v1/chat/completions
│ │ ├── responses.py # /v1/responses (Codex CLI)
│ │ └── gemini.py # /v1/models/{model}:generateContent
│ ├── routers/ # 路由层
│ ├── web/ # Web UI
│ └── docs/ # 内置文档
├── assets/ # 资源文件
├── legacy/ # 兼容旧入口
├── scripts/ # 辅助脚本
├── examples/ # 示例
└── tests/ # 测试
构建
# 安装构建依赖
pip install pyinstaller
# 构建
python build.py
输出文件在 dist/ 目录。
免责声明
本项目仅供学习研究,禁止商用。使用本项目产生的任何后果由使用者自行承担,与作者无关。
本项目与 Kiro / AWS / Anthropic 官方无关。