| # Thread Configuration - 线程配置 | |
| # 生成时采用的最大线程数,5-10即可。会带来成倍的API调用费用,不要设置过高! | |
| MAX_THREAD_NUM=1 | |
| # Server Configuration - Docker服务配置 | |
| # 前端服务端口 | |
| FRONTEND_PORT=80 | |
| # 后端服务端口 | |
| BACKEND_PORT=7869 | |
| # 后端服务监听地址 | |
| BACKEND_HOST=0.0.0.0 | |
| # Gunicorn工作进程数 | |
| WORKERS=4 | |
| # 每个工作进程的线程数 | |
| THREADS=2 | |
| # 请求超时时间(秒) | |
| TIMEOUT=120 | |
| # 是否启用在线演示 | |
| # 不用设置,默认不启用 | |
| ENABLE_ONLINE_DEMO=False | |
| # Backend Configuration - 后端配置 | |
| # 导入小说时,最大的处理长度,超出该长度的文本不会进行处理,可以考虑增加 | |
| MAX_NOVEL_SUMMARY_LENGTH=20000 | |
| # MongoDB Configuration - MongoDB数据库配置 | |
| # 安装了MongoDB才需要配置,否则不用改动 | |
| # 是否启用MongoDB,启用后下面配置才有效 | |
| ENABLE_MONGODB=false | |
| # MongoDB连接地址,使用host.docker.internal访问宿主机MongoDB | |
| MONGODB_URI=mongodb://host.docker.internal:27017/ | |
| # MongoDB数据库名称 | |
| MONGODB_DB_NAME=llm_api | |
| # 是否启用API缓存 | |
| ENABLE_MONGODB_CACHE=true | |
| # 缓存命中后重放速度倍率 | |
| CACHE_REPLAY_SPEED=2 | |
| # 缓存命中后最大延迟时间(秒) | |
| CACHE_REPLAY_MAX_DELAY=5 | |
| # API Cost Limits - API费用限制设置,需要依赖于MongoDB | |
| # 每小时费用上限(人民币) | |
| API_HOURLY_LIMIT_RMB=100 | |
| # 每天费用上限(人民币) | |
| API_DAILY_LIMIT_RMB=500 | |
| # 美元兑人民币汇率 | |
| API_USD_TO_RMB_RATE=7 | |
| # Wenxin API Settings - 文心API配置 | |
| # 文心API的AK,获取地址:https://console.bce.baidu.com/qianfan/ais/console/applicationConsole/application | |
| #WENXIN_AK= | |
| #WENXIN_SK= | |
| #WENXIN_AVAILABLE_MODELS=ERNIE-Novel-8K,ERNIE-4.0-8K,ERNIE-3.5-8K | |
| # Doubao API Settings - 豆包API配置 | |
| # DOUBAO_ENDPOINT_IDS和DOUBAO_AVAILABLE_MODELS一一对应,有几个模型就对应几个endpoint_id,这是豆包强制要求的 | |
| # 你可以自行设置DOUBAO_AVAILABLE_MODELS,不一定非要采用下面的 | |
| #DOUBAO_API_KEY= | |
| #DOUBAO_ENDPOINT_IDS= | |
| #DOUBAO_AVAILABLE_MODELS=doubao-pro-32k,doubao-lite-32k | |
| # GPT API Settings - GPT API配置 | |
| GPT_AVAILABLE_MODELS=deepseek-ai/DeepSeek-R1-Distill-Llama-70B,deepseek-ai/DeepSeek-R1,deepseek-r1,deepseek-r1-search,deepseek-v3,deepseek-v3-search,doubao,doubao-search,qwen,qwen-search,gpt-4o,gpt-4o-mini,claude-3-5-sonnet,claude-3-5-haiku,o3-mini-high,o1,gemini-2.0-flash,cursor-small,cursor-fast,gpt-3.5-turbo,gemini-2.0-flash-thinking-exp,claude-3.5-sonnet,claude-3.7-sonnet,claude-3.7-sonnet-thinking,gemini-2.0-pro-exp-02-05,gemini-2.0-flash-thinking-exp-01-21,gemini-2.0-flash-exp,gemini-exp-1206,lmsys/early-grok-3,lmsys/gemini-2.0-pro-exp-02-05,lmsys/gemini-2.0-flash-thinking-exp-01-21,lmsys/deepseek-r1,lmsys/deepseek-v3,lmsys/o3-mini,lmsys/chatgpt-4o-latest-20250129,lmsys/claude-3-7-sonnet-20250219,lmsys/claude-3-5-sonnet-20241022,lmsys/claude-3-5-sonnet-20240620,bing,windsurf/claude-3-5-sonnet,windsurf/gpt4o,you/claude_3_5_sonnet,deepseek-ai/DeepSeek-V3,claude-3-5-sonnet-20240620,通义,星火,grok-2,grok-2-search,grok-3,grok-3-search,grok-3-reasoning,deepchat,claude-3-haiku-20240307,gpt-4-turbo,gpt-4-vision-preview,智谱,command-r-plus,command-r-plus-08-2024,github/gpt-4o,github/gpt-4o-mini,github/Cohere-command-r-plus-08-2024,github/Cohere-command-r-plus,gpt-4 | |
| # Local Model Settings - 本地模型配置 | |
| # 本地模型配置需要把下面的localhost替换为host.docker.internal,把8000替换为你的本地大模型服务端口 | |
| # 把local-key替换为你的本地大模型服务API_KEY,把local-model-1替换为你的本地大模型服务模型名 | |
| # 并且docker启动方式有变化,详细参考readme | |
| #LOCAL_BASE_URL=http://localhost:8000/v1 | |
| #LOCAL_API_KEY=local-key | |
| #LOCAL_AVAILABLE_MODELS=local-model-1 | |
| # Zhipuai API Settings - 智谱AI配置 | |
| #ZHIPUAI_API_KEY= | |
| ZHIPUAI_AVAILABLE_MODELS=glm-4-air,glm-4-flashx | |
| # Default Model Settings - 默认模型设置 | |
| # 例如:wenxin/ERNIE-Novel-8K, doubao/doubao-pro-32k, gpt/gpt-4o-mini, local/local-model-1 | |
| DEFAULT_MAIN_MODEL=gpt/claude-3-5-sonnet-20240620 | |
| DEFAULT_SUB_MODEL=gpt/gemini-2.0-pro-exp-02-05 | |