diff --git a/.env.example b/.env.example index ab62818..4133fee 100644 --- a/.env.example +++ b/.env.example @@ -11,7 +11,7 @@ AI_API_KEY= # API密钥 # AI_API_BASE= # 可选:自定义API端点 # AI_CUSTOM_PROVIDER= # 可选:自定义端点的API格式(如 'openai',用于兼容OpenAI格式的自定义端点) # AI_TEMPERATURE=0.7 # 可选:温度参数(0-1) -# AI_MAX_TOKENS=500 # 可选:最大token数 +# AI_MAX_TOKENS=2000 # 可选:最大token数(建议1000-2000,避免中文返回被截断) # 方式2:使用OpenAI配置(兼容旧版本) # OPENAI_API_KEY= diff --git a/backend/.env b/backend/.env index 6e9f661..6a7c50e 100644 --- a/backend/.env +++ b/backend/.env @@ -5,7 +5,7 @@ AI_API_KEY=your_api_key_here # AI_API_BASE=https://your-custom-endpoint.com/v1 # 可选:自定义API端点 # AI_CUSTOM_PROVIDER=openai # 可选:自定义端点的API格式 AI_TEMPERATURE=0.7 -AI_MAX_TOKENS=500 +AI_MAX_TOKENS=2000 # 兼容旧配置 OPENAI_API_KEY=your_openai_api_key_here diff --git a/backend/ai_service.py b/backend/ai_service.py index beb5aca..410911a 100644 --- a/backend/ai_service.py +++ b/backend/ai_service.py @@ -21,7 +21,7 @@ class AIService: self.api_base = os.getenv('AI_API_BASE') # 可选:自定义API端点 self.custom_llm_provider = os.getenv('AI_CUSTOM_PROVIDER') # 可选:自定义端点的API格式(如 'openai') self.temperature = float(os.getenv('AI_TEMPERATURE', '0.7')) - self.max_tokens = int(os.getenv('AI_MAX_TOKENS', '500')) + self.max_tokens = int(os.getenv('AI_MAX_TOKENS', '2000')) # 提高默认值,避免中文返回被截断 # 设置环境变量供LiteLLM使用 if self.api_key: