只要是兼容openai的接口都行
llm_cfg = {
# 使用 DashScope 提供的模型服务:
'model': 'gpt-4o',
'model_server': 'https://api.openai.com/v1/',
'api_key': 'sk-',
# 使用与 OpenAI API 兼容的模型服务,例如 vLLM 或 Ollama:
# 'model': 'Qwen2.5-7B-Instruct',
# 'model_server': 'http://localhost:11434/v1/', # base_url,也称为 api_base
# 'api_key': 'EMPTY',
# (可选) LLM 的超参数:
'generate_cfg': {
'top_p': 0.8
}
} 网友回复


