工具
预置工具(大语言模型)
大语言模型配置和工作流使用
大语言模型工具
LLM 能力内置在 monkeys-server 中,可被工作流、对话视图、Agent 和 OpenAI 兼容 API 使用。本地或私有部署可以连接托管模型供应商,也可以连接 vLLM 等自托管 OpenAI 兼容模型服务。
配置
模型配置与部署环境相关。典型 config.yaml 配置如下:
models:
- model: gpt-4o-mini
baseURL: https://api.openai.com/v1
apiKey: sk-xxxxxxxx
type:
- chat_completions
- model: local-qwen
baseURL: http://127.0.0.1:8000/v1
apiKey: token-abc123
type:
- chat_completions
defaultParams:
temperature: 0.7| 参数 | 说明 |
|---|---|
model | 展示给工作流和 API 调用方的模型名。 |
baseURL | OpenAI 兼容 API base URL。 |
apiKey | 供应商 API key。只有供应商不需要鉴权时才留空。 |
type | 支持的调用类型,通常是 chat_completions 或 completions。 |
defaultParams | 传给供应商的默认请求参数。 |
使用方式
常见 LLM 使用方式有三种:
- 在 Studio 工作流中添加模型节点。
- 使用由
monkeys-agent-server支撑的 Agent。 - 通过 OpenAI 兼容 API 调用已发布工作流。
工具调用
工具调用同时依赖模型供应商和工作流配置。不是所有模型都支持 OpenAI 风格的 tools 参数。对可靠性要求高时,建议在工作流中显式定义工具输入,并在传递给下游步骤前校验输出。
私有数据
如果需要让模型基于私有数据回答,可以组合 LLM 节点、文本数据、数据资产或私有数据搜索。详见 私有数据搜索。