配置火山引擎
火山引擎是字节跳动旗下的云服务平台,提供豆包大模型(Doubao)系列服务。支持文本生成、对话理解、内容创作等功能,具备高并发、低延迟的企业级服务能力。
1. 获取火山引擎 API Key
1.1 访问火山引擎控制台
访问火山引擎并登录:https://console.volcengine.com/

1.2 开通豆包大模型服务
- 在搜索框中输入 火山方舟
- 点击 豆包大模型
- 点击 立即开通

1.3 API Key 管理
- 点击左侧菜单的 API 访问 或 密钥管理
- 进入 API Key 管理页面

1.4 创建 API Key
- 点击 创建 API Key 按钮
- 输入 API Key 名称
- 点击 确定

1.5 获取 API Key
创建成功后,系统会显示 API Key。
重要:请立即复制并妥善保存,API Key 为 UUID 格式。

1.6 开通在线推理模型
重要:在使用火山引擎模型之前,必须先开通对应的模型服务,否则 API 调用时会报错 "InvalidEndpointOrModel.NotFound"。
- 在火山方舟控制台左侧菜单,点击 在线推理 → 预置推理接入点

- 选择要使用的模型(如
Doubao-Seed-1.6),勾选开通协议,点击 开通模型 按钮

开通成功后,就可以在 CueMate 中使用该模型名称。
2. 在 CueMate 中配置火山引擎模型
2.1 进入模型设置页面
登录 CueMate 系统后,点击右上角下拉菜单的 模型设置。

2.2 添加新模型
点击右上角的 添加模型 按钮。

2.3 选择火山引擎服务商
在弹出的对话框中:
- 服务商类型:选择 火山引擎
- 点击后 自动进入下一步

2.4 填写配置信息
在配置页面填写以下信息:
基础配置
- 模型名称:为这个模型配置起个名字(例如:豆包 Seed 1.6)
- API URL:保持默认
https://ark.cn-beijing.volces.com/api/v3 - API Key:粘贴火山引擎的 API Key(UUID 格式)
- 模型版本:填写在步骤 1.6 中开通的模型对应的 API 名称
- 重要:需要使用 API 格式的模型名称(如
doubao-seed-1-6-251015),不是控制台显示的名称 - 也可使用推理接入点 ID(如
ep-xxxxxxxxxx-yyyy)
- 重要:需要使用 API 格式的模型名称(如
模型名称格式说明:
- 控制台显示:
Doubao-Seed-1.6(日期 251015) - API 调用格式:
doubao-seed-1-6-251015(全小写,点号改为连字符,末尾加日期)
可用的 2025 最新模型(需先在步骤 1.6 中开通,下方为 API 格式名称):
doubao-seed-1-6-251015:豆包 Seed 1.6(256K 上下文,16K 输出)doubao-seed-1-6-thinking-250715:豆包 Seed 1.6 思维模型doubao-seed-1-6-flash-250828:豆包 Seed 1.6 超快版doubao-seed-1-6-vision-250815:豆包 Seed 1.6 多模态版(64K 输出)doubao-1-5-thinking-pro-250415:豆包 1.5 思维增强版(16K 输出)doubao-1-5-vision-pro-250328:豆包 1.5 多模态版(16K 输出)doubao-1-5-ui-tars-250428:豆包 1.5 UI-TARS(16K 输出)doubao-1-5-pro-32k-250115:豆包 1.5 Pro 32K 版本(4K 输出)doubao-1-5-pro-256k-250115:豆包 1.5 Pro 256K 版本(4K 输出)doubao-1-5-lite-32k-250115:豆包 1.5 轻量版(4K 输出)deepseek-v3-1-terminus:DeepSeek V3.1 Terminus(8K 输出)deepseek-r1-250528:DeepSeek R1(8K 输出)deepseek-v3-250324:DeepSeek V3(8K 输出)kimi-k2-250905:Kimi K2(4K 输出)
注意:模型名称必须使用 API 格式(全小写、连字符、带日期后缀),否则会报错 "InvalidEndpointOrModel.NotFound"。

高级配置(可选)
展开 高级配置 面板,可以调整以下参数:
CueMate 界面可调参数:
温度(temperature):控制输出随机性
- 范围:0-2
- 推荐值:0.7
- 作用:值越高输出越随机创新,值越低输出越稳定保守
- 使用建议:
- 创意写作/头脑风暴:1.0-1.5
- 常规对话/问答:0.7-0.9
- 代码生成/精确任务:0.3-0.5
输出最大 tokens(max_tokens):限制单次输出长度
- 范围:256 - 64000(根据模型而定)
- 推荐值:8192
- 作用:控制模型单次响应的最大字数
- 模型限制:
- doubao-seed-1-6-vision:最大 64K tokens
- doubao-seed-1-6 系列:最大 16K tokens
- doubao-1-5 系列:最大 16K tokens
- Pro/Lite 系列:最大 4K tokens
- deepseek/kimi 系列:最大 8K tokens
- 使用建议:
- 简短问答:1024-2048
- 常规对话:4096-8192
- 长文生成:16384-32768
- 超长输出:65536(仅 vision 模型)

火山引擎 API 支持的其他高级参数:
虽然 CueMate 界面只提供 temperature 和 max_tokens 调整,但如果你通过 API 直接调用火山引擎,还可以使用以下高级参数(火山引擎采用 OpenAI 兼容的 API 格式):
top_p(nucleus sampling)
- 范围:0-1
- 默认值:1
- 作用:从概率累积达到 p 的最小候选集中采样
- 与 temperature 的关系:通常只调整其中一个
- 使用建议:
- 保持多样性但避免离谱:0.9-0.95
- 更保守的输出:0.7-0.8
frequency_penalty(频率惩罚)
- 范围:-2.0 到 2.0
- 默认值:0
- 作用:降低重复相同词汇的概率(基于词频)
- 使用建议:
- 减少重复:0.3-0.8
- 允许重复:0(默认)
presence_penalty(存在惩罚)
- 范围:-2.0 到 2.0
- 默认值:0
- 作用:降低已出现过的词汇再次出现的概率(基于是否出现)
- 使用建议:
- 鼓励新话题:0.3-0.8
- 允许重复话题:0(默认)
stop(停止序列)
- 类型:字符串或数组
- 默认值:null
- 作用:当生成内容包含指定字符串时停止
- 示例:
["###", "用户:", "\n\n"] - 使用场景:
- 结构化输出:使用分隔符控制格式
- 对话系统:防止模型代替用户说话
stream(流式输出)
- 类型:布尔值
- 默认值:false
- 作用:启用 SSE 流式返回,边生成边返回
- CueMate 中:自动处理,无需手动设置
参数组合建议:
| 序号 | 场景 | temperature | max_tokens | top_p | frequency_penalty | presence_penalty |
|---|---|---|---|---|---|---|
| 1 | 创意写作 | 1.0-1.2 | 4096-8192 | 0.95 | 0.5 | 0.5 |
| 2 | 代码生成 | 0.2-0.5 | 2048-4096 | 0.9 | 0.0 | 0.0 |
| 3 | 问答系统 | 0.7 | 1024-2048 | 0.9 | 0.0 | 0.0 |
| 4 | 摘要总结 | 0.3-0.5 | 512-1024 | 0.9 | 0.0 | 0.0 |
| 5 | 长文本生成 | 0.7 | 16384-32768 | 0.9 | 0.0 | 0.0 |
2.5 测试连接
填写完配置后,点击 测试连接 按钮,验证配置是否正确。

如果配置正确,会显示测试成功的提示,并返回模型的响应示例。

常见错误:
- 如果提示 "InvalidEndpointOrModel.NotFound",说明模型未开通或模型名称不正确,请返回步骤 1.6 开通模型服务。
2.6 保存配置
测试成功后,点击 保存 按钮,完成模型配置。

3. 使用模型
通过右上角下拉菜单,进入系统设置界面,在大模型供应商栏目选择想要使用的模型配置。
配置完成后,可以在面试训练、问题生成等功能中选择使用此模型, 当然也可以在面试的选项中单此选择此次面试的模型配置。

4. 支持的模型列表
4.1 豆包 Seed 1.6 系列(2025 年最新)
| 序号 | 模型名称 | API 调用名称 | 上下文长度 | 最大输出 | 适用场景 |
|---|---|---|---|---|---|
| 1 | 豆包 Seed 1.6 | doubao-seed-1-6-251015 | 256K | 16K tokens | 最新旗舰,超长文档处理 |
| 2 | 豆包 Seed 1.6 思维版 | doubao-seed-1-6-thinking-250715 | 256K | 16K tokens | 复杂推理、技术面试 |
| 3 | 豆包 Seed 1.6 闪电版 | doubao-seed-1-6-flash-250828 | 256K | 16K tokens | 超快响应、实时交互 |
| 4 | 豆包 Seed 1.6 多模态版 | doubao-seed-1-6-vision-250815 | 256K | 64K tokens | 图像理解、多模态分析 |
4.2 豆包 1.5 系列
| 序号 | 模型名称 | API 调用名称 | 上下文长度 | 最大输出 | 适用场景 |
|---|---|---|---|---|---|
| 1 | 豆包 1.5 思维增强版 | doubao-1-5-thinking-pro-250415 | 128K | 16K tokens | 深度推理、代码分析 |
| 2 | 豆包 1.5 多模态版 | doubao-1-5-vision-pro-250328 | 128K | 16K tokens | 图像理解、多模态 |
| 3 | 豆包 1.5 UI-TARS | doubao-1-5-ui-tars-250428 | 128K | 16K tokens | UI 交互、界面理解 |
| 4 | 豆包 1.5 Pro 32K | doubao-1-5-pro-32k-250115 | 32K | 4K tokens | 标准场景、高性价比 |
| 5 | 豆包 1.5 Pro 256K | doubao-1-5-pro-256k-250115 | 256K | 4K tokens | 超长文档处理 |
| 6 | 豆包 1.5 轻量版 | doubao-1-5-lite-32k-250115 | 32K | 4K tokens | 快速响应、低成本 |
4.3 DeepSeek 系列
| 序号 | 模型名称 | API 调用名称 | 上下文长度 | 最大输出 | 适用场景 |
|---|---|---|---|---|---|
| 1 | DeepSeek V3.1 Terminus | deepseek-v3-1-terminus | - | 8K tokens | 代码生成、技术推理 |
| 2 | DeepSeek R1 | deepseek-r1-250528 | - | 8K tokens | 推理增强、复杂问题 |
| 3 | DeepSeek V3 | deepseek-v3-250324 | - | 8K tokens | 通用对话、代码辅助 |
4.4 其他模型
| 序号 | 模型名称 | API 调用名称 | 上下文长度 | 最大输出 | 适用场景 |
|---|---|---|---|---|---|
| 1 | Kimi K2 | kimi-k2-250905 | - | 4K tokens | 快速响应、对话交互 |
5. 常见问题
5.1 接入点 ID 错误
现象:测试连接时提示接入点不存在
解决方案:
- 检查接入点 ID 格式(应为 ep-xxxxxxxxxx-yyyy)
- 确认推理接入点已成功创建
- 验证接入点状态为"运行中"
5.2 API Key 无效
现象:提示 API Key 错误
解决方案:
- 检查 API Key 是否为 UUID 格式
- 确认 API Key 未过期或被禁用
- 验证 API Key 关联的账号有模型访问权限
5.3 请求超时
现象:测试连接或使用时长时间无响应
解决方案:
- 检查网络连接是否正常
- 确认 API URL 配置正确
- 检查防火墙设置
5.4 配额限制
现象:提示超出请求配额
解决方案:
- 登录火山引擎控制台查看配额使用情况
- 申请提高配额限制
- 优化使用频率
