Skip to content
火山引擎

配置火山引擎

火山引擎是字节跳动旗下的云服务平台,提供豆包大模型(Doubao)系列服务。支持文本生成、对话理解、内容创作等功能,具备高并发、低延迟的企业级服务能力。

1. 获取火山引擎 API Key

1.1 访问火山引擎控制台

访问火山引擎并登录:https://console.volcengine.com/

访问火山引擎控制台

1.2 开通豆包大模型服务

  1. 在搜索框中输入 火山方舟
  2. 点击 豆包大模型
  3. 点击 立即开通

开通豆包服务

1.3 API Key 管理

  1. 点击左侧菜单的 API 访问密钥管理
  2. 进入 API Key 管理页面

API Key 管理

1.4 创建 API Key

  1. 点击 创建 API Key 按钮
  2. 输入 API Key 名称
  3. 点击 确定

创建 API Key

1.5 获取 API Key

创建成功后,系统会显示 API Key。

重要:请立即复制并妥善保存,API Key 为 UUID 格式。

获取 API Key

1.6 开通在线推理模型

重要:在使用火山引擎模型之前,必须先开通对应的模型服务,否则 API 调用时会报错 "InvalidEndpointOrModel.NotFound"。

  1. 在火山方舟控制台左侧菜单,点击 在线推理预置推理接入点

在线推理管理

  1. 选择要使用的模型(如 Doubao-Seed-1.6),勾选开通协议,点击 开通模型 按钮

开通模型

开通成功后,就可以在 CueMate 中使用该模型名称。

2. 在 CueMate 中配置火山引擎模型

2.1 进入模型设置页面

登录 CueMate 系统后,点击右上角下拉菜单的 模型设置

进入模型设置

2.2 添加新模型

点击右上角的 添加模型 按钮。

点击添加模型

2.3 选择火山引擎服务商

在弹出的对话框中:

  1. 服务商类型:选择 火山引擎
  2. 点击后 自动进入下一步

选择火山引擎

2.4 填写配置信息

在配置页面填写以下信息:

基础配置

  1. 模型名称:为这个模型配置起个名字(例如:豆包 Seed 1.6)
  2. API URL:保持默认 https://ark.cn-beijing.volces.com/api/v3
  3. API Key:粘贴火山引擎的 API Key(UUID 格式)
  4. 模型版本:填写在步骤 1.6 中开通的模型对应的 API 名称
    • 重要:需要使用 API 格式的模型名称(如 doubao-seed-1-6-251015),不是控制台显示的名称
    • 也可使用推理接入点 ID(如 ep-xxxxxxxxxx-yyyy

模型名称格式说明

  • 控制台显示Doubao-Seed-1.6 (日期 251015)
  • API 调用格式doubao-seed-1-6-251015 (全小写,点号改为连字符,末尾加日期)

可用的 2025 最新模型(需先在步骤 1.6 中开通,下方为 API 格式名称):

  • doubao-seed-1-6-251015:豆包 Seed 1.6(256K 上下文,16K 输出)
  • doubao-seed-1-6-thinking-250715:豆包 Seed 1.6 思维模型
  • doubao-seed-1-6-flash-250828:豆包 Seed 1.6 超快版
  • doubao-seed-1-6-vision-250815:豆包 Seed 1.6 多模态版(64K 输出)
  • doubao-1-5-thinking-pro-250415:豆包 1.5 思维增强版(16K 输出)
  • doubao-1-5-vision-pro-250328:豆包 1.5 多模态版(16K 输出)
  • doubao-1-5-ui-tars-250428:豆包 1.5 UI-TARS(16K 输出)
  • doubao-1-5-pro-32k-250115:豆包 1.5 Pro 32K 版本(4K 输出)
  • doubao-1-5-pro-256k-250115:豆包 1.5 Pro 256K 版本(4K 输出)
  • doubao-1-5-lite-32k-250115:豆包 1.5 轻量版(4K 输出)
  • deepseek-v3-1-terminus:DeepSeek V3.1 Terminus(8K 输出)
  • deepseek-r1-250528:DeepSeek R1(8K 输出)
  • deepseek-v3-250324:DeepSeek V3(8K 输出)
  • kimi-k2-250905:Kimi K2(4K 输出)

注意:模型名称必须使用 API 格式(全小写、连字符、带日期后缀),否则会报错 "InvalidEndpointOrModel.NotFound"。

填写基础配置

高级配置(可选)

展开 高级配置 面板,可以调整以下参数:

CueMate 界面可调参数:

  1. 温度(temperature):控制输出随机性

    • 范围:0-2
    • 推荐值:0.7
    • 作用:值越高输出越随机创新,值越低输出越稳定保守
    • 使用建议
      • 创意写作/头脑风暴:1.0-1.5
      • 常规对话/问答:0.7-0.9
      • 代码生成/精确任务:0.3-0.5
  2. 输出最大 tokens(max_tokens):限制单次输出长度

    • 范围:256 - 64000(根据模型而定)
    • 推荐值:8192
    • 作用:控制模型单次响应的最大字数
    • 模型限制
      • doubao-seed-1-6-vision:最大 64K tokens
      • doubao-seed-1-6 系列:最大 16K tokens
      • doubao-1-5 系列:最大 16K tokens
      • Pro/Lite 系列:最大 4K tokens
      • deepseek/kimi 系列:最大 8K tokens
    • 使用建议
      • 简短问答:1024-2048
      • 常规对话:4096-8192
      • 长文生成:16384-32768
      • 超长输出:65536(仅 vision 模型)

高级配置

火山引擎 API 支持的其他高级参数:

虽然 CueMate 界面只提供 temperature 和 max_tokens 调整,但如果你通过 API 直接调用火山引擎,还可以使用以下高级参数(火山引擎采用 OpenAI 兼容的 API 格式):

  1. top_p(nucleus sampling)

    • 范围:0-1
    • 默认值:1
    • 作用:从概率累积达到 p 的最小候选集中采样
    • 与 temperature 的关系:通常只调整其中一个
    • 使用建议
      • 保持多样性但避免离谱:0.9-0.95
      • 更保守的输出:0.7-0.8
  2. frequency_penalty(频率惩罚)

    • 范围:-2.0 到 2.0
    • 默认值:0
    • 作用:降低重复相同词汇的概率(基于词频)
    • 使用建议
      • 减少重复:0.3-0.8
      • 允许重复:0(默认)
  3. presence_penalty(存在惩罚)

    • 范围:-2.0 到 2.0
    • 默认值:0
    • 作用:降低已出现过的词汇再次出现的概率(基于是否出现)
    • 使用建议
      • 鼓励新话题:0.3-0.8
      • 允许重复话题:0(默认)
  4. stop(停止序列)

    • 类型:字符串或数组
    • 默认值:null
    • 作用:当生成内容包含指定字符串时停止
    • 示例["###", "用户:", "\n\n"]
    • 使用场景
      • 结构化输出:使用分隔符控制格式
      • 对话系统:防止模型代替用户说话
  5. stream(流式输出)

    • 类型:布尔值
    • 默认值:false
    • 作用:启用 SSE 流式返回,边生成边返回
    • CueMate 中:自动处理,无需手动设置

参数组合建议:

序号场景temperaturemax_tokenstop_pfrequency_penaltypresence_penalty
1创意写作1.0-1.24096-81920.950.50.5
2代码生成0.2-0.52048-40960.90.00.0
3问答系统0.71024-20480.90.00.0
4摘要总结0.3-0.5512-10240.90.00.0
5长文本生成0.716384-327680.90.00.0

2.5 测试连接

填写完配置后,点击 测试连接 按钮,验证配置是否正确。

测试连接

如果配置正确,会显示测试成功的提示,并返回模型的响应示例。

测试成功

常见错误

  • 如果提示 "InvalidEndpointOrModel.NotFound",说明模型未开通或模型名称不正确,请返回步骤 1.6 开通模型服务。

2.6 保存配置

测试成功后,点击 保存 按钮,完成模型配置。

保存配置

3. 使用模型

通过右上角下拉菜单,进入系统设置界面,在大模型供应商栏目选择想要使用的模型配置。

配置完成后,可以在面试训练、问题生成等功能中选择使用此模型, 当然也可以在面试的选项中单此选择此次面试的模型配置。

选择模型

4. 支持的模型列表

4.1 豆包 Seed 1.6 系列(2025 年最新)

序号模型名称API 调用名称上下文长度最大输出适用场景
1豆包 Seed 1.6doubao-seed-1-6-251015256K16K tokens最新旗舰,超长文档处理
2豆包 Seed 1.6 思维版doubao-seed-1-6-thinking-250715256K16K tokens复杂推理、技术面试
3豆包 Seed 1.6 闪电版doubao-seed-1-6-flash-250828256K16K tokens超快响应、实时交互
4豆包 Seed 1.6 多模态版doubao-seed-1-6-vision-250815256K64K tokens图像理解、多模态分析

4.2 豆包 1.5 系列

序号模型名称API 调用名称上下文长度最大输出适用场景
1豆包 1.5 思维增强版doubao-1-5-thinking-pro-250415128K16K tokens深度推理、代码分析
2豆包 1.5 多模态版doubao-1-5-vision-pro-250328128K16K tokens图像理解、多模态
3豆包 1.5 UI-TARSdoubao-1-5-ui-tars-250428128K16K tokensUI 交互、界面理解
4豆包 1.5 Pro 32Kdoubao-1-5-pro-32k-25011532K4K tokens标准场景、高性价比
5豆包 1.5 Pro 256Kdoubao-1-5-pro-256k-250115256K4K tokens超长文档处理
6豆包 1.5 轻量版doubao-1-5-lite-32k-25011532K4K tokens快速响应、低成本

4.3 DeepSeek 系列

序号模型名称API 调用名称上下文长度最大输出适用场景
1DeepSeek V3.1 Terminusdeepseek-v3-1-terminus-8K tokens代码生成、技术推理
2DeepSeek R1deepseek-r1-250528-8K tokens推理增强、复杂问题
3DeepSeek V3deepseek-v3-250324-8K tokens通用对话、代码辅助

4.4 其他模型

序号模型名称API 调用名称上下文长度最大输出适用场景
1Kimi K2kimi-k2-250905-4K tokens快速响应、对话交互

5. 常见问题

5.1 接入点 ID 错误

现象:测试连接时提示接入点不存在

解决方案

  1. 检查接入点 ID 格式(应为 ep-xxxxxxxxxx-yyyy)
  2. 确认推理接入点已成功创建
  3. 验证接入点状态为"运行中"

5.2 API Key 无效

现象:提示 API Key 错误

解决方案

  1. 检查 API Key 是否为 UUID 格式
  2. 确认 API Key 未过期或被禁用
  3. 验证 API Key 关联的账号有模型访问权限

5.3 请求超时

现象:测试连接或使用时长时间无响应

解决方案

  1. 检查网络连接是否正常
  2. 确认 API URL 配置正确
  3. 检查防火墙设置

5.4 配额限制

现象:提示超出请求配额

解决方案

  1. 登录火山引擎控制台查看配额使用情况
  2. 申请提高配额限制
  3. 优化使用频率

相关链接

Released under the GPL-3.0 License.