Skip to content
火山引擎

配置火山引擎

火山引擎是位元組跳動旗下的雲服務平臺,提供豆包大模型(Doubao)系列服務。支援文字生成、對話理解、內容創作等功能,具備高併發、低延遲的企業級服務能力。

1. 獲取火山引擎 API Key

1.1 訪問火山引擎控制檯

訪問火山引擎並登入:https://console.volcengine.com/

訪問火山引擎控制檯

1.2 開通豆包大模型服務

  1. 在搜尋框中輸入 火山方舟
  2. 點選 豆包大模型
  3. 點選 立即開通

開通豆包服務

1.3 API Key 管理

  1. 點選左側選單的 API 訪問金鑰管理
  2. 進入 API Key 管理頁面

API Key 管理

1.4 建立 API Key

  1. 點選 建立 API Key 按鈕
  2. 輸入 API Key 名稱
  3. 點選 確定

建立 API Key

1.5 獲取 API Key

建立成功後,系統會顯示 API Key。

重要:請立即複製並妥善儲存,API Key 為 UUID 格式。

獲取 API Key

1.6 開通線上推理模型

重要:在使用火山引擎模型之前,必須先開通對應的模型服務,否則 API 呼叫時會報錯 "InvalidEndpointOrModel.NotFound"。

  1. 在火山方舟控制檯左側選單,點選 線上推理預置推理接入點

線上推理管理

  1. 選擇要使用的模型(如 Doubao-Seed-1.6),勾選開通協議,點選 開通模型 按鈕

開通模型

開通成功後,就可以在 CueMate 中使用該模型名稱。

2. 在 CueMate 中配置火山引擎模型

2.1 進入模型設定頁面

登入 CueMate 系統後,點選右上角下拉選單的 模型設定

進入模型設定

2.2 新增新模型

點選右上角的 新增模型 按鈕。

點選新增模型

2.3 選擇火山引擎服務商

在彈出的對話方塊中:

  1. 服務商型別:選擇 火山引擎
  2. 點選後 自動進入下一步

選擇火山引擎

2.4 填寫配置資訊

在配置頁面填寫以下資訊:

基礎配置

  1. 模型名稱:為這個模型配置起個名字(例如:豆包 Seed 1.6)
  2. API URL:保持預設 https://ark.cn-beijing.volces.com/api/v3
  3. API Key:貼上火山引擎的 API Key(UUID 格式)
  4. 模型版本:填寫在步驟 1.6 中開通的模型對應的 API 名稱
    • 重要:需要使用 API 格式的模型名稱(如 doubao-seed-1-6-251015),不是控制檯顯示的名稱
    • 也可使用推理接入點 ID(如 ep-xxxxxxxxxx-yyyy

模型名稱格式說明

  • 控制檯顯示Doubao-Seed-1.6 (日期 251015)
  • API 呼叫格式doubao-seed-1-6-251015 (全小寫,點號改為連字元,末尾加日期)

可用的 2025 最新模型(需先在步驟 1.6 中開通,下方為 API 格式名稱):

  • doubao-seed-1-6-251015:豆包 Seed 1.6(256K 上下文,16K 輸出)
  • doubao-seed-1-6-thinking-250715:豆包 Seed 1.6 思維模型
  • doubao-seed-1-6-flash-250828:豆包 Seed 1.6 超快版
  • doubao-seed-1-6-vision-250815:豆包 Seed 1.6 多模態版(64K 輸出)
  • doubao-1-5-thinking-pro-250415:豆包 1.5 思維增強版(16K 輸出)
  • doubao-1-5-vision-pro-250328:豆包 1.5 多模態版(16K 輸出)
  • doubao-1-5-ui-tars-250428:豆包 1.5 UI-TARS(16K 輸出)
  • doubao-1-5-pro-32k-250115:豆包 1.5 Pro 32K 版本(4K 輸出)
  • doubao-1-5-pro-256k-250115:豆包 1.5 Pro 256K 版本(4K 輸出)
  • doubao-1-5-lite-32k-250115:豆包 1.5 輕量版(4K 輸出)
  • deepseek-v3-1-terminus:DeepSeek V3.1 Terminus(8K 輸出)
  • deepseek-r1-250528:DeepSeek R1(8K 輸出)
  • deepseek-v3-250324:DeepSeek V3(8K 輸出)
  • kimi-k2-250905:Kimi K2(4K 輸出)

注意:模型名稱必須使用 API 格式(全小寫、連字元、帶日期字尾),否則會報錯 "InvalidEndpointOrModel.NotFound"。

填寫基礎配置

高階配置(可選)

展開 高階配置 面板,可以調整以下引數:

CueMate 介面可調引數:

  1. 溫度(temperature):控制輸出隨機性

    • 範圍:0-2
    • 推薦值:0.7
    • 作用:值越高輸出越隨機創新,值越低輸出越穩定保守
    • 使用建議
      • 創意寫作/頭腦風暴:1.0-1.5
      • 常規對話/問答:0.7-0.9
      • 程式碼生成/精確任務:0.3-0.5
  2. 輸出最大 tokens(max_tokens):限制單次輸出長度

    • 範圍:256 - 64000(根據模型而定)
    • 推薦值:8192
    • 作用:控制模型單次響應的最大字數
    • 模型限制
      • doubao-seed-1-6-vision:最大 64K tokens
      • doubao-seed-1-6 系列:最大 16K tokens
      • doubao-1-5 系列:最大 16K tokens
      • Pro/Lite 系列:最大 4K tokens
      • deepseek/kimi 系列:最大 8K tokens
    • 使用建議
      • 簡短問答:1024-2048
      • 常規對話:4096-8192
      • 長文生成:16384-32768
      • 超長輸出:65536(僅 vision 模型)

高階配置

火山引擎 API 支援的其他高階引數:

雖然 CueMate 介面只提供 temperature 和 max_tokens 調整,但如果你透過 API 直接呼叫火山引擎,還可以使用以下高階引數(火山引擎採用 OpenAI 相容的 API 格式):

  1. top_p(nucleus sampling)

    • 範圍:0-1
    • 預設值:1
    • 作用:從機率累積達到 p 的最小候選集中取樣
    • 與 temperature 的關係:通常只調整其中一個
    • 使用建議
      • 保持多樣性但避免離譜:0.9-0.95
      • 更保守的輸出:0.7-0.8
  2. frequency_penalty(頻率懲罰)

    • 範圍:-2.0 到 2.0
    • 預設值:0
    • 作用:降低重複相同詞彙的機率(基於詞頻)
    • 使用建議
      • 減少重複:0.3-0.8
      • 允許重複:0(預設)
  3. presence_penalty(存在懲罰)

    • 範圍:-2.0 到 2.0
    • 預設值:0
    • 作用:降低已出現過的詞彙再次出現的機率(基於是否出現)
    • 使用建議
      • 鼓勵新話題:0.3-0.8
      • 允許重複話題:0(預設)
  4. stop(停止序列)

    • 型別:字串或陣列
    • 預設值:null
    • 作用:當生成內容包含指定字串時停止
    • 示例["###", "使用者:", "\n\n"]
    • 使用場景
      • 結構化輸出:使用分隔符控制格式
      • 對話系統:防止模型代替使用者說話
  5. stream(流式輸出)

    • 型別:布林值
    • 預設值:false
    • 作用:啟用 SSE 流式返回,邊生成邊返回
    • CueMate 中:自動處理,無需手動設定
序號場景temperaturemax_tokenstop_pfrequency_penaltypresence_penalty
1創意寫作1.0-1.24096-81920.950.50.5
2程式碼生成0.2-0.52048-40960.90.00.0
3問答系統0.71024-20480.90.00.0
4摘要總結0.3-0.5512-10240.90.00.0
5長文字生成0.716384-327680.90.00.0

2.5 測試連線

填寫完配置後,點選 測試連線 按鈕,驗證配置是否正確。

測試連線

如果配置正確,會顯示測試成功的提示,並返回模型的響應示例。

測試成功

常見錯誤

  • 如果提示 "InvalidEndpointOrModel.NotFound",說明模型未開通或模型名稱不正確,請返回步驟 1.6 開通模型服務。

2.6 儲存配置

測試成功後,點選 儲存 按鈕,完成模型配置。

儲存配置

3. 使用模型

透過右上角下拉選單,進入系統設定介面,在大模型服務商欄目選擇想要使用的模型配置。

配置完成後,可以在面試訓練、問題生成等功能中選擇使用此模型, 當然也可以在面試的選項中單此選擇此次面試的模型配置。

選擇模型

4. 支援的模型列表

4.1 豆包 Seed 1.6 系列(2025 年最新)

序號模型名稱API 呼叫名稱上下文長度最大輸出適用場景
1豆包 Seed 1.6doubao-seed-1-6-251015256K16K tokens最新旗艦,超長文件處理
2豆包 Seed 1.6 思維版doubao-seed-1-6-thinking-250715256K16K tokens複雜推理、技術面試
3豆包 Seed 1.6 閃電版doubao-seed-1-6-flash-250828256K16K tokens超快響應、實時互動
4豆包 Seed 1.6 多模態版doubao-seed-1-6-vision-250815256K64K tokens影象理解、多模態分析

4.2 豆包 1.5 系列

序號模型名稱API 呼叫名稱上下文長度最大輸出適用場景
1豆包 1.5 思維增強版doubao-1-5-thinking-pro-250415128K16K tokens深度推理、程式碼分析
2豆包 1.5 多模態版doubao-1-5-vision-pro-250328128K16K tokens影象理解、多模態
3豆包 1.5 UI-TARSdoubao-1-5-ui-tars-250428128K16K tokensUI 互動、介面理解
4豆包 1.5 Pro 32Kdoubao-1-5-pro-32k-25011532K4K tokens標準場景、高價效比
5豆包 1.5 Pro 256Kdoubao-1-5-pro-256k-250115256K4K tokens超長文件處理
6豆包 1.5 輕量版doubao-1-5-lite-32k-25011532K4K tokens快速響應、低成本

4.3 DeepSeek 系列

序號模型名稱API 呼叫名稱上下文長度最大輸出適用場景
1DeepSeek V3.1 Terminusdeepseek-v3-1-terminus-8K tokens程式碼生成、技術推理
2DeepSeek R1deepseek-r1-250528-8K tokens推理增強、複雜問題
3DeepSeek V3deepseek-v3-250324-8K tokens通用對話、程式碼輔助

4.4 其他模型

序號模型名稱API 呼叫名稱上下文長度最大輸出適用場景
1Kimi K2kimi-k2-250905-4K tokens快速響應、對話互動

5. 常見問題

5.1 接入點 ID 錯誤

現象:測試連線時提示接入點不存在

解決方案

  1. 檢查接入點 ID 格式(應為 ep-xxxxxxxxxx-yyyy)
  2. 確認推理接入點已成功建立
  3. 驗證接入點狀態為"執行中"

5.2 API Key 無效

現象:提示 API Key 錯誤

解決方案

  1. 檢查 API Key 是否為 UUID 格式
  2. 確認 API Key 未過期或被禁用
  3. 驗證 API Key 關聯的賬號有模型訪問許可權

5.3 請求超時

現象:測試連線或使用時長時間無響應

解決方案

  1. 檢查網路連線是否正常
  2. 確認 API URL 配置正確
  3. 檢查防火牆設定

5.4 配額限制

現象:提示超出請求配額

解決方案

  1. 登入火山引擎控制檯檢視配額使用情況
  2. 申請提高配額限制
  3. 最佳化使用頻率

相關連結

Released under the GPL-3.0 License.