Skip to content
騰訊混元

配置騰訊混元

騰訊混元(Hunyuan)是騰訊自研的大語言模型,提供多模態理解、長文字處理、聯網搜尋等功能。支援中文最佳化、行業定製和企業級安全保障,適用於對話、寫作、分析等場景。

1. 獲取騰訊混元 API Key

1.1 訪問騰訊混元控制檯

訪問騰訊混元控制檯並登入:https://console.cloud.tencent.com/hunyuan

訪問騰訊混元控制檯

1.2 進入 API KEY 管理頁面

登入後,點選左側選單的 立即接入

進入 API KEY 管理

1.3 建立新的 API Key

點選 建立 API KEY 按鈕。

點選建立按鈕

1.4 複製 API Key

建立成功後,系統會顯示 API Key。

重要:請立即複製並妥善儲存,API Key 以 sk- 開頭。

複製 API Key

點選複製按鈕,API Key 已複製到剪貼簿。

2. 在 CueMate 中配置騰訊混元模型

2.1 進入模型設定頁面

登入 CueMate 系統後,點選右上角下拉選單的 模型設定

進入模型設定

2.2 新增新模型

點選右上角的 新增模型 按鈕。

點選新增模型

2.3 選擇騰訊混元服務商

在彈出的對話方塊中:

  1. 服務商型別:選擇 騰訊混元
  2. 點選後 自動進入下一步

選擇騰訊混元

2.4 填寫配置資訊

在配置頁面填寫以下資訊:

基礎配置

  1. 模型名稱:為這個模型配置起個名字(例如:混元-Turbo)
  2. API URL:保持預設 https://api.hunyuan.cloud.tencent.com/v1(OpenAI 相容格式)
  3. API Key:貼上剛才複製的騰訊混元 API Key
  4. 模型版本:選擇要使用的模型ID,常用模型包括:
    • hunyuan-t1-latest:推理模型,最大輸出64K,適合複雜推理、技術面試
    • hunyuan-turbos-latest:通用模型,最大輸出16K,適合常規對話、長文字生成
    • hunyuan-a13b:混合推理模型,最大輸出32K,支援快慢思考切換
    • hunyuan-standard-256K:超長上下文,最大輸出6K,適合長文件理解
    • hunyuan-large:大引數模型,最大輸出4K,適合專業領域
    • hunyuan-lite:輕量快速版,最大輸出6K,適合快速響應

填寫基礎配置

高階配置(可選)

展開 高階配置 面板,可以調整以下引數:

CueMate 介面可調引數:

  1. 溫度(temperature):控制輸出隨機性

    • 範圍:0-2
    • 推薦值:0.7
    • 作用:值越高輸出越隨機創新,值越低輸出越穩定保守
    • 使用建議
      • 創意寫作/頭腦風暴:1.0-1.5
      • 常規對話/問答:0.7-0.9
      • 程式碼生成/精確任務:0.3-0.5
  2. 輸出最大 tokens(max_tokens):限制單次輸出長度

    • 範圍:256 - 64000(根據模型而定)
    • 推薦值:8192
    • 作用:控制模型單次響應的最大字數
    • 模型限制
      • hunyuan-t1-latest:最大 64K tokens
      • hunyuan-turbos-latest:最大 16K tokens
      • hunyuan-a13b:最大 32K tokens
      • hunyuan-standard-256K:最大 6K tokens
      • hunyuan-large:最大 4K tokens
      • hunyuan-lite:最大 6K tokens
    • 使用建議
      • 簡短問答:1024-2048
      • 常規對話:4096-8192
      • 長文生成:16384-32768
      • 超長推理:65536(僅 T1 模型)

高階配置

騰訊混元 API 支援的其他高階引數:

雖然 CueMate 介面只提供 temperature 和 max_tokens 調整,但如果你透過 API 直接呼叫騰訊混元,還可以使用以下高階引數(騰訊混元採用 OpenAI 相容的 API 格式):

  1. top_p(nucleus sampling)

    • 範圍:0-1
    • 預設值:1
    • 作用:從機率累積達到 p 的最小候選集中取樣
    • 與 temperature 的關係:通常只調整其中一個
    • 使用建議
      • 保持多樣性但避免離譜:0.9-0.95
      • 更保守的輸出:0.7-0.8
  2. frequency_penalty(頻率懲罰)

    • 範圍:-2.0 到 2.0
    • 預設值:0
    • 作用:降低重複相同詞彙的機率(基於詞頻)
    • 使用建議
      • 減少重複:0.3-0.8
      • 允許重複:0(預設)
  3. presence_penalty(存在懲罰)

    • 範圍:-2.0 到 2.0
    • 預設值:0
    • 作用:降低已出現過的詞彙再次出現的機率(基於是否出現)
    • 使用建議
      • 鼓勵新話題:0.3-0.8
      • 允許重複話題:0(預設)
  4. stop(停止序列)

    • 型別:字串或陣列
    • 預設值:null
    • 作用:當生成內容包含指定字串時停止
    • 示例["###", "使用者:", "\n\n"]
    • 使用場景
      • 結構化輸出:使用分隔符控制格式
      • 對話系統:防止模型代替使用者說話
  5. stream(流式輸出)

    • 型別:布林值
    • 預設值:false
    • 作用:啟用 SSE 流式返回,邊生成邊返回
    • CueMate 中:自動處理,無需手動設定
序號場景temperaturemax_tokenstop_pfrequency_penaltypresence_penalty
1創意寫作1.0-1.24096-81920.950.50.5
2程式碼生成0.2-0.52048-40960.90.00.0
3問答系統0.71024-20480.90.00.0
4摘要總結0.3-0.5512-10240.90.00.0
5複雜推理0.732768-655360.90.00.0

2.5 測試連線

填寫完配置後,點選 測試連線 按鈕,驗證配置是否正確。

測試連線

如果配置正確,會顯示測試成功的提示,並返回模型的響應示例。

測試成功

如果配置錯誤,會顯示測試錯誤的日誌,並且可以透過日誌管理,檢視具體報錯資訊。

2.6 儲存配置

測試成功後,點選 儲存 按鈕,完成模型配置。

儲存配置

3. 使用模型

透過右上角下拉選單,進入系統設定介面,在大模型服務商欄目選擇想要使用的模型配置。

配置完成後,可以在面試訓練、問題生成等功能中選擇使用此模型, 當然也可以在面試的選項中單此選擇此次面試的模型配置。

選擇模型

4. 支援的模型列表

4.1 推理與通用模型

序號模型名稱模型 ID最大輸出適用場景
1混元 T1hunyuan-t1-latest64K tokens推理模型、複雜推理、技術面試
2混元 Turboshunyuan-turbos-latest16K tokens通用模型、常規對話、長文字生成
3混元 A13Bhunyuan-a13b32K tokens混合推理、快慢思考切換

4.2 長上下文與專業模型

序號模型名稱模型 ID最大輸出適用場景
1混元 Standard 256Khunyuan-standard-256K6K tokens超長上下文、長文件理解
2混元 Standardhunyuan-standard2K tokens標準版本、快速響應
3混元 Largehunyuan-large4K tokens大引數模型、專業領域
4混元 Litehunyuan-lite6K tokens輕量快速、高價效比

4.3 專項功能模型

序號模型名稱模型 ID最大輸出適用場景
1混元 FunctionCallhunyuan-functioncall4K tokens函式呼叫、工具整合
2混元 Codehunyuan-code4K tokens程式碼生成、技術問答

5. 常見問題

5.1 API Key 無效

現象:測試連線時提示 API Key 錯誤

解決方案

  1. 檢查 API Key 是否以 sk- 開頭
  2. 確認 API Key 完整複製
  3. 檢查賬戶是否有可用額度
  4. 驗證 API Key 未過期或被禁用

5.2 請求超時

現象:測試連線或使用時長時間無響應

解決方案

  1. 檢查網路連線是否正常
  2. 確認 API URL 地址正確
  3. 檢查防火牆設定

5.3 配額不足

現象:提示配額已用完或餘額不足

解決方案

  1. 登入騰訊混元控制檯檢視賬戶餘額
  2. 充值或申請更多配額
  3. 檢查混元服務的配額限制

相關連結

Released under the GPL-3.0 License.