Skip to content
騰訊雲知識引擎

配置騰訊雲知識引擎原子能力

騰訊雲知識引擎(LKE)是騰訊雲推出的企業級 AI 服務平臺,提供 DeepSeek-V3 系列模型的 API 接入服務。支援超大規模引數(685B)、混合推理、稀疏注意力等先進技術,適用於複雜推理、程式碼生成、長文字處理等場景。

1. 開通知識引擎服務並獲取 API Key

1.1 訪問知識引擎控制檯

訪問騰訊雲知識引擎原子能力控制檯並登入:https://console.cloud.tencent.com/lke

訪問控制檯

1.2 開通智慧體開發平臺

登入後,點選左側選單的 DeepSeek API立即接入,進入服務開通頁面。

點選 開通智慧體開發平臺 按鈕。

開通服務

1.3 進入 API KEY 管理

服務開通後,點選左側選單的 API KEY 管理

API KEY 管理

1.4 建立 API Key

點選 建立 API KEY 按鈕。

建立 API Key

1.5 複製 API Key

建立成功後,系統會顯示 API Key。

重要:請立即複製並妥善儲存,API Key 以 sk- 開頭。

複製 API Key

點選複製按鈕,API Key 已複製到剪貼簿。

2. 在 CueMate 中配置騰訊雲知識引擎模型

2.1 進入模型設定頁面

登入 CueMate 系統後,點選右上角下拉選單的 模型設定

進入模型設定

2.2 新增新模型

點選右上角的 新增模型 按鈕。

點選新增模型

2.3 選擇騰訊雲知識引擎服務商

在彈出的對話方塊中:

  1. 服務商型別:選擇 騰訊雲知識引擎
  2. 點選後 自動進入下一步

選擇服務商

2.4 填寫配置資訊

在配置頁面填寫以下資訊:

基礎配置

  1. 模型名稱:為這個模型配置起個名字(例如:DeepSeek-V3.1)
  2. API URL:保持預設 https://api.lkeap.cloud.tencent.com/v1(OpenAI 相容格式)
  3. API Key:貼上剛才複製的 API Key
  4. 模型版本:選擇要使用的模型ID,常用模型包括:
    • deepseek-v3.1:685B引數,最大輸出32K,混合推理,適合複雜任務
    • deepseek-v3.1-terminus:685B引數,最大輸出32K,最佳化語言一致性
    • deepseek-v3.2-exp:685B引數,最大輸出64K推理,稀疏注意力機制
    • deepseek-r1-0528:671B引數,最大輸出16K,增強程式碼生成和長文字處理
    • deepseek-r1:671B引數,最大輸出16K,推理模型,適合數學和複雜邏輯
    • deepseek-v3-0324:671B引數,最大輸出16K,128K上下文,強程式設計能力
    • deepseek-v3:671B引數,最大輸出16K,64K上下文,通用知識和數學推理

填寫基礎配置

高階配置(可選)

展開 高階配置 面板,可以調整以下引數:

CueMate 介面可調引數:

  1. 溫度(temperature):控制輸出隨機性

    • 範圍:0-2
    • 推薦值:0.7
    • 作用:值越高輸出越隨機創新,值越低輸出越穩定保守
    • 使用建議
      • 創意寫作/頭腦風暴:1.0-1.5
      • 常規對話/問答:0.7-0.9
      • 程式碼生成/精確任務:0.3-0.5
  2. 輸出最大 tokens(max_tokens):限制單次輸出長度

    • 範圍:256 - 64000(根據模型而定)
    • 推薦值:8192
    • 作用:控制模型單次響應的最大字數
    • 模型限制
      • deepseek-v3.1/v3.1-terminus:最大 32K tokens
      • deepseek-v3.2-exp:最大 64K tokens(推理模式)
      • deepseek-r1/r1-0528:最大 16K tokens
      • deepseek-v3/v3-0324:最大 16K tokens
    • 使用建議
      • 簡短問答:1024-2048
      • 常規對話:4096-8192
      • 長文生成:16384-32768
      • 超長推理:65536(僅 v3.2-exp)

高階配置

騰訊雲知識引擎 API 支援的其他高階引數:

雖然 CueMate 介面只提供 temperature 和 max_tokens 調整,但如果你透過 API 直接呼叫騰訊雲知識引擎,還可以使用以下高階引數(採用 OpenAI 相容的 API 格式):

  1. top_p(nucleus sampling)

    • 範圍:0-1
    • 預設值:1
    • 作用:從機率累積達到 p 的最小候選集中取樣
    • 與 temperature 的關係:通常只調整其中一個
    • 使用建議
      • 保持多樣性但避免離譜:0.9-0.95
      • 更保守的輸出:0.7-0.8
  2. frequency_penalty(頻率懲罰)

    • 範圍:-2.0 到 2.0
    • 預設值:0
    • 作用:降低重複相同詞彙的機率(基於詞頻)
    • 使用建議
      • 減少重複:0.3-0.8
      • 允許重複:0(預設)
  3. presence_penalty(存在懲罰)

    • 範圍:-2.0 到 2.0
    • 預設值:0
    • 作用:降低已出現過的詞彙再次出現的機率(基於是否出現)
    • 使用建議
      • 鼓勵新話題:0.3-0.8
      • 允許重複話題:0(預設)
  4. stop(停止序列)

    • 型別:字串或陣列
    • 預設值:null
    • 作用:當生成內容包含指定字串時停止
    • 示例["###", "使用者:", "\n\n"]
    • 使用場景
      • 結構化輸出:使用分隔符控制格式
      • 對話系統:防止模型代替使用者說話
  5. stream(流式輸出)

    • 型別:布林值
    • 預設值:false
    • 作用:啟用 SSE 流式返回,邊生成邊返回
    • CueMate 中:自動處理,無需手動設定
序號場景temperaturemax_tokenstop_pfrequency_penaltypresence_penalty
1創意寫作1.0-1.24096-81920.950.50.5
2程式碼生成0.2-0.52048-40960.90.00.0
3問答系統0.71024-20480.90.00.0
4摘要總結0.3-0.5512-10240.90.00.0
5複雜推理0.732768-655360.90.00.0

2.5 測試連線

填寫完配置後,點選 測試連線 按鈕,驗證配置是否正確。

測試連線

如果配置正確,會顯示測試成功的提示,並返回模型的響應示例。

測試成功

如果配置錯誤,會顯示測試錯誤的日誌,並且可以透過日誌管理,檢視具體報錯資訊。

2.6 儲存配置

測試成功後,點選 儲存 按鈕,完成模型配置。

儲存配置

3. 使用模型

透過右上角下拉選單,進入系統設定介面,在大模型服務商欄目選擇想要使用的模型配置。

配置完成後,可以在面試訓練、問題生成等功能中選擇使用此模型,當然也可以在面試的選項中單獨選擇此次面試的模型配置。

選擇模型

4. 支援的模型列表

4.1 685B引數模型(最新)

序號模型名稱模型 ID最大輸出適用場景
1DeepSeek-V3.1deepseek-v3.132K tokens混合推理、Agent能力、複雜任務
2DeepSeek-V3.1-Terminusdeepseek-v3.1-terminus32K tokens最佳化語言一致性、Agent穩定性
3DeepSeek-V3.2-Expdeepseek-v3.2-exp64K tokens(推理)稀疏注意力、長文字最佳化

4.2 671B引數模型

序號模型名稱模型 ID最大輸出適用場景
1DeepSeek-R1-0528deepseek-r1-052816K tokens增強程式碼生成、長文字處理、複雜推理
2DeepSeek-R1deepseek-r116K tokens數學、程式碼、複雜邏輯推理任務
3DeepSeek-V3-0324deepseek-v3-032416K tokens程式設計與技術能力、128K上下文
4DeepSeek-V3deepseek-v316K tokens通用知識、數學推理、64K上下文

5. 常見問題

5.1 API Key無效

現象:測試連線時提示 API Key 錯誤

解決方案

  1. 檢查 API Key 是否以 sk- 開頭
  2. 確認 API Key 完整複製
  3. 檢查賬戶是否有可用額度
  4. 驗證 API Key 未過期或被禁用

5.2 請求超時

現象:測試連線或使用時長時間無響應

解決方案

  1. 檢查網路連線是否正常
  2. 確認 API URL 地址正確:https://api.lkeap.cloud.tencent.com/v1
  3. 檢查防火牆設定

5.3 模型不可用

現象:提示模型服務不可用

解決方案

  1. 確認選擇的模型ID正確
  2. 檢查賬戶是否開通了知識引擎原子能力服務
  3. 聯絡騰訊雲客服確認服務狀態

5.4 配額限制

現象:提示超出請求配額

解決方案

  1. 登入騰訊雲控制檯檢視配額使用情況
  2. 申請提高配額限制(API頻率限制為20次/秒)
  3. 最佳化使用頻率

相關連結

Released under the GPL-3.0 License.