配置 SiliconFlow
SiliconFlow(矽基流動)是國內領先的 AI 推理加速平臺,提供高效能的大模型 API 服務。支援 Qwen、DeepSeek、Llama 等主流開源模型,以極致價效比和超低延遲著稱。
1. 獲取 SiliconFlow API Key
1.1 訪問 SiliconFlow 矽基流動平臺
訪問 SiliconFlow 並登入:https://cloud.siliconflow.cn/

1.2 進入 API 管理頁面
登入後,點選左側選單的 API 金鑰。

1.3 建立新的 API Key
點選 建立 API 金鑰 按鈕。

1.4 設定 API Key 資訊
在彈出的對話方塊中:
- 輸入 API Key 的名稱(例如:CueMate)
- 點選 確定 按鈕

1.5 複製 API Key
建立成功後,系統會顯示 API Key。
重要:請立即複製並妥善儲存,API Key 以 sk- 開頭。

點選複製按鈕,API Key 已複製到剪貼簿。
2. 在 CueMate 中配置 SiliconFlow 模型
2.1 進入模型設定頁面
登入 CueMate 系統後,點選右上角下拉選單的 模型設定。

2.2 新增新模型
點選右上角的 新增模型 按鈕。

2.3 選擇 SiliconFlow 服務商
在彈出的對話方塊中:
- 服務商型別:選擇 SILICONFLOW
- 點選後 自動進入下一步

2.4 填寫配置資訊
在配置頁面填寫以下資訊:
基礎配置
- 模型名稱:為這個模型配置起個名字(例如:SF DeepSeek R1)
- API URL:保持預設
https://api.siliconflow.cn/v1 - API Key:貼上 SiliconFlow 的 API Key
- 模型版本:選擇或輸入要使用的模型
2025 最新高效能模型(推薦):
deepseek-ai/DeepSeek-R1:DeepSeek R1 完整版(32K 輸出)deepseek-ai/DeepSeek-V3:DeepSeek V3(32K 輸出)deepseek-ai/DeepSeek-V3.2-Exp:DeepSeek V3.2 實驗版(64K 輸出)Qwen/Qwen2.5-72B-Instruct:Qwen 2.5 72B 旗艦版(128K 上下文)Qwen/Qwen2.5-32B-Instruct:Qwen 2.5 32B(32K 輸出)meta-llama/Llama-3.3-70B-Instruct:Llama 3.3 70B(32K 輸出)
其他可用模型:
deepseek-ai/DeepSeek-R1-Distill-Qwen-32B:DeepSeek R1 蒸餾版 32BQwen/QwQ-32B:Qwen QwQ 32B 推理模型Qwen/Qwen2.5-7B-Instruct:Qwen 2.5 7BQwen/Qwen2.5-Coder-7B-Instruct:Qwen 2.5 Coder 7B(程式碼最佳化)THUDM/glm-4-9b-chat:GLM-4 9B 對話版internlm/internlm2_5-7b-chat:InternLM 2.5 7B

高階配置(可選)
展開 高階配置 面板,可以調整以下引數:
CueMate 介面可調引數:
溫度(temperature):控制輸出隨機性
- 範圍:0-2
- 推薦值:0.7
- 作用:值越高輸出越隨機創新,值越低輸出越穩定保守
- 使用建議:
- 創意寫作/頭腦風暴:1.0-1.5
- 常規對話/問答:0.7-0.9
- 程式碼生成/精確任務:0.3-0.5
輸出最大 tokens(max_tokens):限制單次輸出長度
- 範圍:256 - 64000(根據模型而定)
- 推薦值:8192
- 作用:控制模型單次響應的最大字數
- 模型限制:
- DeepSeek-R1、V3、Qwen2.5、Llama-3.3:最大 32K tokens
- DeepSeek-V3.2-Exp:最大 64K tokens
- 使用建議:
- 簡短問答:1024-2048
- 常規對話:4096-8192
- 長文生成:16384-32768
- 超長輸出:65536(僅 V3.2-Exp)

SiliconFlow API 支援的其他高階引數:
雖然 CueMate 介面只提供 temperature 和 max_tokens 調整,但如果你透過 API 直接呼叫 SiliconFlow,還可以使用以下高階引數(SiliconFlow 採用 OpenAI 相容的 API 格式):
top_p(nucleus sampling)
- 範圍:0-1
- 預設值:1
- 作用:從機率累積達到 p 的最小候選集中取樣
- 與 temperature 的關係:通常只調整其中一個
- 使用建議:
- 保持多樣性但避免離譜:0.9-0.95
- 更保守的輸出:0.7-0.8
frequency_penalty(頻率懲罰)
- 範圍:-2.0 到 2.0
- 預設值:0
- 作用:降低重複相同詞彙的機率(基於詞頻)
- 使用建議:
- 減少重複:0.3-0.8
- 允許重複:0(預設)
- 強制多樣化:1.0-2.0
presence_penalty(存在懲罰)
- 範圍:-2.0 到 2.0
- 預設值:0
- 作用:降低已出現過的詞彙再次出現的機率(基於是否出現)
- 使用建議:
- 鼓勵新話題:0.3-0.8
- 允許重複話題:0(預設)
stop(停止序列)
- 型別:字串或陣列
- 預設值:null
- 作用:當生成內容包含指定字串時停止
- 示例:
["###", "使用者:", "\n\n"] - 使用場景:
- 結構化輸出:使用分隔符控制格式
- 對話系統:防止模型代替使用者說話
stream(流式輸出)
- 型別:布林值
- 預設值:false
- 作用:啟用 SSE 流式返回,邊生成邊返回
- CueMate 中:自動處理,無需手動設定
| 序號 | 場景 | temperature | max_tokens | top_p | frequency_penalty | presence_penalty |
|---|---|---|---|---|---|---|
| 1 | 創意寫作 | 1.0-1.2 | 4096-8192 | 0.95 | 0.5 | 0.5 |
| 2 | 程式碼生成 | 0.2-0.5 | 2048-4096 | 0.9 | 0.0 | 0.0 |
| 3 | 問答系統 | 0.7 | 1024-2048 | 0.9 | 0.0 | 0.0 |
| 4 | 摘要總結 | 0.3-0.5 | 512-1024 | 0.9 | 0.0 | 0.0 |
| 5 | 複雜推理 | 0.7 | 32768-65536 | 0.9 | 0.0 | 0.0 |
2.5 測試連線
填寫完配置後,點選 測試連線 按鈕,驗證配置是否正確。

如果配置正確,會顯示測試成功的提示,並返回模型的響應示例。

如果配置錯誤,會顯示測試錯誤的日誌,並且可以透過日誌管理,檢視具體報錯資訊。
2.6 儲存配置
測試成功後,點選 儲存 按鈕,完成模型配置。

3. 使用模型
透過右上角下拉選單,進入系統設定介面,在大模型服務商欄目選擇想要使用的模型配置。
配置完成後,可以在面試訓練、問題生成等功能中選擇使用此模型, 當然也可以在面試的選項中單此選擇此次面試的模型配置。

4. 支援的模型列表
4.1 DeepSeek 系列(2025 最新)
| 序號 | 模型名稱 | 模型 ID | 最大輸出 | 適用場景 |
|---|---|---|---|---|
| 1 | DeepSeek R1 完整版 | deepseek-ai/DeepSeek-R1 | 32K tokens | 頂級推理能力、複雜技術面試 |
| 2 | DeepSeek V3 | deepseek-ai/DeepSeek-V3 | 32K tokens | 程式碼生成、技術推理 |
| 3 | DeepSeek V3.2 實驗版 | deepseek-ai/DeepSeek-V3.2-Exp | 64K tokens | 最新實驗特性、超長輸出 |
| 4 | DeepSeek R1 蒸餾版 32B | deepseek-ai/DeepSeek-R1-Distill-Qwen-32B | 32K tokens | 推理增強、高價效比 |
4.2 Qwen 2.5 系列
| 序號 | 模型名稱 | 模型 ID | 最大輸出 | 適用場景 |
|---|---|---|---|---|
| 1 | Qwen 2.5 72B 旗艦版 | Qwen/Qwen2.5-72B-Instruct | 32K tokens | 最強效能、128K 上下文 |
| 2 | Qwen 2.5 32B | Qwen/Qwen2.5-32B-Instruct | 32K tokens | 均衡效能、長文件處理 |
| 3 | Qwen 2.5 7B | Qwen/Qwen2.5-7B-Instruct | 32K tokens | 通用對話、價效比高 |
| 4 | Qwen 2.5 Coder 7B | Qwen/Qwen2.5-Coder-7B-Instruct | 32K tokens | 程式碼生成、技術問答 |
| 5 | Qwen QwQ 32B | Qwen/QwQ-32B | 32K tokens | 推理最佳化、問答增強 |
4.3 其他高效能模型
| 序號 | 模型名稱 | 模型 ID | 最大輸出 | 適用場景 |
|---|---|---|---|---|
| 1 | Llama 3.3 70B | meta-llama/Llama-3.3-70B-Instruct | 32K tokens | 開源旗艦、多語言支援 |
| 2 | GLM-4 9B | THUDM/glm-4-9b-chat | 32K tokens | 中文理解、對話生成 |
| 3 | InternLM 2.5 7B | internlm/internlm2_5-7b-chat | 32K tokens | 中文對話最佳化 |
5. 常見問題
5.1 API Key 無效
現象:測試連線時提示 API Key 錯誤
解決方案:
- 檢查 API Key 是否以
sk-開頭 - 確認 API Key 完整複製
- 檢查賬戶是否有可用額度
5.2 模型不可用
現象:提示模型不存在或未授權
解決方案:
- 確認模型 ID 拼寫正確
- 檢查賬戶是否有該模型的訪問許可權
- 驗證模型是否在 SiliconFlow 平臺可用
5.3 請求超時
現象:測試連線或使用時長時間無響應
解決方案:
- 檢查網路連線是否正常
- 確認 API URL 配置正確
- 檢查防火牆設定
5.4 配額限制
現象:提示超出請求配額
解決方案:
- 登入 SiliconFlow 平臺檢視配額使用情況
- 充值或申請更多配額
- 最佳化使用頻率
