Skip to content
Amazon Bedrock

配置 Amazon Bedrock

Amazon Bedrock 是 AWS 提供的全託管基礎模型服務,整合了 Anthropic Claude、Meta Llama、Amazon Titan 等多家頂級模型。提供企業級安全、隱私保護和靈活的模型選擇,支援按需付費。

1. 獲取 AWS Bedrock 訪問許可權

1.1 訪問 AWS 控制檯

訪問 AWS Management Console 並登入:https://console.aws.amazon.com/

訪問 AWS 控制檯

1.2 進入 Bedrock 服務

  1. 在搜尋框中輸入 Bedrock
  2. 點選 Amazon Bedrock
  3. 選擇您的區域(建議 us-east-1)

進入 Bedrock 服務進入 Bedrock 服務

1.3 請求模型訪問許可權

  1. 點選左側選單的 Model access
  2. 點選 Manage model access
  3. 勾選需要使用的模型(如 Claude 3.5 Sonnet、Llama 3.1、Mistral Large)
  4. 點選 Request model access
  5. 等待稽覈透過(通常幾分鐘內)

請求模型訪問

1.4 建立 IAM 使用者和訪問金鑰

  1. 訪問 IAM 控制檯:https://console.aws.amazon.com/iam/
  2. 點選 使用者 > 新增使用者
  3. 輸入使用者名稱(例如:cuemate-bedrock)
  4. 選擇 訪問金鑰 - 程式化訪問
  5. 附加策略:AmazonBedrockFullAccess
  6. 完成建立,記錄 Access Key IDSecret Access Key

建立 API 金鑰建立短期 API 金鑰建立長期 API 金鑰建立長期 API 金鑰

2. 在 CueMate 中配置 Bedrock 模型

2.1 進入模型設定頁面

登入 CueMate 系統後,點選右上角下拉選單的 模型設定

進入模型設定

2.2 新增新模型

點選右上角的 新增模型 按鈕。

點選新增模型

2.3 選擇 Amazon Bedrock 服務商

在彈出的對話方塊中:

  1. 服務商型別:選擇 Amazon Bedrock
  2. 點選後 自動進入下一步

選擇 Amazon Bedrock

2.4 填寫配置資訊

在配置頁面填寫以下資訊:

基礎配置

  1. 模型名稱:為這個模型配置起個名字(例如:Bedrock Claude 4.5 Sonnet)
  2. API Key:貼上從 AWS Bedrock 獲取的長期 API 金鑰
  3. AWS Region:選擇區域(如 us-east-1,預設值)
  4. 模型版本:選擇或輸入要使用的模型ID,常用模型包括:
    • anthropic.claude-sonnet-4-5-20250929-v1:0:Claude 4.5 Sonnet(最新,最大輸出64K)
    • anthropic.claude-haiku-4-5-20251001-v1:0:Claude 4.5 Haiku(快速,最大輸出64K)
    • anthropic.claude-opus-4-1-20250805-v1:0:Claude 4.1 Opus(高效能,最大輸出32K)
    • anthropic.claude-3-5-sonnet-20241022-v2:0:Claude 3.5 Sonnet(最大輸出64K)
    • amazon.nova-pro-v1:0:Amazon Nova Pro(多模態,最大輸出8K)
    • meta.llama3-1-405b-instruct-v1:0:Llama 3.1 405B(超大規模,最大輸出8K)
    • mistral.mistral-large-2407-v1:0:Mistral Large(高效能,最大輸出8K)

填寫基礎配置

高階配置(可選)

展開 高階配置 面板,可以調整以下引數:

CueMate 介面可調引數:

  1. 溫度(temperature):控制輸出隨機性

    • 範圍:0-2(根據模型系列而定)
    • 推薦值:0.7
    • 作用:值越高輸出越隨機創新,值越低輸出越穩定保守
    • 模型範圍
      • Claude 系列:0-1
      • Llama 系列:0-2
      • Mistral 系列:0-1
      • DeepSeek 系列:0-2
      • Amazon Titan 系列:0-1
    • 使用建議
      • 創意寫作/頭腦風暴:0.8-1.2(根據模型上限)
      • 常規對話/問答:0.6-0.8
      • 程式碼生成/精確任務:0.3-0.5
  2. 輸出最大 tokens(max_tokens):限制單次輸出長度

    • 範圍:256 - 65536(根據模型而定)
    • 推薦值:8192
    • 作用:控制模型單次響應的最大字數
    • 模型限制
      • Claude 4.5 Sonnet/Haiku: 最大 65536 (64K tokens)
      • Claude 4 Opus: 最大 32768 (32K tokens)
      • Claude 4 Sonnet: 最大 65536 (64K tokens)
      • Claude 3.7 Sonnet: 最大 65536 (64K tokens)
      • Claude 3.5 Sonnet: 最大 65536 (64K tokens)
      • Claude 3.5 Haiku: 最大 8192 (8K tokens)
      • Claude 3 Opus/Sonnet/Haiku: 最大 4096 (4K tokens)
      • Amazon Nova 全系列: 最大 8192 (8K tokens)
      • Amazon Titan 全系列: 最大 8192 (8K tokens)
      • Meta Llama 全系列: 最大 8192 (8K tokens)
      • Mistral 全系列: 最大 8192 (8K tokens)
      • DeepSeek 全系列: 最大 8192 (8K tokens)
      • AI21 Jamba 系列: 最大 4096 (4K tokens)
      • Cohere Command 系列: 最大 4096 (4K tokens)
      • Qwen 全系列: 最大 8192 (8K tokens)
    • 使用建議
      • 簡短問答:1024-2048
      • 常規對話:4096-8192
      • 長文生成:16384-32768
      • 超長文件:65536(僅 Claude 4.5/4/3.7/3.5 Sonnet)

高階配置

AWS Bedrock API 支援的其他高階引數:

雖然 CueMate 介面只提供 temperature 和 max_tokens 調整,但如果你透過 API 直接呼叫 AWS Bedrock,不同模型系列還支援以下高階引數:

Anthropic Claude 系列引數

  1. top_p(nucleus sampling)

    • 範圍:0-1
    • 預設值:1
    • 作用:從機率累積達到 p 的最小候選集中取樣
    • 與 temperature 的關係:通常只調整其中一個
    • 使用建議
      • 保持多樣性:0.9-0.95
      • 更保守的輸出:0.7-0.8
  2. top_k

    • 範圍:0-500
    • 預設值:250
    • 作用:從機率最高的 k 個候選詞中取樣
    • 使用建議
      • 更多樣化:300-500
      • 更保守:50-150
  3. stop_sequences(停止序列)

    • 型別:字串陣列
    • 預設值["\n\nHuman:"]
    • 作用:當生成內容包含指定字串時停止
    • 最大數量:4 個
    • 示例["###", "使用者:", "\n\n"]

Meta Llama 系列引數

  1. top_p(nucleus sampling)

    • 範圍:0-1
    • 預設值:0.9
    • 作用:從機率累積達到 p 的最小候選集中取樣
  2. top_k

    • 範圍:1-500
    • 預設值:50
    • 作用:從機率最高的 k 個候選詞中取樣

Amazon Titan 系列引數

  1. topP(nucleus sampling)

    • 範圍:0-1
    • 預設值:1
    • 作用:從機率累積達到 p 的最小候選集中取樣
  2. stopSequences(停止序列)

    • 型別:字串陣列
    • 作用:當生成內容包含指定字串時停止
    • 示例["User:", "###"]

Mistral 系列引數

  1. top_p(nucleus sampling)

    • 範圍:0-1
    • 預設值:1
    • 作用:從機率累積達到 p 的最小候選集中取樣
  2. top_k

    • 範圍:0-200
    • 預設值:50
    • 作用:從機率最高的 k 個候選詞中取樣

AWS Bedrock 通用特性:

  1. stream(流式輸出)

    • 型別:布林值
    • 預設值:false
    • 作用:啟用流式返回,邊生成邊返回
    • CueMate 中:自動處理,無需手動設定
  2. guardrails(安全防護)

    • 型別:物件
    • 作用:配置 AWS Bedrock Guardrails 進行內容過濾
    • 使用場景:企業級安全合規要求
    • 示例
      json
      {
        "guardrailIdentifier": "your-guardrail-id",
        "guardrailVersion": "1"
      }
場景模型系列temperaturemax_tokenstop_ptop_k
創意寫作Claude0.8-0.94096-81920.95300
程式碼生成Claude0.3-0.52048-40960.9100
問答系統Claude0.71024-20480.9250
複雜推理Claude Opus0.7327680.9250
長文生成Claude Sonnet0.7655360.9250
快速響應Claude Haiku0.640960.9200
大規模推理Llama 3.1 405B0.781920.950
多模態任務Nova Pro0.781921.0-

2.5 測試連線

填寫完配置後,點選 測試連線 按鈕,驗證配置是否正確。

測試連線

如果配置正確,會顯示測試成功的提示,並返回模型的響應示例。

測試成功

如果配置錯誤,會顯示測試錯誤的日誌,並且可以透過日誌管理,檢視具體報錯資訊。

2.6 儲存配置

測試成功後,點選 儲存 按鈕,完成模型配置。

儲存配置

3. 使用模型

透過右上角下拉選單,進入系統設定介面,在大模型服務商欄目選擇想要使用的模型配置。

配置完成後,可以在面試訓練、問題生成等功能中選擇使用此模型, 當然也可以在面試的選項中單此選擇此次面試的模型配置。

選擇模型

4. 支援的模型列表

CueMate 支援 AWS Bedrock 平臺上的所有主流大模型,涵蓋 10+ 個服務商的 70+ 個模型。以下是各系列的代表性模型:

4.1 Anthropic Claude系列

序號模型名稱模型 ID最大輸出適用場景
1Claude 4.5 Sonnetanthropic.claude-sonnet-4-5-20250929-v1:064K tokens最新一代,通用場景、高效能推理
2Claude 4.5 Haikuanthropic.claude-haiku-4-5-20251001-v1:064K tokens快速響應、高吞吐量
3Claude 4.1 Opusanthropic.claude-opus-4-1-20250805-v1:032K tokens複雜推理、深度分析
4Claude 4 Opusanthropic.claude-opus-4-20250514-v1:032K tokens高質量輸出
5Claude 4 Sonnetanthropic.claude-sonnet-4-20250514-v1:064K tokens平衡效能與成本
6Claude 3.7 Sonnetanthropic.claude-3-7-sonnet-20250219-v1:064K tokens增強版通用模型
7Claude 3.5 Sonnet v2anthropic.claude-3-5-sonnet-20241022-v2:064K tokens通用場景、高效能
8Claude 3.5 Sonnet v1anthropic.claude-3-5-sonnet-20240620-v1:064K tokens通用場景
9Claude 3.5 Haikuanthropic.claude-3-5-haiku-20241022-v1:08K tokens快速響應
10Claude 3 Opusanthropic.claude-3-opus-20240229-v1:04K tokens複雜推理
11Claude 3 Sonnetanthropic.claude-3-sonnet-20240229-v1:04K tokens平衡效能
12Claude 3 Haikuanthropic.claude-3-haiku-20240307-v1:04K tokens輕量級任務

4.2 Amazon Nova系列

序號模型名稱模型 ID最大輸出適用場景
1Nova Premieramazon.nova-premier-v1:08K tokens旗艦級多模態模型
2Nova Proamazon.nova-pro-v1:08K tokens高效能多模態處理
3Nova Liteamazon.nova-lite-v1:08K tokens輕量級多模態任務
4Nova Microamazon.nova-micro-v1:08K tokens超輕量級場景
5Nova Sonicamazon.nova-sonic-v1:08K tokens快速響應

4.3 Amazon Titan系列

序號模型名稱模型 ID最大輸出適用場景
1Titan Premieramazon.titan-text-premier-v1:08K tokens企業級應用
2Titan Expressamazon.titan-text-express-v18K tokens快速響應
3Titan Liteamazon.titan-text-lite-v18K tokens輕量級任務

4.4 Meta Llama系列

序號模型名稱模型 ID最大輸出適用場景
1Llama 4 Scout 17Bmeta.llama4-scout-17b-instruct-v1:08K tokens新一代中等規模模型
2Llama 4 Maverick 17Bmeta.llama4-maverick-17b-instruct-v1:08K tokens新一代高效能模型
3Llama 3.3 70Bmeta.llama3-3-70b-instruct-v1:08K tokens增強版大規模推理
4Llama 3.2 90Bmeta.llama3-2-90b-instruct-v1:08K tokens大規模推理
5Llama 3.2 11Bmeta.llama3-2-11b-instruct-v1:08K tokens中等規模任務
6Llama 3.2 3Bmeta.llama3-2-3b-instruct-v1:08K tokens輕量級任務
7Llama 3.2 1Bmeta.llama3-2-1b-instruct-v1:08K tokens超輕量級
8Llama 3.1 405Bmeta.llama3-1-405b-instruct-v1:08K tokens超大規模推理
9Llama 3.1 70Bmeta.llama3-1-70b-instruct-v1:08K tokens大規模任務
10Llama 3.1 8Bmeta.llama3-1-8b-instruct-v1:08K tokens標準任務
11Llama 3 70Bmeta.llama3-70b-instruct-v1:08K tokens經典大規模模型
12Llama 3 8Bmeta.llama3-8b-instruct-v1:08K tokens經典標準模型

4.5 Mistral AI系列

序號模型名稱模型 ID最大輸出適用場景
1Pixtral Large 2502mistral.pixtral-large-2502-v1:08K tokens多模態大模型
2Mistral Large 2407mistral.mistral-large-2407-v1:08K tokens高效能場景
3Mistral Large 2402mistral.mistral-large-2402-v1:08K tokens通用場景
4Mistral Small 2402mistral.mistral-small-2402-v1:08K tokens輕量高效
5Mixtral 8x7Bmistral.mixtral-8x7b-instruct-v0:14K tokens混合專家模型
6Mistral 7Bmistral.mistral-7b-instruct-v0:28K tokens輕量級任務

4.6 AI21 Labs系列

序號模型名稱模型 ID最大輸出適用場景
1Jamba 1.5 Largeai21.jamba-1-5-large-v1:04K tokens大規模混合架構
2Jamba 1.5 Miniai21.jamba-1-5-mini-v1:04K tokens輕量級混合架構

4.7 Cohere系列

序號模型名稱模型 ID最大輸出適用場景
1Command R+cohere.command-r-plus-v1:04K tokens增強版命令模型
2Command Rcohere.command-r-v1:04K tokens標準命令模型

4.8 DeepSeek系列

序號模型名稱模型 ID最大輸出適用場景
1DeepSeek R1deepseek.r1-v1:08K tokens推理最佳化版本
2DeepSeek V3deepseek.v3-v1:08K tokens最新一代模型

4.9 Qwen系列

序號模型名稱模型 ID最大輸出適用場景
1Qwen 3 Coder 480Bqwen.qwen3-coder-480b-a35b-v1:08K tokens超大規模程式碼生成
2Qwen 3 235Bqwen.qwen3-235b-a22b-2507-v1:08K tokens超大規模通用推理
3Qwen 3 Coder 30Bqwen.qwen3-coder-30b-a3b-v1:08K tokens程式碼生成專用
4Qwen 3 32Bqwen.qwen3-32b-v1:08K tokens標準通用模型

4.10 OpenAI系列

序號模型名稱模型 ID最大輸出適用場景
1GPT-OSS 120Bopenai.gpt-oss-120b-1:04K tokens開源版GPT大模型
2GPT-OSS 20Bopenai.gpt-oss-20b-1:04K tokens開源版GPT中等模型

注意事項:

  • 以上模型均需要在 AWS Bedrock 控制檯申請訪問許可權後才能使用
  • 不同模型的定價不同,請參考 AWS Bedrock 定價說明
  • 實際最大輸出取決於您在 CueMate 配置中設定的 Max Tokens 引數
  • 部分模型可能僅在特定 AWS 區域可用,建議使用 us-east-1 獲得最佳模型覆蓋

5. 常見問題

5.1 模型訪問未授權

現象:提示模型訪問被拒絕

解決方案

  1. 在Bedrock控制檯檢查模型訪問狀態
  2. 確認已請求並獲得模型訪問許可權
  3. 等待稽覈透過(部分模型可能需要1-2個工作日)

5.2 IAM許可權不足

現象:提示許可權錯誤

解決方案

  1. 確認IAM使用者已附加 AmazonBedrockFullAccess 策略
  2. 檢查訪問金鑰是否正確
  3. 驗證區域設定是否與模型可用區域匹配

5.3 區域不支援

現象:提示服務在當前區域不可用

解決方案

  1. 使用支援Bedrock的區域(推薦 us-east-1 或 us-west-2)
  2. 修改API URL中的區域程式碼
  3. 確認選擇的模型在該區域可用

5.4 配額限制

現象:提示超出請求配額

解決方案

  1. 在Bedrock控制檯檢視配額使用情況
  2. 申請提高TPM(每分鐘Token數)或RPM(每分鐘請求數)限制
  3. 最佳化請求頻率

相關連結

Released under the GPL-3.0 License.