Skip to content
Amazon Bedrock

配置 Amazon Bedrock

Amazon Bedrock 是 AWS 提供的全托管基础模型服务,集成了 Anthropic Claude、Meta Llama、Amazon Titan 等多家顶级模型。提供企业级安全、隐私保护和灵活的模型选择,支持按需付费。

1. 获取 AWS Bedrock 访问权限

1.1 访问 AWS 控制台

访问 AWS Management Console 并登录:https://console.aws.amazon.com/

访问 AWS 控制台

1.2 进入 Bedrock 服务

  1. 在搜索框中输入 Bedrock
  2. 点击 Amazon Bedrock
  3. 选择您的区域(建议 us-east-1)

进入 Bedrock 服务进入 Bedrock 服务

1.3 请求模型访问权限

  1. 点击左侧菜单的 Model access
  2. 点击 Manage model access
  3. 勾选需要使用的模型(如 Claude 3.5 Sonnet、Llama 3.1、Mistral Large)
  4. 点击 Request model access
  5. 等待审核通过(通常几分钟内)

请求模型访问

1.4 创建 IAM 用户和访问密钥

  1. 访问 IAM 控制台:https://console.aws.amazon.com/iam/
  2. 点击 用户 > 添加用户
  3. 输入用户名(例如:cuemate-bedrock)
  4. 选择 访问密钥 - 程序化访问
  5. 附加策略:AmazonBedrockFullAccess
  6. 完成创建,记录 Access Key IDSecret Access Key

创建 API 密钥创建短期 API 密钥创建长期 API 密钥创建长期 API 密钥

2. 在 CueMate 中配置 Bedrock 模型

2.1 进入模型设置页面

登录 CueMate 系统后,点击右上角下拉菜单的 模型设置

进入模型设置

2.2 添加新模型

点击右上角的 添加模型 按钮。

点击添加模型

2.3 选择 Amazon Bedrock 服务商

在弹出的对话框中:

  1. 服务商类型:选择 Amazon Bedrock
  2. 点击后 自动进入下一步

选择 Amazon Bedrock

2.4 填写配置信息

在配置页面填写以下信息:

基础配置

  1. 模型名称:为这个模型配置起个名字(例如:Bedrock Claude 4.5 Sonnet)
  2. API Key:粘贴从 AWS Bedrock 获取的长期 API 密钥
  3. AWS Region:选择区域(如 us-east-1,默认值)
  4. 模型版本:选择或输入要使用的模型ID,常用模型包括:
    • anthropic.claude-sonnet-4-5-20250929-v1:0:Claude 4.5 Sonnet(最新,最大输出64K)
    • anthropic.claude-haiku-4-5-20251001-v1:0:Claude 4.5 Haiku(快速,最大输出64K)
    • anthropic.claude-opus-4-1-20250805-v1:0:Claude 4.1 Opus(高性能,最大输出32K)
    • anthropic.claude-3-5-sonnet-20241022-v2:0:Claude 3.5 Sonnet(最大输出64K)
    • amazon.nova-pro-v1:0:Amazon Nova Pro(多模态,最大输出8K)
    • meta.llama3-1-405b-instruct-v1:0:Llama 3.1 405B(超大规模,最大输出8K)
    • mistral.mistral-large-2407-v1:0:Mistral Large(高性能,最大输出8K)

填写基础配置

高级配置(可选)

展开 高级配置 面板,可以调整以下参数:

CueMate 界面可调参数:

  1. 温度(temperature):控制输出随机性

    • 范围:0-2(根据模型系列而定)
    • 推荐值:0.7
    • 作用:值越高输出越随机创新,值越低输出越稳定保守
    • 模型范围
      • Claude 系列:0-1
      • Llama 系列:0-2
      • Mistral 系列:0-1
      • DeepSeek 系列:0-2
      • Amazon Titan 系列:0-1
    • 使用建议
      • 创意写作/头脑风暴:0.8-1.2(根据模型上限)
      • 常规对话/问答:0.6-0.8
      • 代码生成/精确任务:0.3-0.5
  2. 输出最大 tokens(max_tokens):限制单次输出长度

    • 范围:256 - 65536(根据模型而定)
    • 推荐值:8192
    • 作用:控制模型单次响应的最大字数
    • 模型限制
      • Claude 4.5 Sonnet/Haiku: 最大 65536 (64K tokens)
      • Claude 4 Opus: 最大 32768 (32K tokens)
      • Claude 4 Sonnet: 最大 65536 (64K tokens)
      • Claude 3.7 Sonnet: 最大 65536 (64K tokens)
      • Claude 3.5 Sonnet: 最大 65536 (64K tokens)
      • Claude 3.5 Haiku: 最大 8192 (8K tokens)
      • Claude 3 Opus/Sonnet/Haiku: 最大 4096 (4K tokens)
      • Amazon Nova 全系列: 最大 8192 (8K tokens)
      • Amazon Titan 全系列: 最大 8192 (8K tokens)
      • Meta Llama 全系列: 最大 8192 (8K tokens)
      • Mistral 全系列: 最大 8192 (8K tokens)
      • DeepSeek 全系列: 最大 8192 (8K tokens)
      • AI21 Jamba 系列: 最大 4096 (4K tokens)
      • Cohere Command 系列: 最大 4096 (4K tokens)
      • Qwen 全系列: 最大 8192 (8K tokens)
    • 使用建议
      • 简短问答:1024-2048
      • 常规对话:4096-8192
      • 长文生成:16384-32768
      • 超长文档:65536(仅 Claude 4.5/4/3.7/3.5 Sonnet)

高级配置

AWS Bedrock API 支持的其他高级参数:

虽然 CueMate 界面只提供 temperature 和 max_tokens 调整,但如果你通过 API 直接调用 AWS Bedrock,不同模型系列还支持以下高级参数:

Anthropic Claude 系列参数

  1. top_p(nucleus sampling)

    • 范围:0-1
    • 默认值:1
    • 作用:从概率累积达到 p 的最小候选集中采样
    • 与 temperature 的关系:通常只调整其中一个
    • 使用建议
      • 保持多样性:0.9-0.95
      • 更保守的输出:0.7-0.8
  2. top_k

    • 范围:0-500
    • 默认值:250
    • 作用:从概率最高的 k 个候选词中采样
    • 使用建议
      • 更多样化:300-500
      • 更保守:50-150
  3. stop_sequences(停止序列)

    • 类型:字符串数组
    • 默认值["\n\nHuman:"]
    • 作用:当生成内容包含指定字符串时停止
    • 最大数量:4 个
    • 示例["###", "用户:", "\n\n"]

Meta Llama 系列参数

  1. top_p(nucleus sampling)

    • 范围:0-1
    • 默认值:0.9
    • 作用:从概率累积达到 p 的最小候选集中采样
  2. top_k

    • 范围:1-500
    • 默认值:50
    • 作用:从概率最高的 k 个候选词中采样

Amazon Titan 系列参数

  1. topP(nucleus sampling)

    • 范围:0-1
    • 默认值:1
    • 作用:从概率累积达到 p 的最小候选集中采样
  2. stopSequences(停止序列)

    • 类型:字符串数组
    • 作用:当生成内容包含指定字符串时停止
    • 示例["User:", "###"]

Mistral 系列参数

  1. top_p(nucleus sampling)

    • 范围:0-1
    • 默认值:1
    • 作用:从概率累积达到 p 的最小候选集中采样
  2. top_k

    • 范围:0-200
    • 默认值:50
    • 作用:从概率最高的 k 个候选词中采样

AWS Bedrock 通用特性:

  1. stream(流式输出)

    • 类型:布尔值
    • 默认值:false
    • 作用:启用流式返回,边生成边返回
    • CueMate 中:自动处理,无需手动设置
  2. guardrails(安全防护)

    • 类型:对象
    • 作用:配置 AWS Bedrock Guardrails 进行内容过滤
    • 使用场景:企业级安全合规要求
    • 示例
      json
      {
        "guardrailIdentifier": "your-guardrail-id",
        "guardrailVersion": "1"
      }

参数组合建议:

场景模型系列temperaturemax_tokenstop_ptop_k
创意写作Claude0.8-0.94096-81920.95300
代码生成Claude0.3-0.52048-40960.9100
问答系统Claude0.71024-20480.9250
复杂推理Claude Opus0.7327680.9250
长文生成Claude Sonnet0.7655360.9250
快速响应Claude Haiku0.640960.9200
大规模推理Llama 3.1 405B0.781920.950
多模态任务Nova Pro0.781921.0-

2.5 测试连接

填写完配置后,点击 测试连接 按钮,验证配置是否正确。

测试连接

如果配置正确,会显示测试成功的提示,并返回模型的响应示例。

测试成功

如果配置错误,会显示测试错误的日志,并且可以通过日志管理,查看具体报错信息。

2.6 保存配置

测试成功后,点击 保存 按钮,完成模型配置。

保存配置

3. 使用模型

通过右上角下拉菜单,进入系统设置界面,在大模型供应商栏目选择想要使用的模型配置。

配置完成后,可以在面试训练、问题生成等功能中选择使用此模型, 当然也可以在面试的选项中单此选择此次面试的模型配置。

选择模型

4. 支持的模型列表

CueMate 支持 AWS Bedrock 平台上的所有主流大模型,涵盖 10+ 个提供商的 70+ 个模型。以下是各系列的代表性模型:

4.1 Anthropic Claude系列

序号模型名称模型 ID最大输出适用场景
1Claude 4.5 Sonnetanthropic.claude-sonnet-4-5-20250929-v1:064K tokens最新一代,通用场景、高性能推理
2Claude 4.5 Haikuanthropic.claude-haiku-4-5-20251001-v1:064K tokens快速响应、高吞吐量
3Claude 4.1 Opusanthropic.claude-opus-4-1-20250805-v1:032K tokens复杂推理、深度分析
4Claude 4 Opusanthropic.claude-opus-4-20250514-v1:032K tokens高质量输出
5Claude 4 Sonnetanthropic.claude-sonnet-4-20250514-v1:064K tokens平衡性能与成本
6Claude 3.7 Sonnetanthropic.claude-3-7-sonnet-20250219-v1:064K tokens增强版通用模型
7Claude 3.5 Sonnet v2anthropic.claude-3-5-sonnet-20241022-v2:064K tokens通用场景、高性能
8Claude 3.5 Sonnet v1anthropic.claude-3-5-sonnet-20240620-v1:064K tokens通用场景
9Claude 3.5 Haikuanthropic.claude-3-5-haiku-20241022-v1:08K tokens快速响应
10Claude 3 Opusanthropic.claude-3-opus-20240229-v1:04K tokens复杂推理
11Claude 3 Sonnetanthropic.claude-3-sonnet-20240229-v1:04K tokens平衡性能
12Claude 3 Haikuanthropic.claude-3-haiku-20240307-v1:04K tokens轻量级任务

4.2 Amazon Nova系列

序号模型名称模型 ID最大输出适用场景
1Nova Premieramazon.nova-premier-v1:08K tokens旗舰级多模态模型
2Nova Proamazon.nova-pro-v1:08K tokens高性能多模态处理
3Nova Liteamazon.nova-lite-v1:08K tokens轻量级多模态任务
4Nova Microamazon.nova-micro-v1:08K tokens超轻量级场景
5Nova Sonicamazon.nova-sonic-v1:08K tokens快速响应

4.3 Amazon Titan系列

序号模型名称模型 ID最大输出适用场景
1Titan Premieramazon.titan-text-premier-v1:08K tokens企业级应用
2Titan Expressamazon.titan-text-express-v18K tokens快速响应
3Titan Liteamazon.titan-text-lite-v18K tokens轻量级任务

4.4 Meta Llama系列

序号模型名称模型 ID最大输出适用场景
1Llama 4 Scout 17Bmeta.llama4-scout-17b-instruct-v1:08K tokens新一代中等规模模型
2Llama 4 Maverick 17Bmeta.llama4-maverick-17b-instruct-v1:08K tokens新一代高性能模型
3Llama 3.3 70Bmeta.llama3-3-70b-instruct-v1:08K tokens增强版大规模推理
4Llama 3.2 90Bmeta.llama3-2-90b-instruct-v1:08K tokens大规模推理
5Llama 3.2 11Bmeta.llama3-2-11b-instruct-v1:08K tokens中等规模任务
6Llama 3.2 3Bmeta.llama3-2-3b-instruct-v1:08K tokens轻量级任务
7Llama 3.2 1Bmeta.llama3-2-1b-instruct-v1:08K tokens超轻量级
8Llama 3.1 405Bmeta.llama3-1-405b-instruct-v1:08K tokens超大规模推理
9Llama 3.1 70Bmeta.llama3-1-70b-instruct-v1:08K tokens大规模任务
10Llama 3.1 8Bmeta.llama3-1-8b-instruct-v1:08K tokens标准任务
11Llama 3 70Bmeta.llama3-70b-instruct-v1:08K tokens经典大规模模型
12Llama 3 8Bmeta.llama3-8b-instruct-v1:08K tokens经典标准模型

4.5 Mistral AI系列

序号模型名称模型 ID最大输出适用场景
1Pixtral Large 2502mistral.pixtral-large-2502-v1:08K tokens多模态大模型
2Mistral Large 2407mistral.mistral-large-2407-v1:08K tokens高性能场景
3Mistral Large 2402mistral.mistral-large-2402-v1:08K tokens通用场景
4Mistral Small 2402mistral.mistral-small-2402-v1:08K tokens轻量高效
5Mixtral 8x7Bmistral.mixtral-8x7b-instruct-v0:14K tokens混合专家模型
6Mistral 7Bmistral.mistral-7b-instruct-v0:28K tokens轻量级任务

4.6 AI21 Labs系列

序号模型名称模型 ID最大输出适用场景
1Jamba 1.5 Largeai21.jamba-1-5-large-v1:04K tokens大规模混合架构
2Jamba 1.5 Miniai21.jamba-1-5-mini-v1:04K tokens轻量级混合架构

4.7 Cohere系列

序号模型名称模型 ID最大输出适用场景
1Command R+cohere.command-r-plus-v1:04K tokens增强版命令模型
2Command Rcohere.command-r-v1:04K tokens标准命令模型

4.8 DeepSeek系列

序号模型名称模型 ID最大输出适用场景
1DeepSeek R1deepseek.r1-v1:08K tokens推理优化版本
2DeepSeek V3deepseek.v3-v1:08K tokens最新一代模型

4.9 Qwen系列

序号模型名称模型 ID最大输出适用场景
1Qwen 3 Coder 480Bqwen.qwen3-coder-480b-a35b-v1:08K tokens超大规模代码生成
2Qwen 3 235Bqwen.qwen3-235b-a22b-2507-v1:08K tokens超大规模通用推理
3Qwen 3 Coder 30Bqwen.qwen3-coder-30b-a3b-v1:08K tokens代码生成专用
4Qwen 3 32Bqwen.qwen3-32b-v1:08K tokens标准通用模型

4.10 OpenAI系列

序号模型名称模型 ID最大输出适用场景
1GPT-OSS 120Bopenai.gpt-oss-120b-1:04K tokens开源版GPT大模型
2GPT-OSS 20Bopenai.gpt-oss-20b-1:04K tokens开源版GPT中等模型

注意事项:

  • 以上模型均需要在 AWS Bedrock 控制台申请访问权限后才能使用
  • 不同模型的定价不同,请参考 AWS Bedrock 定价说明
  • 实际最大输出取决于您在 CueMate 配置中设置的 Max Tokens 参数
  • 部分模型可能仅在特定 AWS 区域可用,建议使用 us-east-1 获得最佳模型覆盖

5. 常见问题

5.1 模型访问未授权

现象:提示模型访问被拒绝

解决方案

  1. 在Bedrock控制台检查模型访问状态
  2. 确认已请求并获得模型访问权限
  3. 等待审核通过(部分模型可能需要1-2个工作日)

5.2 IAM权限不足

现象:提示权限错误

解决方案

  1. 确认IAM用户已附加 AmazonBedrockFullAccess 策略
  2. 检查访问密钥是否正确
  3. 验证区域设置是否与模型可用区域匹配

5.3 区域不支持

现象:提示服务在当前区域不可用

解决方案

  1. 使用支持Bedrock的区域(推荐 us-east-1 或 us-west-2)
  2. 修改API URL中的区域代码
  3. 确认选择的模型在该区域可用

5.4 配额限制

现象:提示超出请求配额

解决方案

  1. 在Bedrock控制台查看配额使用情况
  2. 申请提高TPM(每分钟Token数)或RPM(每分钟请求数)限制
  3. 优化请求频率

相关链接

Released under the GPL-3.0 License.