Bedrock Converse API

Amazon Bedrock Converse API 为对话式 AI 模型提供了一个统一的接口,增强了功能,包括函数/工具调用、多模态输入和流式响应。 Bedrock Converse API 具有以下高级功能:

  • 工具/函数调用:支持对话期间的函数定义和工具使用

  • 多模态输入:能够在对话中处理文本和图像输入

  • 流式支持:模型响应的实时流式传输

  • 系统消息:支持系统级指令和上下文设置

Bedrock Converse API 提供了跨多个模型提供商的统一接口,同时处理 AWS 特定的身份验证和基础设施问题。 目前,Converse API 支持的模型 包括: Amazon TitanAmazon NovaAI21 LabsAnthropic ClaudeCohere CommandMeta LlamaMistral AI

根据 Bedrock 的建议,Spring AI 正在过渡到使用 Amazon Bedrock 的 Converse API 来实现 Spring AI 中的所有聊天对话。 虽然现有的 InvokeModel API 支持对话应用程序,但我们强烈建议所有聊天对话模型都采用 Converse API。 Converse API 不支持嵌入操作,因此这些操作将保留在当前 API 中,并且现有 InvokeModel API 中的嵌入模型功能将得到维护。

先决条件

请参阅 Amazon Bedrock 入门 以设置 API 访问。

  • 获取 AWS 凭证:如果您还没有 AWS 账户和 AWS CLI 配置,此视频指南可以帮助您配置它:AWS CLI 和 SDK 设置在 4 分钟内完成!。您应该能够获取您的访问密钥和安全密钥。

  • 启用要使用的模型:前往 Amazon Bedrock,然后从左侧的 模型访问 菜单中,配置对您将要使用的模型的访问。

自动配置

Spring AI 自动配置、启动器模块的工件名称发生了重大变化。 请参阅 升级说明 了解更多信息。

spring-ai-starter-model-bedrock-converse 依赖项添加到您项目的 Maven pom.xml 或 Gradle build.gradle 构建文件中:

  • Maven

  • Gradle

<dependency>
    <groupId>org.springframework.ai</groupId>
    <artifactId>spring-ai-starter-model-bedrock-converse</artifactId>
</dependency>
dependencies {
    implementation 'org.springframework.ai:spring-ai-starter-model-bedrock-converse'
}

请参阅 依赖管理 部分,将 Spring AI BOM 添加到您的构建文件中。

聊天属性

前缀 spring.ai.bedrock.aws 是配置与 AWS Bedrock 连接的属性前缀。

属性 描述 默认值

spring.ai.bedrock.aws.region

要使用的 AWS 区域。

us-east-1

spring.ai.bedrock.aws.timeout

要使用的 AWS 超时。

5m

spring.ai.bedrock.aws.access-key

AWS 访问密钥。

-

spring.ai.bedrock.aws.secret-key

AWS 秘密密钥。

-

spring.ai.bedrock.aws.session-token

用于临时凭证的 AWS 会话令牌。

-

聊天自动配置的启用和禁用现在通过前缀为 spring.ai.model.chat 的顶级属性进行配置。 要启用,spring.ai.model.chat=bedrock-converse(默认已启用) 要禁用,spring.ai.model.chat=none(或任何不匹配 bedrock-converse 的值) 此更改是为了允许多个模型的配置。

前缀 spring.ai.bedrock.converse.chat 是配置 Converse API 聊天模型实现的属性前缀。

属性 描述 默认值

spring.ai.bedrock.converse.chat.enabled (已移除,不再有效)

启用 Bedrock Converse 聊天模型。

true

spring.ai.model.chat

启用 Bedrock Converse 聊天模型。

bedrock-converse

spring.ai.bedrock.converse.chat.options.model

要使用的模型 ID。您可以使用 支持的模型和模型功能

无。请从 AWS Bedrock 控制台选择您的 模型 ID

spring.ai.bedrock.converse.chat.options.temperature

控制输出的随机性。值范围为 [0.0,1.0]。

0.8

spring.ai.bedrock.converse.chat.options.top-p

采样时要考虑的令牌的最大累积概率。

AWS Bedrock 默认值

spring.ai.bedrock.converse.chat.options.top-k

生成下一个令牌的令牌选择数量。

AWS Bedrock 默认值

spring.ai.bedrock.converse.chat.options.max-tokens

生成响应中的最大令牌数。

500

运行时选项

使用可移植的 ChatOptionsToolCallingChatOptions 可移植构建器来创建模型配置,例如温度、最大令牌数、topP 等。

在启动时,可以使用 BedrockConverseProxyChatModel(api, options) 构造函数或 spring.ai.bedrock.converse.chat.options.* 属性配置默认选项。

在运行时,您可以通过向 Prompt 调用添加新的、特定于请求的选项来覆盖默认选项:

var options = ToolCallingChatOptions.builder()
        .model("anthropic.claude-3-5-sonnet-20240620-v1:0")
        .temperature(0.6)
        .maxTokens(300)
        .toolCallbacks(List.of(FunctionToolCallback.builder("getCurrentWeather", new WeatherService())
            .description("Get the weather in location. Return temperature in 36°F or 36°C format. Use multi-turn if needed.")
            .inputType(WeatherService.Request.class)
            .build()))
        .build();

String response = ChatClient.create(this.chatModel)
    .prompt("What is current weather in Amsterdam?")
    .options(options)
    .call()
    .content();

工具调用

Bedrock Converse API 支持工具调用功能,允许模型在对话中使用工具。 以下是定义和使用基于 @Tool 的工具的示例:

public class WeatherService {

    @Tool(description = "Get the weather in location")
    public String weatherByLocation(@ToolParam(description= "City or state name") String location) {
        ...
    }
}

String response = ChatClient.create(this.chatModel)
        .prompt("What's the weather like in Boston?")
        .tools(new WeatherService())
        .call()
        .content();

您也可以将 java.util.function bean 用作工具:

@Bean
@Description("Get the weather in location. Return temperature in 36°F or 36°C format.")
public Function<Request, Response> weatherFunction() {
    return new MockWeatherService();
}

String response = ChatClient.create(this.chatModel)
        .prompt("What's the weather like in Boston?")
        .toolNames("weatherFunction")
        .inputType(Request.class)
        .call()
        .content();

工具 文档中查找更多信息。

多模态

多模态是指模型同时理解和处理来自各种来源信息的能力,包括文本、图像、视频、PDF、DOC、HTML、MD 和更多数据格式。

Bedrock Converse API 支持多模态输入,包括文本和图像输入,并且可以根据组合输入生成文本响应。

您需要一个支持多模态输入的模型,例如 Anthropic Claude 或 Amazon Nova 模型。

图像

对于支持视觉多模态的 模型,例如 Amazon Nova、Anthropic Claude、Llama 3.2,Bedrock Converse API Amazon 允许您在有效负载中包含多个图像。这些模型可以分析传入的图像并回答问题、对图像进行分类以及根据提供的指令总结图像。

目前,Bedrock Converse 支持 image/jpegimage/pngimage/gifimage/webp MIME 类型的 base64 编码图像。

Spring AI 的 Message 接口通过引入 Media 类型来支持多模态 AI 模型。 它包含消息中媒体附件的数据和信息,使用 Spring 的 org.springframework.util.MimeTypejava.lang.Object 作为原始媒体数据。

下面是一个简单的代码示例,演示了用户文本与图像的组合。

String response = ChatClient.create(chatModel)
    .prompt()
    .user(u -> u.text("Explain what do you see on this picture?")
        .media(Media.Format.IMAGE_PNG, new ClassPathResource("/test.png")))
    .call()
    .content();

logger.info(response);

它以 test.png 图像作为输入:

multimodal.test

以及文本消息“解释你在这张图片上看到了什么?”,并生成类似以下的响应:

The image shows a close-up view of a wire fruit basket containing several pieces of fruit.
...

视频

Amazon Nova 模型 允许您在有效负载中包含单个视频,该视频可以以 base64 格式或通过 Amazon S3 URI 提供。

目前,Bedrock Nova 支持 video/x-matroskavideo/quicktimevideo/mp4video/webmvideo/x-flvvideo/mpegvideo/x-ms-wmvvideo/3gpp MIME 类型的视频。

Spring AI 的 Message 接口通过引入 Media 类型来支持多模态 AI 模型。 它包含消息中媒体附件的数据和信息,使用 Spring 的 org.springframework.util.MimeTypejava.lang.Object 作为原始媒体数据。

下面是一个简单的代码示例,演示了用户文本与视频的组合。

String response = ChatClient.create(chatModel)
    .prompt()
    .user(u -> u.text("Explain what do you see in this video?")
        .media(Media.Format.VIDEO_MP4, new ClassPathResource("/test.video.mp4")))
    .call()
    .content();

logger.info(response);

它以 test.video.mp4 图像作为输入:

test.video

以及文本消息“解释你在这个视频中看到了什么?”,并生成类似以下的响应:

The video shows a group of baby chickens, also known as chicks, huddled together on a surface
...

文档

对于某些模型,Bedrock 允许您通过 Converse API 文档支持在有效负载中包含文档,该文档可以以字节形式提供。 文档支持有两种不同的变体,如下所述:

  • 文本文档类型 (txt, csv, html, md 等),重点在于文本理解。这些用例包括基于文档的文本元素进行回答。

  • 媒体文档类型 (pdf, docx, xlsx),重点在于基于视觉的理解来回答问题。这些用例包括基于图表、图形等进行回答。

目前,Anthropic PDF 支持(测试版) 和 Amazon Bedrock Nova 模型支持文档多模态。

下面是一个简单的代码示例,演示了用户文本与媒体文档的组合。

String response = ChatClient.create(chatModel)
    .prompt()
    .user(u -> u.text(
            "You are a very professional document summarization specialist. Please summarize the given document.")
        .media(Media.Format.DOC_PDF, new ClassPathResource("/spring-ai-reference-overview.pdf")))
    .call()
    .content();

logger.info(response);

它以 spring-ai-reference-overview.pdf 文档作为输入:

test.pdf

以及文本消息“您是一位非常专业的文档摘要专家。请总结给定的文档。”,并生成类似以下的响应:

**Introduction:**
- Spring AI is designed to simplify the development of applications with artificial intelligence (AI) capabilities, aiming to avoid unnecessary complexity.
...

示例控制器

创建一个新的 Spring Boot 项目,并将 spring-ai-starter-model-bedrock-converse 添加到您的依赖项中。

src/main/resources 下添加一个 application.properties 文件:

spring.ai.bedrock.aws.region=eu-central-1
spring.ai.bedrock.aws.timeout=10m
spring.ai.bedrock.aws.access-key=${AWS_ACCESS_KEY_ID}
spring.ai.bedrock.aws.secret-key=${AWS_SECRET_ACCESS_KEY}
# session token is only required for temporary credentials
spring.ai.bedrock.aws.session-token=${AWS_SESSION_TOKEN}

spring.ai.bedrock.converse.chat.options.temperature=0.8
spring.ai.bedrock.converse.chat.options.top-k=15

以下是使用聊天模型的示例控制器:

@RestController
public class ChatController {

    private final ChatClient chatClient;

    @Autowired
    public ChatController(ChatClient.Builder builder) {
        this.chatClient = builder.build();
    }

    @GetMapping("/ai/generate")
    public Map generate(@RequestParam(value = "message", defaultValue = "Tell me a joke") String message) {
        return Map.of("generation", this.chatClient.prompt(message).call().content());
    }

    @GetMapping("/ai/generateStream")
    public Flux<ChatResponse> generateStream(@RequestParam(value = "message", defaultValue = "Tell me a joke") String message) {
        return this.chatClient.prompt(message).stream().content();
    }
}