Llama2 Chat

Meta’s Llama 2 Chat是 Llama 2 大语言模型集合的一部分。它擅长对话类应用程序,参数范围从 70 亿到 700 亿。利用公共数据集和超过 100 万个人的注释,Llama Chat 提供了情境感知对话。 在来自公共数据源的 2 万亿个语料库上接受训练,Llama-2-Chat 提供了广泛的知识,以进行深入的对话。严格的测试,包括 1000 多个小时的红队对战和注释,确保性能和安全性,使其成为 AI 驱动的对话的可靠选择。 AWS Llama 2 Model PageAmazon Bedrock User Guide包含有关如何使用 AWS 托管模型的详细信息。

Prerequisites

请参阅 Spring AI documentation on Amazon Bedrock 以设置 API 访问。

Add Repositories and BOM

Spring AI 工件发布在 Spring Milestone 和 Snapshot 存储库中。有关将这些存储库添加到你的构建系统的说明,请参阅 Repositories 部分。

为了帮助进行依赖项管理,Spring AI 提供了一个 BOM(物料清单)以确保在整个项目中使用一致版本的 Spring AI。有关将 Spring AI BOM 添加到你的构建系统的说明,请参阅 Dependency Management 部分。

Auto-configuration

spring-ai-bedrock-ai-spring-boot-starter 依赖项添加到项目 Maven 的 pom.xml 文件:

<dependency>
  <groupId>org.springframework.ai</groupId>
  <artifactId>spring-ai-bedrock-ai-spring-boot-starter</artifactId>
</dependency>

或添加到 Gradle build.gradle 构建文件中。

dependencies {
    implementation 'org.springframework.ai:spring-ai-bedrock-ai-spring-boot-starter'
}
  1. 参见 Dependency Management 部分,将 Spring AI BOM 添加到你的构建文件中。

Enable Llama2 Chat Support

默认情况下,Bedrock Llama2 模型处于禁用状态。要启用该模型,请将 spring.ai.bedrock.llama2.chat.enabled 属性设置为 true。导出环境变量是一种设置此配置属性的方法:

export SPRING_AI_BEDROCK_LLAMA2_CHAT_ENABLED=true

Chat Properties

spring.ai.bedrock.aws 前缀是配置与 AWS Bedrock 的连接的属性前缀。

Property Description Default

spring.ai.bedrock.aws.region

AWS region to use.

us-east-1

spring.ai.bedrock.aws.access-key

AWS access key.

-

spring.ai.bedrock.aws.secret-key

AWS secret key.

-

前缀 spring.ai.bedrock.llama2.chat 是配置 Llama2 的聊天客户端实现的属性前缀。

Property Description Default

spring.ai.bedrock.llama2.chat.enabled

启用或禁用对 Llama2 的支持

false

spring.ai.bedrock.llama2.chat.model

要使用的模型 ID(见下文)

meta.llama2-70b-chat-v1

spring.ai.bedrock.llama2.chat.options.temperature

控制输出的随机性。值介于 [0.0,1.0],包括在内。接近 1.0 的值将产生差异更大的响应,而接近 0.0 的值通常会产生来自模型的较不意外的响应。此值指定在向模型发出调用时后端使用的默认值。

0.7

spring.ai.bedrock.llama2.chat.options.top-p

在采样时要考虑的标记的最大累积概率。该模型使用组合的 Top-k 和核采样。核采样考虑概率总和至少为 topP 的标记中最小的集合。

AWS Bedrock default

spring.ai.bedrock.llama2.chat.options.max-gen-len

指定生成响应中要使用的最大标记数量。一旦生成的文本超过 maxGenLen,模型将截断响应。

300

查看 Llama2ChatBedrockApi#Llama2ChatModel以了解其他模型 ID。支持的另一个值是 meta.llama2-13b-chat-v1。还可以从 AWS Bedrock documentation for base model IDs中找到模型 ID 值。

所有带有 spring.ai.bedrock.llama2.chat.options 前缀的属性都可以通过在 Prompt 调用中添加一个特定于请求的 Chat Options 来在运行时覆盖。

Chat Options

BedrockLlama2ChatOptions.java提供模型配置,例如 temperature、topK、topP 等。

在启动时,可以通过 BedrockLlama2ChatClient(api, options) 构造函数或 spring.ai.bedrock.llama2.chat.options.* 属性配置默认选项。

在运行时,你可以通过向 Prompt 调用添加新的请求特定选项来覆盖默认选项。例如,覆盖特定请求的默认温度:

ChatResponse response = chatClient.call(
    new Prompt(
        "Generate the names of 5 famous pirates.",
        BedrockLlama2ChatOptions.builder()
            .withTemperature(0.4)
        .build()
    ));
  1. 除了模型特定的 BedrockLlama2ChatOptions 之外,你还可以使用用 ChatOptionsBuilder#builder() 创建的便携式 ChatOptions 实例。

Sample Controller (Auto-configuration)

Create一个新的 Spring Boot 项目,并将 `spring-ai-bedrock-ai-spring-boot-starter`添加到您的 pom(或 gradle)依赖项。

src/main/resources 目录下添加一个 application.properties 文件,以启用和配置 Anthropic Chat 客户端:

spring.ai.bedrock.aws.region=eu-central-1
spring.ai.bedrock.aws.access-key=${AWS_ACCESS_KEY_ID}
spring.ai.bedrock.aws.secret-key=${AWS_SECRET_ACCESS_KEY}

spring.ai.bedrock.llama2.chat.enabled=true
spring.ai.bedrock.llama2.chat.options.temperature=0.8

regionsaccess-keysecret-key 替换为 AWS 凭证。

这将创建一个 BedrockLlama2ChatClient 实现,你可以将其注入到你的类中。这里是一个简单的 @Controller 类的示例,该类使用聊天客户端进行文本生成。

@RestController
public class ChatController {

    private final BedrockLlama2ChatClient chatClient;

    @Autowired
    public ChatController(BedrockLlama2ChatClient chatClient) {
        this.chatClient = chatClient;
    }

    @GetMapping("/ai/generate")
    public Map generate(@RequestParam(value = "message", defaultValue = "Tell me a joke") String message) {
        return Map.of("generation", chatClient.call(message));
    }

    @GetMapping("/ai/generateStream")
	public Flux<ChatResponse> generateStream(@RequestParam(value = "message", defaultValue = "Tell me a joke") String message) {
        Prompt prompt = new Prompt(new UserMessage(message));
        return chatClient.stream(prompt);
    }
}

Manual Configuration

BedrockLlama2ChatClient实现 ChatClient`和 `StreamingChatClient,并使用 Low-level Llama2ChatBedrockApi Client连接到 Bedrock Anthropic 服务。

spring-ai-bedrock 依赖项添加到项目的 Maven pom.xml 文件:

<dependency>
    <groupId>org.springframework.ai</groupId>
    <artifactId>spring-ai-bedrock</artifactId>
</dependency>

或添加到 Gradle build.gradle 构建文件中。

dependencies {
    implementation 'org.springframework.ai:spring-ai-bedrock'
}
  1. 参见 Dependency Management 部分,将 Spring AI BOM 添加到你的构建文件中。

接下来,创建一个 BedrockLlama2ChatClient并使用它进行文本生成:

Llama2ChatBedrockApi api = new Llama2ChatBedrockApi(Llama2ChatModel.LLAMA2_70B_CHAT_V1.id(),
	EnvironmentVariableCredentialsProvider.create(), Region.US_EAST_1.id(), new ObjectMapper());

BedrockLlama2ChatClient chatClient = new BedrockLlama2ChatClient(api,
    BedrockLlama2ChatOptions.builder()
        .withTemperature(0.5f)
        .withMaxGenLen(100)
        .withTopP(0.9f).build());

ChatResponse response = chatClient.call(
    new Prompt("Generate the names of 5 famous pirates."));

// Or with streaming responses
Flux<ChatResponse> response = chatClient.stream(
    new Prompt("Generate the names of 5 famous pirates."));

Low-level Llama2ChatBedrockApi Client

Llama2ChatBedrockApi提供轻量级 Java 客户端,基于 AWS Bedrock Meta Llama 2 and Llama 2 Chat models

以下类图说明了 Llama2ChatBedrockApi 接口及其构建模块:

bedrock llama2 chat api

Llama2ChatBedrockApi 支持 meta.llama2-13b-chat-v1meta.llama2-70b-chat-v1 模型,用于同步(例如 chatCompletion())和流式(例如 chatCompletionStream())响应。

下面是一个简单的片段,说明如何以编程方式使用 API:

Llama2ChatBedrockApi llama2ChatApi = new Llama2ChatBedrockApi(
        Llama2ChatModel.LLAMA2_70B_CHAT_V1.id(),
        Region.US_EAST_1.id());

Llama2ChatRequest request = Llama2ChatRequest.builder("Hello, my name is")
		.withTemperature(0.9f)
		.withTopP(0.9f)
		.withMaxGenLen(20)
		.build();

Llama2ChatResponse response = llama2ChatApi.chatCompletion(request);

// Streaming response
Flux<Llama2ChatResponse> responseStream = llama2ChatApi.chatCompletionStream(request);
List<Llama2ChatResponse> responses = responseStream.collectList().block();

有关详细信息,请遵循 Llama2ChatBedrockApi.java的 JavaDoc。