Llama2 Chat
Meta’s Llama 2 Chat是 Llama 2 大语言模型集合的一部分。它擅长对话类应用程序,参数范围从 70 亿到 700 亿。利用公共数据集和超过 100 万个人的注释,Llama Chat 提供了情境感知对话。 在来自公共数据源的 2 万亿个语料库上接受训练,Llama-2-Chat 提供了广泛的知识,以进行深入的对话。严格的测试,包括 1000 多个小时的红队对战和注释,确保性能和安全性,使其成为 AI 驱动的对话的可靠选择。 AWS Llama 2 Model Page和 Amazon Bedrock User Guide包含有关如何使用 AWS 托管模型的详细信息。
Prerequisites
请参阅 Spring AI documentation on Amazon Bedrock 以设置 API 访问。
Add Repositories and BOM
Spring AI 工件发布在 Spring Milestone 和 Snapshot 存储库中。有关将这些存储库添加到你的构建系统的说明,请参阅 Repositories 部分。
为了帮助进行依赖项管理,Spring AI 提供了一个 BOM(物料清单)以确保在整个项目中使用一致版本的 Spring AI。有关将 Spring AI BOM 添加到你的构建系统的说明,请参阅 Dependency Management 部分。
Auto-configuration
将 spring-ai-bedrock-ai-spring-boot-starter
依赖项添加到项目 Maven 的 pom.xml
文件:
<dependency>
<groupId>org.springframework.ai</groupId>
<artifactId>spring-ai-bedrock-ai-spring-boot-starter</artifactId>
</dependency>
或添加到 Gradle build.gradle
构建文件中。
dependencies {
implementation 'org.springframework.ai:spring-ai-bedrock-ai-spring-boot-starter'
}
|
Enable Llama2 Chat Support
默认情况下,Bedrock Llama2 模型处于禁用状态。要启用该模型,请将 spring.ai.bedrock.llama2.chat.enabled
属性设置为 true
。导出环境变量是一种设置此配置属性的方法:
export SPRING_AI_BEDROCK_LLAMA2_CHAT_ENABLED=true
Chat Properties
spring.ai.bedrock.aws
前缀是配置与 AWS Bedrock 的连接的属性前缀。
Property | Description | Default |
---|---|---|
spring.ai.bedrock.aws.region |
AWS region to use. |
us-east-1 |
spring.ai.bedrock.aws.access-key |
AWS access key. |
- |
spring.ai.bedrock.aws.secret-key |
AWS secret key. |
- |
前缀 spring.ai.bedrock.llama2.chat
是配置 Llama2 的聊天客户端实现的属性前缀。
Property | Description | Default |
---|---|---|
spring.ai.bedrock.llama2.chat.enabled |
启用或禁用对 Llama2 的支持 |
false |
spring.ai.bedrock.llama2.chat.model |
要使用的模型 ID(见下文) |
meta.llama2-70b-chat-v1 |
spring.ai.bedrock.llama2.chat.options.temperature |
控制输出的随机性。值介于 [0.0,1.0],包括在内。接近 1.0 的值将产生差异更大的响应,而接近 0.0 的值通常会产生来自模型的较不意外的响应。此值指定在向模型发出调用时后端使用的默认值。 |
0.7 |
spring.ai.bedrock.llama2.chat.options.top-p |
在采样时要考虑的标记的最大累积概率。该模型使用组合的 Top-k 和核采样。核采样考虑概率总和至少为 topP 的标记中最小的集合。 |
AWS Bedrock default |
spring.ai.bedrock.llama2.chat.options.max-gen-len |
指定生成响应中要使用的最大标记数量。一旦生成的文本超过 maxGenLen,模型将截断响应。 |
300 |
查看 Llama2ChatBedrockApi#Llama2ChatModel以了解其他模型 ID。支持的另一个值是 meta.llama2-13b-chat-v1
。还可以从 AWS Bedrock documentation for base model IDs中找到模型 ID 值。
所有带有 |
Chat Options
BedrockLlama2ChatOptions.java提供模型配置,例如 temperature、topK、topP 等。
在启动时,可以通过 BedrockLlama2ChatClient(api, options)
构造函数或 spring.ai.bedrock.llama2.chat.options.*
属性配置默认选项。
在运行时,你可以通过向 Prompt
调用添加新的请求特定选项来覆盖默认选项。例如,覆盖特定请求的默认温度:
ChatResponse response = chatClient.call(
new Prompt(
"Generate the names of 5 famous pirates.",
BedrockLlama2ChatOptions.builder()
.withTemperature(0.4)
.build()
));
|
Sample Controller (Auto-configuration)
Create一个新的 Spring Boot 项目,并将 `spring-ai-bedrock-ai-spring-boot-starter`添加到您的 pom(或 gradle)依赖项。
在 src/main/resources
目录下添加一个 application.properties
文件,以启用和配置 Anthropic Chat 客户端:
spring.ai.bedrock.aws.region=eu-central-1
spring.ai.bedrock.aws.access-key=${AWS_ACCESS_KEY_ID}
spring.ai.bedrock.aws.secret-key=${AWS_SECRET_ACCESS_KEY}
spring.ai.bedrock.llama2.chat.enabled=true
spring.ai.bedrock.llama2.chat.options.temperature=0.8
将 |
这将创建一个 BedrockLlama2ChatClient
实现,你可以将其注入到你的类中。这里是一个简单的 @Controller
类的示例,该类使用聊天客户端进行文本生成。
@RestController
public class ChatController {
private final BedrockLlama2ChatClient chatClient;
@Autowired
public ChatController(BedrockLlama2ChatClient chatClient) {
this.chatClient = chatClient;
}
@GetMapping("/ai/generate")
public Map generate(@RequestParam(value = "message", defaultValue = "Tell me a joke") String message) {
return Map.of("generation", chatClient.call(message));
}
@GetMapping("/ai/generateStream")
public Flux<ChatResponse> generateStream(@RequestParam(value = "message", defaultValue = "Tell me a joke") String message) {
Prompt prompt = new Prompt(new UserMessage(message));
return chatClient.stream(prompt);
}
}
Manual Configuration
BedrockLlama2ChatClient实现 ChatClient`和 `StreamingChatClient
,并使用 Low-level Llama2ChatBedrockApi Client连接到 Bedrock Anthropic 服务。
将 spring-ai-bedrock
依赖项添加到项目的 Maven pom.xml
文件:
<dependency>
<groupId>org.springframework.ai</groupId>
<artifactId>spring-ai-bedrock</artifactId>
</dependency>
或添加到 Gradle build.gradle
构建文件中。
dependencies {
implementation 'org.springframework.ai:spring-ai-bedrock'
}
|
接下来,创建一个 BedrockLlama2ChatClient并使用它进行文本生成:
Llama2ChatBedrockApi api = new Llama2ChatBedrockApi(Llama2ChatModel.LLAMA2_70B_CHAT_V1.id(),
EnvironmentVariableCredentialsProvider.create(), Region.US_EAST_1.id(), new ObjectMapper());
BedrockLlama2ChatClient chatClient = new BedrockLlama2ChatClient(api,
BedrockLlama2ChatOptions.builder()
.withTemperature(0.5f)
.withMaxGenLen(100)
.withTopP(0.9f).build());
ChatResponse response = chatClient.call(
new Prompt("Generate the names of 5 famous pirates."));
// Or with streaming responses
Flux<ChatResponse> response = chatClient.stream(
new Prompt("Generate the names of 5 famous pirates."));
Low-level Llama2ChatBedrockApi Client
Llama2ChatBedrockApi提供轻量级 Java 客户端,基于 AWS Bedrock Meta Llama 2 and Llama 2 Chat models。
以下类图说明了 Llama2ChatBedrockApi 接口及其构建模块:
Llama2ChatBedrockApi 支持 meta.llama2-13b-chat-v1
和 meta.llama2-70b-chat-v1
模型,用于同步(例如 chatCompletion()
)和流式(例如 chatCompletionStream()
)响应。
下面是一个简单的片段,说明如何以编程方式使用 API:
Llama2ChatBedrockApi llama2ChatApi = new Llama2ChatBedrockApi(
Llama2ChatModel.LLAMA2_70B_CHAT_V1.id(),
Region.US_EAST_1.id());
Llama2ChatRequest request = Llama2ChatRequest.builder("Hello, my name is")
.withTemperature(0.9f)
.withTopP(0.9f)
.withMaxGenLen(20)
.build();
Llama2ChatResponse response = llama2ChatApi.chatCompletion(request);
// Streaming response
Flux<Llama2ChatResponse> responseStream = llama2ChatApi.chatCompletionStream(request);
List<Llama2ChatResponse> responses = responseStream.collectList().block();
有关详细信息,请遵循 Llama2ChatBedrockApi.java的 JavaDoc。