Anthropic Chat
-
基于 Anthropic 的安全研究,优先考虑交互中的有用性、诚实性和无害性。
Anthropic’s Claude是基于 Anthropic 关于训练有用、诚实和无害的人工智能系统的研究的人工智能助手。Claude 模型具有以下高级功能
-
200k 令牌上下文窗口:Claude 拥有 200,000 的丰富令牌容量,使其非常适合处理技术文档、代码库和文学作品等应用程序中的大量信息。
-
支持的任务:Claude 的多功能性涵盖了摘要、问答、趋势预测和文档比较等任务,可以实现从对话到内容生成的广泛应用。
-
人工智能安全功能:基于 Anthropic 的安全研究,Claude 在其交互过程中优先考虑有用性、诚实性和无害性,从而降低品牌风险并确保负责任的人工智能行为。
AWS Bedrock Anthropic Model Page 和 Amazon Bedrock User Guide 包含有关如何使用 AWS 托管模型的详细信息。
Prerequisites
请参阅 Spring AI documentation on Amazon Bedrock 以设置 API 访问。
Add Repositories and BOM
Spring AI 工件发布在 Spring Milestone 和 Snapshot 存储库中。有关将这些存储库添加到你的构建系统的说明,请参阅 Repositories 部分。
为了帮助进行依赖项管理,Spring AI 提供了一个 BOM(物料清单)以确保在整个项目中使用一致版本的 Spring AI。有关将 Spring AI BOM 添加到你的构建系统的说明,请参阅 Dependency Management 部分。
Auto-configuration
将 spring-ai-bedrock-ai-spring-boot-starter
依赖项添加到项目 Maven 的 pom.xml
文件:
<dependency>
<groupId>org.springframework.ai</groupId>
<artifactId>spring-ai-bedrock-ai-spring-boot-starter</artifactId>
</dependency>
或添加到 Gradle build.gradle
构建文件中。
dependencies {
implementation 'org.springframework.ai:spring-ai-bedrock-ai-spring-boot-starter'
}
|
Enable Anthropic Chat
默认情况下,Anthropic 模型处于禁用状态。要启用它,请将 spring.ai.bedrock.anthropic.chat.enabled
属性设置为 true
。导出环境变量是一种设置此配置属性的方法:
export SPRING_AI_BEDROCK_ANTHROPIC_CHAT_ENABLED=true
Chat Properties
spring.ai.bedrock.aws
前缀是配置与 AWS Bedrock 的连接的属性前缀。
Property | Description | Default |
---|---|---|
spring.ai.bedrock.aws.region |
AWS region to use. |
us-east-1 |
spring.ai.bedrock.aws.access-key |
AWS access key. |
- |
spring.ai.bedrock.aws.secret-key |
AWS secret key. |
- |
前缀 spring.ai.bedrock.anthropic.chat
是为 Claude 配置聊天客户端实现的属性前缀。
Property | Description | Default |
---|---|---|
spring.ai.bedrock.anthropic.chat.enable |
启用 Bedrock Anthropic 聊天客户端。默认为禁用 |
false |
spring.ai.bedrock.anthropic.chat.model |
要使用的模型 ID。请参阅 AnthropicChatModel以了解支持的模型。 |
anthropic.claude-v2 |
spring.ai.bedrock.anthropic.chat.options.temperature |
控制输出的随机性。值可介于 [0.0,1.0]。 |
0.8 |
spring.ai.bedrock.anthropic.chat.options.topP |
采样时要考虑的标记的最大累积概率。 |
AWS Bedrock default |
spring.ai.bedrock.anthropic.chat.options.topK |
指定生成器用于生成下一个标记的标记选择数量。 |
AWS Bedrock default |
spring.ai.bedrock.anthropic.chat.options.stopSequences |
配置生成器识别的多达四个序列。在停止序列之后,生成器停止生成更多标记。返回的文本不包含停止序列。 |
10 |
spring.ai.bedrock.anthropic.chat.options.anthropicVersion |
要使用的生成器版本。 |
bedrock-2023-05-31 |
spring.ai.bedrock.anthropic.chat.options.maxTokensToSample |
指定用于生成响应中的最大令牌数。请注意,模型可能会在达到此上限前停止。此参数只指定要生成的绝对最大令牌数。我们建议限制为 4,000 个令牌以获得最佳性能。 |
500 |
查看 AnthropicChatModel 了解其他模型 ID。支持的值为: anthropic.claude-instant-v1
、anthropic.claude-v2
和 anthropic.claude-v2:1
。模型 ID 值也可在 AWS Bedrock documentation for base model IDs 中找到。
所有带有 |
Chat Options
AnthropicChatOptions.java 提供模型配置,如温度、topK、topP 等。
在启动时,可以使用 BedrockAnthropicChatClient(api, options)
构造函数或 spring.ai.bedrock.anthropic.chat.options.*
属性配置默认选项。
在运行时,你可以通过向 Prompt
调用添加新的请求特定选项来覆盖默认选项。例如,覆盖特定请求的默认温度:
ChatResponse response = chatClient.call(
new Prompt(
"Generate the names of 5 famous pirates.",
AnthropicChatOptions.builder()
.withTemperature(0.4)
.build()
));
|
Sample Controller (Auto-configuration)
Create一个新的 Spring Boot 项目,并将 `spring-ai-bedrock-ai-spring-boot-starter`添加到您的 pom(或 gradle)依赖项。
在 src/main/resources
目录下添加一个 application.properties
文件,以启用和配置 Anthropic Chat 客户端:
spring.ai.bedrock.aws.region=eu-central-1
spring.ai.bedrock.aws.access-key=${AWS_ACCESS_KEY_ID}
spring.ai.bedrock.aws.secret-key=${AWS_SECRET_ACCESS_KEY}
spring.ai.bedrock.anthropic.chat.enabled=true
spring.ai.bedrock.anthropic.chat.options.temperature=0.8
spring.ai.bedrock.anthropic.chat.options.top-k=15
将 |
这将创建一个 BedrockAnthropicChatClient
实现,你可以将其注入到你的类中。这是一个简单的 @Controller
类示例,它将聊天客户端用于文本生成。
@RestController
public class ChatController {
private final BedrockAnthropicChatClient chatClient;
@Autowired
public ChatController(BedrockAnthropicChatClient chatClient) {
this.chatClient = chatClient;
}
@GetMapping("/ai/generate")
public Map generate(@RequestParam(value = "message", defaultValue = "Tell me a joke") String message) {
return Map.of("generation", chatClient.call(message));
}
@GetMapping("/ai/generateStream")
public Flux<ChatResponse> generateStream(@RequestParam(value = "message", defaultValue = "Tell me a joke") String message) {
Prompt prompt = new Prompt(new UserMessage(message));
return chatClient.stream(prompt);
}
}
Manual Configuration
BedrockAnthropicChatClient实现 ChatClient`和 `StreamingChatClient
,并使用 Low-level AnthropicChatBedrockApi Client连接到 Bedrock Anthropic 服务。
将 spring-ai-bedrock
依赖项添加到项目的 Maven pom.xml
文件:
<dependency>
<groupId>org.springframework.ai</groupId>
<artifactId>spring-ai-bedrock</artifactId>
</dependency>
或添加到 Gradle build.gradle
构建文件中。
dependencies {
implementation 'org.springframework.ai:spring-ai-bedrock'
}
|
接下来,创建一个 BedrockAnthropicChatClient 并将其用于文本生成:
AnthropicChatBedrockApi anthropicApi = new AnthropicChatBedrockApi(
AnthropicChatBedrockApi.AnthropicModel.CLAUDE_V2.id(),
EnvironmentVariableCredentialsProvider.create(),
Region.EU_CENTRAL_1.id(),
new ObjectMapper());
BedrockAnthropicChatClient chatClient = new BedrockAnthropicChatClient(anthropicApi,
AnthropicChatOptions.builder()
.withTemperature(0.6f)
.withTopK(10)
.withTopP(0.8f)
.withMaxTokensToSample(100)
.withAnthropicVersion(AnthropicChatBedrockApi.DEFAULT_ANTHROPIC_VERSION)
.build());
ChatResponse response = chatClient.call(
new Prompt("Generate the names of 5 famous pirates."));
// Or with streaming responses
Flux<ChatResponse> response = chatClient.stream(
new Prompt("Generate the names of 5 famous pirates."));
Low-level AnthropicChatBedrockApi Client
AnthropicChatBedrockApi 在 AWS Bedrock Anthropic Claude models 之上提供轻量级 Java 客户端。
以下类图说明了 AnthropicChatBedrockApi 接口和构建模块:
客户端同时支持 anthropic.claude-instant-v1
、anthropic.claude-v2
和 anthropic.claude-v2:1
模型的同步(例如 chatCompletion()
)和流式(例如 chatCompletionStream()
)响应。
下面是一个简单的片段,说明如何以编程方式使用 API:
AnthropicChatBedrockApi anthropicChatApi = new AnthropicChatBedrockApi(
AnthropicModel.CLAUDE_V2.id(), Region.EU_CENTRAL_1.id());
AnthropicChatRequest request = AnthropicChatRequest
.builder(String.format(AnthropicChatBedrockApi.PROMPT_TEMPLATE, "Name 3 famous pirates"))
.withTemperature(0.8f)
.withMaxTokensToSample(300)
.withTopK(10)
.build();
// Sync request
AnthropicChatResponse response = anthropicChatApi.chatCompletion(request);
// Streaming request
Flux<AnthropicChatResponse> responseStream = anthropicChatApi.chatCompletionStream(request);
List<AnthropicChatResponse> responses = responseStream.collectList().block();
关注 AnthropicChatBedrockApi.java 的 JavaDoc 了解详细信息。