DeepSeek Chat

Spring AI 支持 DeepSeek 的各种 AI 语言模型。您可以与 DeepSeek 语言模型交互,并基于 DeepSeek 模型创建多语言对话助手。

先决条件

您需要创建 DeepSeek API 密钥才能访问 DeepSeek 语言模型。

DeepSeek 注册页面创建帐户,并在API 密钥页面生成令牌。

Spring AI 项目定义了一个名为 spring.ai.deepseek.api-key 的配置属性,您应该将其设置为从 API 密钥页面获得的 API 密钥 的值。

您可以在 application.properties 文件中设置此配置属性

spring.ai.deepseek.api-key=<your-deepseek-api-key>

为了增强处理 API 密钥等敏感信息时的安全性,您可以使用 Spring 表达式语言 (SpEL) 来引用自定义环境变量

# In application.yml
spring:
  ai:
    deepseek:
      api-key: ${DEEPSEEK_API_KEY}
# In your environment or .env file
export DEEPSEEK_API_KEY=<your-deepseek-api-key>

您还可以在应用程序代码中以编程方式设置此配置

// Retrieve API key from a secure source or environment variable
String apiKey = System.getenv("DEEPSEEK_API_KEY");

添加存储库和 BOM

Spring AI 工件发布在 Spring Milestone 和 Snapshot 存储库中。请参阅工件存储库部分,将这些存储库添加到您的构建系统。

为了帮助管理依赖项,Spring AI 提供了一个 BOM(物料清单),以确保在整个项目中使用的 Spring AI 版本一致。请参阅依赖项管理部分,将 Spring AI BOM 添加到您的构建系统。

自动配置

Spring AI 为 DeepSeek Chat 模型提供 Spring Boot 自动配置。要启用它,请将以下依赖项添加到您项目的 Maven pom.xml 文件中

<dependency>
    <groupId>org.springframework.ai</groupId>
    <artifactId>spring-ai-starter-model-deepseek</artifactId>
</dependency>

或添加到您的 Gradle build.gradle 文件中。

dependencies {
    implementation 'org.springframework.ai:spring-ai-starter-model-deepseek'
}
请参阅 依赖项管理 部分,将 Spring AI BOM 添加到您的构建文件中。

聊天属性

重试属性

前缀 spring.ai.retry 用作属性前缀,允许您配置 DeepSeek Chat 模型的重试机制。

财产 描述 默认值

spring.ai.retry.max-attempts

最大重试次数。

10

spring.ai.retry.backoff.initial-interval

指数回退策略的初始休眠持续时间。

2 秒。

spring.ai.retry.backoff.multiplier

回退间隔乘数。

5

spring.ai.retry.backoff.max-interval

最大回退持续时间。

3 分钟。

spring.ai.retry.on-client-errors

如果为 false,则抛出 NonTransientAiException,并且不尝试重试 4xx 客户端错误代码

spring.ai.retry.exclude-on-http-codes

不应触发重试的 HTTP 状态代码列表(例如,抛出 NonTransientAiException)。

spring.ai.retry.on-http-codes

应触发重试的 HTTP 状态代码列表(例如,抛出 TransientAiException)。

连接属性

前缀 spring.ai.deepseek 用作属性前缀,允许您连接到 DeepSeek。

财产 描述 默认值

spring.ai.deepseek.base-url

要连接的 URL

https://api.deepseek.com

spring.ai.deepseek.api-key

API 密钥

-

配置属性

前缀 spring.ai.deepseek.chat 是属性前缀,允许您配置 DeepSeek 的聊天模型实现。

财产 描述 默认值

spring.ai.deepseek.chat.enabled

启用 DeepSeek 聊天模型。

true

spring.ai.deepseek.chat.base-url

可选地覆盖 spring.ai.deepseek.base-url 以提供特定于聊天的 URL

https://api.deepseek.com/

spring.ai.deepseek.chat.api-key

可选地覆盖 spring.ai.deepseek.api-key 以提供特定于聊天的 API 密钥

-

spring.ai.deepseek.chat.completions-path

聊天补全端点的路径

/chat/completions

spring.ai.deepseek.chat.beta-prefix-path

Beta 功能端点的前缀路径

/beta

spring.ai.deepseek.chat.options.model

要使用的模型 ID。您可以使用 deepseek-reasoner 或 deepseek-chat。

deepseek-chat

spring.ai.deepseek.chat.options.frequencyPenalty

介于 -2.0 和 2.0 之间的数字。正值会根据文本中现有频率惩罚新令牌,从而降低模型重复相同行的可能性。

0.0f

spring.ai.deepseek.chat.options.maxTokens

在聊天补全中生成的最大令牌数。输入令牌和生成令牌的总长度受模型上下文长度的限制。

-

spring.ai.deepseek.chat.options.presencePenalty

介于 -2.0 和 2.0 之间的数字。正值会根据新令牌是否出现在文本中来惩罚新令牌,从而增加模型讨论新主题的可能性。

0.0f

spring.ai.deepseek.chat.options.stop

API 将停止生成更多令牌的最多 4 个序列。

-

spring.ai.deepseek.chat.options.temperature

要使用的采样温度,介于 0 和 2 之间。较高的值(如 0.8)会使输出更随机,而较低的值(如 0.2)会使其更集中和确定。我们通常建议更改此项或 top_p,但不要同时更改两者。

1.0F

spring.ai.deepseek.chat.options.topP

采样温度的替代方法,称为核采样,模型考虑具有 top_p 概率质量的令牌的结果。因此 0.1 表示只考虑包含前 10% 概率质量的令牌。我们通常建议更改此项或温度,但不要同时更改两者。

1.0F

spring.ai.deepseek.chat.options.logprobs

是否返回输出令牌的对数概率。如果为 true,则返回消息内容中每个输出令牌的对数概率。

-

spring.ai.deepseek.chat.options.topLogprobs

一个介于 0 和 20 之间的整数,指定在每个令牌位置返回的最可能令牌的数量,每个令牌都具有关联的对数概率。如果使用此参数,则必须将 logprobs 设置为 true。

-

spring.ai.deepseek.chat.options.tool-names

工具列表,通过其名称标识,用于在单个提示请求中启用函数调用。具有这些名称的工具必须存在于 ToolCallback 注册表中。

-

spring.ai.deepseek.chat.options.tool-callbacks

要注册到 ChatModel 的工具回调。

-

spring.ai.deepseek.chat.options.internal-tool-execution-enabled

如果为 false,Spring AI 将不会在内部处理工具调用,而是将其代理到客户端。然后,客户端负责处理工具调用,将其分派到适当的函数,并返回结果。如果为 true(默认),Spring AI 将在内部处理函数调用。仅适用于支持函数调用的聊天模型

true

您可以为 ChatModel 实现覆盖通用的 spring.ai.deepseek.base-urlspring.ai.deepseek.api-key。如果设置了 spring.ai.deepseek.chat.base-urlspring.ai.deepseek.chat.api-key 属性,它们将优先于通用属性。如果您想为不同的模型和不同的模型端点使用不同的 DeepSeek 帐户,这会很有用。
所有带有 spring.ai.deepseek.chat.options 前缀的属性都可以在运行时通过向 Prompt 调用添加请求特定的运行时选项来覆盖。

运行时选项

DeepSeekChatOptions.java 提供模型配置,例如要使用的模型、温度、频率惩罚等。

在启动时,可以使用 DeepSeekChatModel(api, options) 构造函数或 spring.ai.deepseek.chat.options.* 属性配置默认选项。

在运行时,您可以通过向 Prompt 调用添加新的、请求特定的选项来覆盖默认选项。例如,要为特定请求覆盖默认模型和温度

ChatResponse response = chatModel.call(
    new Prompt(
        "Generate the names of 5 famous pirates. Please provide the JSON response without any code block markers such as ```json```.",
        DeepSeekChatOptions.builder()
            .withModel(DeepSeekApi.ChatModel.DEEPSEEK_CHAT.getValue())
            .withTemperature(0.8f)
        .build()
    ));
除了模型特定的DeepSeekChatOptions之外,您还可以使用可移植的ChatOptions实例,该实例通过ChatOptions#builder()创建。

示例控制器(自动配置)

创建一个新的 Spring Boot 项目,并将 spring-ai-starter-model-deepseek 添加到您的 pom(或 gradle)依赖项中。

src/main/resources 目录下添加一个 application.properties 文件,以启用和配置 DeepSeek Chat 模型

spring.ai.deepseek.api-key=YOUR_API_KEY
spring.ai.deepseek.chat.options.model=deepseek-chat
spring.ai.deepseek.chat.options.temperature=0.8
api-key 替换为您的 DeepSeek 凭据。

这将创建一个 DeepSeekChatModel 实现,您可以将其注入到您的类中。这是一个使用聊天模型进行文本生成的简单 @Controller 类的示例。

@RestController
public class ChatController {

    private final DeepSeekChatModel chatModel;

    @Autowired
    public ChatController(DeepSeekChatModel chatModel) {
        this.chatModel = chatModel;
    }

    @GetMapping("/ai/generate")
    public Map generate(@RequestParam(value = "message", defaultValue = "Tell me a joke") String message) {
        return Map.of("generation", chatModel.call(message));
    }

    @GetMapping("/ai/generateStream")
	public Flux<ChatResponse> generateStream(@RequestParam(value = "message", defaultValue = "Tell me a joke") String message) {
        var prompt = new Prompt(new UserMessage(message));
        return chatModel.stream(prompt);
    }
}

聊天前缀补全

聊天前缀补全遵循聊天补全 API,用户提供助手的消息前缀,模型将补全消息的其余部分。

使用前缀补全时,用户必须确保消息列表中的最后一条消息是 DeepSeekAssistantMessage。

下面是聊天前缀补全的完整 Java 代码示例。在此示例中,我们将助手的消息前缀设置为“```python\n”以强制模型输出 Python 代码,并将停止参数设置为 ['`'] 以防止模型提供额外解释。

@RestController
public class CodeGenerateController {

    private final DeepSeekChatModel chatModel;

    @Autowired
    public ChatController(DeepSeekChatModel chatModel) {
        this.chatModel = chatModel;
    }

    @GetMapping("/ai/generatePythonCode")
    public String generate(@RequestParam(value = "message", defaultValue = "Please write quick sort code") String message) {
		UserMessage userMessage = new UserMessage(message);
		Message assistantMessage = DeepSeekAssistantMessage.prefixAssistantMessage("```python\\n");
		Prompt prompt = new Prompt(List.of(userMessage, assistantMessage), ChatOptions.builder().stopSequences(List.of("```")).build());
		ChatResponse response = chatModel.call(prompt);
		return response.getResult().getOutput().getText();
    }
}

推理模型 (deepseek-reasoner)

deepseek-reasoner 是 DeepSeek 开发的推理模型。在给出最终答案之前,模型首先生成思维链 (CoT) 以提高其响应的准确性。我们的 API 为用户提供了访问 deepseek-reasoner 生成的 CoT 内容的权限,使他们能够查看、显示和提取它。

您可以使用 DeepSeekAssistantMessage 获取 deepseek-reasoner 生成的 CoT 内容。

public void deepSeekReasonerExample() {
    DeepSeekChatOptions promptOptions = DeepSeekChatOptions.builder()
            .model(DeepSeekApi.ChatModel.DEEPSEEK_REASONER.getValue())
            .build();
    Prompt prompt = new Prompt("9.11 and 9.8, which is greater?", promptOptions);
    ChatResponse response = chatModel.call(prompt);

    // Get the CoT content generated by deepseek-reasoner, only available when using deepseek-reasoner model
    DeepSeekAssistantMessage deepSeekAssistantMessage = (DeepSeekAssistantMessage) response.getResult().getOutput();
    String reasoningContent = deepSeekAssistantMessage.getReasoningContent();
    String text = deepSeekAssistantMessage.getText();
}

推理模型多轮对话

在对话的每一轮中,模型输出 CoT (reasoning_content) 和最终答案 (content)。在下一轮对话中,前几轮的 CoT 不会连接到上下文中,如下图所示

Multimodal Test Image

请注意,如果输入消息序列中包含 reasoning_content 字段,API 将返回 400 错误。因此,在发出 API 请求之前,您应该从 API 响应中删除 reasoning_content 字段,如 API 示例所示。

public String deepSeekReasonerMultiRoundExample() {
    List<Message> messages = new ArrayList<>();
    messages.add(new UserMessage("9.11 and 9.8, which is greater?"));
    DeepSeekChatOptions promptOptions = DeepSeekChatOptions.builder()
            .model(DeepSeekApi.ChatModel.DEEPSEEK_REASONER.getValue())
            .build();

    Prompt prompt = new Prompt(messages, promptOptions);
    ChatResponse response = chatModel.call(prompt);

    DeepSeekAssistantMessage deepSeekAssistantMessage = (DeepSeekAssistantMessage) response.getResult().getOutput();
    String reasoningContent = deepSeekAssistantMessage.getReasoningContent();
    String text = deepSeekAssistantMessage.getText();

    messages.add(AssistantMessage.builder().content(Objects.requireNonNull(text)).build());
    messages.add(new UserMessage("How many Rs are there in the word 'strawberry'?"));
    Prompt prompt2 = new Prompt(messages, promptOptions);
    ChatResponse response2 = chatModel.call(prompt2);

    DeepSeekAssistantMessage deepSeekAssistantMessage2 = (DeepSeekAssistantMessage) response2.getResult().getOutput();
    String reasoningContent2 = deepSeekAssistantMessage2.getReasoningContent();
    return deepSeekAssistantMessage2.getText();
}

手动配置

DeepSeekChatModel 实现了 ChatModelStreamingChatModel,并使用低级 DeepSeekApi 客户端连接到 DeepSeek 服务。

spring-ai-deepseek 依赖项添加到您项目的 Maven pom.xml 文件中

<dependency>
    <groupId>org.springframework.ai</groupId>
    <artifactId>spring-ai-deepseek</artifactId>
</dependency>

或添加到您的 Gradle build.gradle 文件中。

dependencies {
    implementation 'org.springframework.ai:spring-ai-deepseek'
}
请参阅 依赖项管理 部分,将 Spring AI BOM 添加到您的构建文件中。

接下来,创建一个 DeepSeekChatModel 并将其用于文本生成

DeepSeekApi deepSeekApi = DeepSeekApi.builder()
        .apiKey(System.getenv("DEEPSEEK_API_KEY"))
        .build();
DeepSeekChatOptions options = DeepSeekChatOptions.builder()
        .model(DeepSeekApi.ChatModel.DEEPSEEK_CHAT.getValue())
        .temperature(0.4)
        .maxTokens(200)
        .build();
DeepSeekChatModel chatModel = DeepSeekChatModel.builder()
        .deepSeekApi(deepSeekApi)
        .defaultOptions(options)
        .build();
ChatResponse response = chatModel.call(
    new Prompt("Generate the names of 5 famous pirates."));

// Or with streaming responses
Flux<ChatResponse> streamResponse = chatModel.stream(
    new Prompt("Generate the names of 5 famous pirates."));

DeepSeekChatOptions 提供聊天请求的配置信息。DeepSeekChatOptions.Builder 是一个流式选项构建器。

低级 DeepSeekApi 客户端

DeepSeekApiDeepSeek API 的轻量级 Java 客户端。

这里有一个简单的代码片段,展示了如何以编程方式使用 API

DeepSeekApi deepSeekApi =
    new DeepSeekApi(System.getenv("DEEPSEEK_API_KEY"));

ChatCompletionMessage chatCompletionMessage =
    new ChatCompletionMessage("Hello world", Role.USER);

// Sync request
ResponseEntity<ChatCompletion> response = deepSeekApi.chatCompletionEntity(
    new ChatCompletionRequest(List.of(chatCompletionMessage), DeepSeekApi.ChatModel.DEEPSEEK_CHAT.getValue(), 0.7, false));

// Streaming request
Flux<ChatCompletionChunk> streamResponse = deepSeekApi.chatCompletionStream(
    new ChatCompletionRequest(List.of(chatCompletionMessage), DeepSeekApi.ChatModel.DEEPSEEK_CHAT.getValue(), 0.7, true));

请参阅 DeepSeekApi.java 的 JavaDoc 以获取更多信息。

DeepSeekApi 示例

  • DeepSeekApiIT.java 测试提供了一些关于如何使用轻量级库的通用示例。

© . This site is unofficial and not affiliated with VMware.