Spring-AI 高阶实战: 基于策略模式的大模型聊天应用架构设计与实现

代码示例

https://github.com/aurora-ultra/aurora-spring-ai

概要

本文聚焦如何使用spring-AI来开发大模型应用一些进阶技能,包含一套可落地的技术设计模式,读完你将会学习到:

  • 如何使用Spring-AI 开发大模型对话应用
  • 如何综合设计一套适用Spring-ai的代码结构,为应用提供更好的扩展能力

本文假设读者已经熟悉spring-ai的基本功能以及大模型开发的入门知识,如果你还不熟悉这些基础知识,可以找我仔细学习。

开发目标

我们会简单的模拟豆包的业务模型,开发一个用户与大模型对话的应用程序,我们会从领域模型开始设计,一直到应用模型和应用实现。

由于篇幅有限,我们不展开细节完成每一个功能,这里只介绍核心领域建模和应用的开发模式。

我们将会聚焦一次对话的处理流程,如下图所示:

  • 本地工具集也就是function calling 可以随时添加,删除,并且根据对话上下文动态抉择
  • 向量数据库搜索可以根据对话上下文选择是否使用,甚至提供多个选择

# 设计领域模型

  1. Agent 表示一个大模型agent,包括大模型的命名,SystemPrompt,所属用户等
  2. Conversation 表示一次对话
  3. User 表示正在使用系统的用户
  4. ChatMessage表示一个对话消息,一个对话消息由多个内容组成,因为一次对话可以发送包括文本和媒体多条具体内容。

至此,我们简单模拟了豆包的领域模型

设计应用模型

  既然我们在最开始设计了领域模型,我么也很自然的会设计应用模型,首先应用模型需要一个聚合根,用来表示一次对话的处理环境,我们称之为上下文,然后每次对话会包含很多关键元素,比如用户,模型,时间等,其中还有一个就是本次对话的配置选项,因为在与大模型交互的时候,其实我们难免有一些设置项,比如跟哪个模型对话,是否开启互联网锁搜等。

 

首先设计一个 ChatContext类,用来表示一次对话的上下文核心,这里我们分析如下:

  • 对话上下文包含 when,who,what,where,how 五种元素, 这本纸上就是一个5w2h的分析,只不过没有why和how much, 很明显,why 和how muc事根据需求来的,这里我们先不设计。
    • When - 用户发送消息的时间
    • Who - 发送消息的用户
    • What - 用户发送发的消息
    • Where - 用户处于哪一个对话
    • How - 本次对话有哪些配置选项
  • 对话上下文可以配置标记属性,以便在不同功能之间传递消息,这点类似Servlet技术中方的ServletRequest#getAttribute
  • 对话上下文是只读的,不允许修改@Getter
@Builder
public class ChatContext {
	// when		who		what			where			how
	// -------------------------------------------------------------
	// now		user 	userMessage		conversation	chatOption

	private final Map<String, Object> attributes = new HashMap<>();

	private final User user;
	private final UserMessage userMessage;
	private final ChatOption chatOption;
	private final Conversation conversation;

	public void setAttribute(String key, Object value) {
		attributes.put(key, value);
	}

	public Object getAttribute(String key) {
		return attributes.get(key);
	}

	@SuppressWarnings("unchecked")
	public <T> T getAttribute(String key, Class<T> ignored) {
		return (T) attributes.get(key);
	}
}

接着,我们设计一个用户描述本次对话的功能选项,我们希望如下

  • 系统可以配置本次对话是否启用某一种功能,比如内部文档搜索/互联网资料搜索/是否带有记忆功能/是否开启调试模式等等
  • 用户可以选择跟不同的模型对话;
  • 某些功能有特殊的配置
@Getter
@Builder
@RequiredArgsConstructor
public class ChatOption implements Serializable {

    private final boolean enableInternalSearch;
    private final boolean enableExternalSearch;
    private final boolean enableExampleTools;
    private final boolean enableMemory;
    private final boolean enableDebug;
    private final int retrieveTopK;
    private final String model;
}

至此,我们有了可用的对话上下文,可以围绕这个上下文开发对话逻辑了。

设计应用逻辑

首先我们来设计应用的扩展点,其实本质上应该是先设计应用逻辑,再进行重构设计扩展点,但是这里为了行文方便,直接展示下扩展点,免去重构的过程,请读者注意,真实开发的时候不可能一开始就想得到哪些地方需要扩展,一定是先做出基础逻辑,再重构出扩展点点,我们先来分析一下可扩展的点:

  • 对话模型可以切换,系统将会根据上下文推断出本次要使用的模型。
  • 本地方法可以随时增加删除,系统会很久本次上下文推断出需要调用的本地工具。
  • 其他spring-ai框架的的Advisor也可能根据一次对话的上下文被推断出。

由此可见对话上下文是整个应用的重点,所有的功能是否被使用都围绕着这个上下文,并且这些功能在运行的时候会根据上下文动态提供出来,不难看出,这是一个策略模式,于是我们设计如下接口:

public interface ChatAdvisorSupplier {
    boolean support(ChatContext context);
    Advisor getAdvisor(ChatContext context);
}
public interface ChatClientSupplier {
    boolean support(ChatContext context);
    ChatClient getChatClient(ChatContext context);
}
public interface ChatTool {
    String getName();
    String getDescription();
}
public interface ChatToolSupplier {
    boolean support(ChatContext context);
    ChatTool getTool(ChatContext context);
}
  • ChatAdvisorSupplier 用来为本次对话提供spring-ai的Advisor
  • ChatClientSupplier 会根据本地对话提供可用的模型client
  • ChatTool 用来表示一个包含本地放的的类,提供了name和desc两个属性,用来让大模型帮我们判断哪些工具在本次对话需要被使用到
  • ChatToolSupplier则会根据当前对话给出哪些本地工具会被使用到。

  几乎每一个接口都有2个方法,一个support,一个getXxx,support用于判断当前的能力是否启用,如果放回true,则表示当前上下文需要这个能力,如果返回false,则当前对话不需要这个能力,这是一个非常典型的策略模式,在spring框架中几乎随处可见。

  下面我们将这些组件串联起来,这样一来,我们的核心交互流程不变,而具体交互流程在策略器中可随时动态增减,当我们开始处理一个对话上下文的时候,首先根据对话上下文找到适合的模型,工具等,这些具体功能由一个个的supplier提供,每个supplier都会根据对话上下文给出自己是否适用,如果适用,我们就让这个supplier提供他的能力,看上去就像下面这样:

实现应用逻辑

  有了上面的接口,我们实现的应用逻辑就简单起来了,只要将接口的调用编排起来就行,之所以设计接口和调用者的好处,就是以后这个应用的核心逻辑应该会很少变动,不论增加什么功能,几乎这个核心逻辑都不需要做什么改动,这就是所谓的高内聚,低耦合,面向扩展开放,面向修改关闭

  试想一下,如果有一天新增了需求,那么大概率是需要新增某种工具调用,某种advisor的调用,这些都不影响你的核心逻辑,我们只需要新增一个实现,或者修改现有的一个实现。

  我们简单来分析一下这个应用逻辑,他需要接受到对话命令ChatCommand,然后组装出对话上下文ChatContext,接着根据对话上下文找到适合的client, tools,advisors,还要从上下文找出本次要发送给大模型的对话消息,最后将大模型返回的消息包装成我们自己的数据结构(ChatReply)返回就行了

  我们来看一下ChatService是如何被实现的。

@Slf4j
@Service
@RequiredArgsConstructor
public class ChatService {
	public static final int CHAT_RESPONSE_BUFFER_SIZE = 24;
	public static final String CHAT_TOOLS_CHOSEN_MODEL = "gpt-3.5-turbo";

	private final ChatManager chatManager;

	private final List<ChatToolSupplier> chatToolSuppliers;
	private final List<ChatClientSupplier> chatClientSuppliers;
	private final List<ChatAdvisorSupplier> chatAdvisorSuppliers;

	public Conversation startConversation(ConversationStartCommand command) {
		// todo implement this method
		throw new NotImplementedException();
	}

	public ChatReply chat(ChatCommand command) throws ChatException {
		try {
			var user = User.mock();
			var chatOption = command.getOption();
			var conversation = getConversation(command.getConversationId());
			var userMessage = createUserMessage(command);
			var context = ChatContext.builder()
					.user(user)
					.userMessage(userMessage)
					.chatOption(chatOption)
					.conversation(conversation)
					.build();
			return this.chat(context);
		} catch (Exception e) {
			throw ChatException.of("Something wrong when processing the chat command", e);
		}
	}

	private ChatReply chat(ChatContext context) throws ChatException {
		var tools = getTools(context);
		var advisors = getAdvisors(context);
		var chatClient = getChatClient(context);
		var conversation = context.getConversation();
		var userMessage = context.getUserMessage();

		var contents = chatClient
				.prompt()
				.advisors(advisors)
				.messages(conversation.createPromptMessages())
				.messages(userMessage)
				.toolCallbacks(ToolCallbacks.from(tools.toArray()))
				.toolContext(context.getAttributes())
				.stream()
				.content()
				.buffer(CHAT_RESPONSE_BUFFER_SIZE)
				.map(strings -> String.join("", strings));

		return ChatReply.builder()
				.contents(contents)
				.build();
	}

	private UserMessage createUserMessage(ChatCommand command) {
		return new UserMessage(command.getContent());
	}

	private Conversation getConversation(String conversationId) {
		return chatManager.getOrCreateConversation(conversationId);
	}

	private List<Advisor> getAdvisors(ChatContext context) {
		return chatAdvisorSuppliers
				.stream()
				.filter(chatAdvisorSupplier -> chatAdvisorSupplier.support(context))
				.map(chatAdvisorSupplier -> chatAdvisorSupplier.getAdvisor(context))
				.toList();
	}

	private ChatClient getChatClient(ChatContext context) throws ChatException {
		return chatClientSuppliers
				.stream()
				.filter(chatAdvisorSupplier -> chatAdvisorSupplier.support(context))
				.map(chatAdvisorSupplier -> chatAdvisorSupplier.getChatClient(context))
				.findFirst()
				.orElseThrow(() -> ChatException.of("unknown how to create the chat client, maybe you need to add a chat client supplier?"));
	}

	private List<ChatTool> getTools(ChatContext context) throws ChatException {
		var tools = chatToolSuppliers
				.stream()
				.filter(supplier -> supplier.support(context))
				.map(supplier -> supplier.getTool(context))
				.toList();

		if (tools.isEmpty()) {
			return tools;
		}
		var toolDescription = tools.stream()
				.map(chatTool -> String.format("- %s: %s", chatTool.getName(), chatTool.getDescription()))
				.collect(Collectors.joining("\n"));
		var systemPrompt = "You will determine what tools to use based on the user's problem." +
				"Please directly reply the tool names with delimiters ',' and reply empty if no tools is usable " +
				"Reply example: tool1,tool2." +
				"The tools are: \n" +
				toolDescription;

		var toolsDecision = getChatClient(context)
				.prompt()
				.options(ChatOptions.builder()
						.model(CHAT_TOOLS_CHOSEN_MODEL)
						.build())
				.system(systemPrompt)
				.messages(context.getUserMessage())
				.call()
				.content();

		if (StringUtils.isBlank(toolsDecision)) {
			return new ArrayList<>();
		}

		var chosen = Arrays.asList(toolsDecision.split(","));

		tools = tools.stream()
				.filter(chatTool -> chosen.contains(chatTool.getName()))
				.toList();

		log.info("tools chosen: {}", tools.stream().map(ChatTool::getName).collect(Collectors.toSet()));

		return tools;
	}
}

  • 首先ChatService注入了所有的ChatToolSupplier,ChatClientSupplier,ChatAdvisorSupplier接口实例;
  • 当处理ChatCommand的时候,组装出ChatContext;
  • 然后调用一系列的get方法读取相关的策略
  • 最后调用大模型client与之交互

  其中getTools方法相对比较复杂,它先列出了所有的本地工具,然后将用户对话和本地工具描述一起交给了大模型,大模型告诉本地应用那一套functions更适合处理这个问题,然后菜返回本地工具集。之所以这么做,是因为(例如)openai官网明确说明,建议一次对话functions不要太多,最好不要超过20个,因为更多的functions意味着更多的token,也意味着更多的处理时间,而且也没有必要,所以我们选择轻量级的模型gpt3.5来处理工具集的选择,在缩小了工具集之后再与大模型交互。

为应用增加RAG功能

  有了ChatAdvisorSupplier这个接口,我们可以轻易的为应用逻辑增加RAG的功能。在Spring-AI(1.0.0-M8)中,RAG作为一个Advisor被实现,期内部原理就是将用户关键字输入到向量数据局进行搜索,搜索到结果之后组成上下文一起发送给大模型。

  我们已经定义了ChatAdvisorSupplier,所以这里实现这个接口,然后判断support的逻辑也很简单,只要开启了内部搜索,并且没有开启外部搜索,则为本次对话增加rag的能力。

  之所以与外部搜索互斥,是这个例子的设计,并没有什么特殊原因,在你自己的应用中需要有自己的启用策略。

@Slf4j
@Component
@RequiredArgsConstructor
public class InternalSearchAdvisorSupplier implements ChatAdvisorSupplier {
	private final static int DEFAULT_TOP_K = 3;

	private final VectorStore vectorStore;

	private final static PromptTemplate USER_TEXT_ADVISE = PromptTemplate.builder()
			.template("""
					上下文信息如下,用 --------------------- 包围
					
					---------------------
					{question_answer_context}
					---------------------
					
					根据上下文和提供的历史信息(而非先验知识)回复用户问题。如果答案不在上下文中,请告知用户你无法回答该问题。
					""")
			.build();

	@Override
	public boolean support(ChatContext context) {
		return context.getChatOption().isEnableInternalSearch()
				&& !context.getChatOption().isEnableExternalSearch();
	}

	@Override
	public Advisor getAdvisor(ChatContext context) {
		return QuestionAnswerAdvisor.builder(vectorStore)
				.searchRequest(
						SearchRequest.builder()
								.topK(NumberUtils.max(context.getChatOption().getRetrieveTopK(), DEFAULT_TOP_K))
								.build()
				)
				.promptTemplate(USER_TEXT_ADVISE)
				.build();
	}

}

 

为应用增加一组Function Calling

我们写一个示例的Tool,提供function calling的功能

@Slf4j
@Component
public class ExampleTool implements ChatTool {

	@Override
	public String getName() {
		return "天气信息搜索";
	}

	@Override
	public String getDescription() {
		return """
				获取天气预报
				""";
	}



	@Tool(description = "get the forecast weather of the specified city and date")
	public String getForecast(@ToolParam(description = "日期") LocalDate date,
							  @ToolParam(description = "城市") String city) {
		return """
				- 当前温度:12°C \n
				- 天气状况:雾霾 \n
				- 体感温度:12°C \n
				- 今天天气:大部分地区多云,最低气温9°C \n
				- 空气质量:轻度污染 (51-100),主要污染物 PM2.5 75 μg/m³ \n
				- 风速:轻风 (2 - 5 公里/小时),西南风 1级 \n
				- 湿度:78% \n
				- 能见度:能见度差 (1 - 2 公里),2 公里 \n
				- 气压:1018 hPa \n
				- 露点:8°C \n
				""";
	}
}

再为这个tool写一个supplier

@Slf4j
@Component
@RequiredArgsConstructor
public class ExampleToolSupplier implements ChatToolSupplier {

	private final ExampleTool exampleTool;

	@Override
	public boolean support(ChatContext context) {
		return context.getChatOption().isEnableExampleTools();
	}

	@Override
	public ChatTool getTool(ChatContext context) {
		return exampleTool;
	}
}

于是乎,你在没有修改主逻辑的情况下为应用增加了两个功能,这看上去真的很棒!高内聚,低耦合,并且对扩展开放,对修改封闭!

现在,你可以像下面这样,提供更多的扩展能力

 

代码整体结构

 

posted @ 2025-05-02 15:47  有泥土的路  阅读(656)  评论(0)    收藏  举报