引言
Spring AI 是 Spring 生态系统中的一个新兴模块,专注于简化人工智能和机器学习技术在 Spring 应用程序中的集成。本文将详细介绍 Spring AI 的核心组件、功能模块及其之间的关系,帮助具有技术基础的读者快速了解和应用 Spring AI。
Spring AI 的核心概念
Spring AI 的设计理念遵循 Spring 框架一贯的原则:简化复杂技术的使用,让开发者能够专注于业务逻辑而非底层实现细节。在人工智能领域,Spring AI 通过抽象常见的 AI 操作,提供了一套统一的 API,使得与各种 AI 服务和模型的集成变得简单而直观。
Spring AI 模块分类
根据功能和用途,Spring AI 可以分为以下几个主要模块类别:
- AI 模型集成模块
- 向量数据库支持模块
- 文档处理模块
- 对话记忆存储模块
- 优化求解模块
让我们用 Mermaid 思维导图来展示这些模块的关系:

模块详解
1. AI 模型集成模块
这个模块提供了与各种 AI 模型和服务的集成能力,让开发者可以轻松地在 Spring 应用中使用先进的 AI 功能。
1.1 大型语言模型 (LLM) 支持
Spring AI 支持多种流行的大型语言模型服务:
- OpenAI – 提供对 ChatGPT 和 DALL-E 的支持
- Azure OpenAI – 微软的 OpenAI 服务版本,具有增强的功能
- Anthropic Claude – 支持 Anthropic 的 Claude 模型
- Mistral AI – 开源可移植的生成式 AI 模型
- Ollama – 本地运行各种 LLM 模型的解决方案
- Vertex AI Gemini – 谷歌的 Gemini 聊天模型支持

1.2 嵌入模型
嵌入模型将文本或多模态内容转换为向量表示,是实现语义搜索、推荐系统等功能的基础:
- Vertex AI Embeddings – Google 的文本和多模态嵌入模型
- Amazon Bedrock – 亚马逊的 Cohere 和 Titan 嵌入模型
- PostgresML – PostgreSQL 的文本嵌入模型
- Transformers (ONNX) – 预训练转换器模型,序列化为 ONNX 格式
1.3 图像生成模型
- Stability AI – 支持 Stability AI 的文本到图像生成模型
- OpenAI DALL-E – OpenAI 提供的图像生成模型
1.4 模型上下文协议 (MCP) 支持
- Model Context Protocol Server – MCP 服务器支持
- Model Context Protocol Client – MCP 客户端支持
2. 向量数据库支持模块
向量数据库是 AI 应用的重要组成部分,用于存储和检索嵌入向量。Spring AI 提供了丰富的向量数据库集成选项。
2.1 SQL 数据库向量支持
- PGvector – PostgreSQL 的向量扩展
- MariaDB Vector Database – MariaDB 的向量存储支持
- Oracle Vector Database – Oracle 的向量嵌入支持
2.2 NoSQL 数据库向量支持
- MongoDB Atlas Vector Database – MongoDB Atlas 的向量数据库支持
- Elasticsearch Vector Database – Elasticsearch 的向量搜索
- Redis Search and Query – Redis 的向量搜索功能
- Neo4j Vector Database – Neo4j 的向量搜索
- Apache Cassandra Vector Database – Cassandra 的向量数据库支持
2.3 专用向量数据库
- Pinecone – 云原生向量数据库
- Weaviate – 开源向量数据库
- Qdrant – 高性能向量搜索引擎
- Milvus – 开源向量数据库
- Chroma – 开源嵌入数据库
- Typesense – 向量搜索支持
2.4 云服务向量数据库
- Azure AI Search – 微软的 AI 搜索平台
- Azure Cosmos DB Vector Store – Azure Cosmos DB 的向量存储

3. 文档处理模块
Spring AI 提供了多种文档读取和处理工具,能够从不同格式的文档中提取文本并转换为 Spring AI Document 对象。
- Markdown Document Reader – 读取和处理 Markdown 文档
- PDF Document Reader – 使用 Apache PdfBox 读取 PDF 文档
- Tika Document Reader – 使用 Apache Tika 提取多种文档格式的文本
4. 对话记忆存储模块
这些模块提供了存储和管理聊天历史的功能,对于构建具有上下文感知能力的对话应用至关重要。
- JDBC Chat Memory Repository – 基于 JDBC 的聊天记忆存储
- Cassandra Chat Memory Repository – 基于 Cassandra 的聊天记忆存储
- Neo4j Chat Memory Repository – 基于 Neo4j 的聊天记忆存储
5. 优化求解模块
- Timefold Solver – AI 求解器,用于优化操作和调度问题
Spring AI 架构与工作流程
下面的图表展示了 Spring AI 的典型工作流程:

实际应用场景
Spring AI 可以应用于多种实际场景:
- 智能客服系统 – 利用 LLM 和对话记忆库构建上下文感知的客服系统
- 文档智能搜索 – 使用文档处理器、嵌入模型和向量数据库实现语义搜索
- 内容生成 – 利用 LLM 或图像生成模型创建内容
- 知识管理系统 – 将企业文档转化为可查询的知识库
- 智能调度系统 – 使用 Timefold Solver 优化资源分配
与 Spring 生态系统的集成
Spring AI 无缝集成到 Spring 生态系统中,可以与其他 Spring 项目协同工作:

入门示例
以下是一个简单的 Spring AI 应用程序示例,展示了如何使用 Ollama 本地运行的 LLM 模型:
@RestController
public class ChatController {
private final OllamaChatModel chatModel;
@Autowired
public ChatController(OllamaChatModel chatModel) {
this.chatModel = chatModel;
}
@GetMapping("/ai/generate")
public Map<String,String> generate(@RequestParam(value = "message", defaultValue = "讲个程序员的笑话") String message) {
return Map.of("generation", this.chatModel.call(message));
}
}
配置 Ollama 客户端:
# application.yaml
spring:
ai:
ollama:
base-url: http://localhost:11434 # Ollama 默认运行地址
chat:
options:
model: qwen2.5:latest # 可以使用任何已在 Ollama 中安装的模型
temperature: 0.7
在使用上述代码前,你需要:
- 安装 Ollama (https://ollama.com/)
- 拉取所需的模型,例如:
ollama pull qwen2.5:latest
- 确保 Ollama 服务正在运行
添加 Maven 依赖:
<dependency>
<groupId>org.springframework.ai</groupId>
<artifactId>spring-ai-starter-model-ollama</artifactId>
</dependency>
示例响应:
{
"generation": "当然可以,这里有一个程序员相关的笑话:\n\n为什么26个字母只剩下25个了?\n\n因为字母“Q”被程序员‘u’了!(谐音梗:“被程序员输(u)了”,意指被击败或打败)\n\n希望这个小笑话能让你会心一笑!"
}
写在最后
Spring AI 提供了一套全面的工具和抽象,简化了在 Spring 应用中集成 AI 功能的过程。通过标准化的接口,开发者可以轻松地切换不同的 AI 服务提供商,同时保持应用程序代码的一致性。
随着人工智能技术的快速发展,Spring AI 也在不断扩展其功能范围,支持更多的模型、数据库和应用场景。无论是构建简单的聊天机器人还是复杂的 AI 驱动系统,Spring AI 都提供了一条简捷的路径。