🇨🇳 前言:Java 程序员的“国产化”福音
在 AI 浪潮中,Java 开发者常常感到孤独。LangChain 是 Python 的,OpenAI 的访问又总是受限。
虽然 Spring 官方推出了Spring AI,但国外的模型接口在国内企业落地时总是水土不服。
终于,Spring AI Alibaba 横空出世!
它不仅完美适配了通义千问 (Qwen)等国产大模型,更重要的是,它能无缝接入我们最熟悉的Spring Cloud Alibaba生态。
想象一下:
- 用Nacos动态管理 AI 的 Prompt(提示词)和 API Key。
- 用Sentinel保护昂贵的 AI 接口,防止 Token 消耗过快导致欠费。
- 用Spring Boot的标准注解开发 AI 应用。
今天,我就带大家用这套“黄金组合”,搭建一个企业级、高可用的 AI 微服务系统。
🏗️ 架构设计:当 AI 遇上微服务
我们将构建一个标准的微服务架构,AI 能力不再是外挂脚本,而是被治理的一等公民。
架构拓扑图:
🛠️ 实战步骤:三步打造云原生 AI
1. 引入“王炸”依赖
我们需要基于 Spring Boot 3.x。
在pom.xml中引入 Spring AI Alibaba 的 Starter。
<dependencyManagement><dependencies><dependency><groupId>com.alibaba.cloud</groupId><artifactId>spring-cloud-alibaba-dependencies</artifactId><version>2023.0.1.0</version><type>pom</type><scope>import</scope></dependency></dependencies></dependencyManagement><dependencies><dependency><groupId>com.alibaba.cloud</groupId><artifactId>spring-ai-alibaba-starter</artifactId></dependency><dependency><groupId>com.alibaba.cloud</groupId><artifactId>spring-cloud-starter-alibaba-nacos-config</artifactId></dependency><dependency><groupId>com.alibaba.cloud</groupId><artifactId>spring-cloud-starter-alibaba-sentinel</artifactId></dependency></dependencies>2. Nacos 动态管理 Prompt (核心亮点)
痛点:Prompt 是 AI 的灵魂,经常需要调整。如果写在代码里,每次改 Prompt 都要重启服务,太蠢了。
方案:把 Prompt 放到 Nacos 里!
Nacos 配置 (ai-service.yaml):
spring:ai:alibaba:tongyi:api-key:${TONGYI_API_KEY}# 从环境变量读取,安全第一cloud:sentinel:transport:dashboard:localhost:8080# 自定义 Prompt 配置app:prompt:system:"你是一个资深的 Java 架构师,请用专业的术语回答问题。"Java 代码读取:
@RestController@RefreshScope// Nacos 动态刷新注解publicclassAiController{privatefinalChatClientchatClient;@Value("${app.prompt.system}")privateStringsystemPrompt;publicAiController(ChatClient.Builderbuilder){this.chatClient=builder.build();}@GetMapping("/ask")publicStringask(@RequestParamStringquestion){// 使用 Nacos 里的 System PromptreturnchatClient.prompt().system(systemPrompt).user(question).call().content();}}效果:当你想把 AI 的人设从“架构师”改成“脱口秀演员”时,只需要在 Nacos 控制台改一下配置并发布,服务无需重启,AI 瞬间变身!
3. Sentinel 熔断限流 (省钱秘籍)
痛点:大模型 API 又慢又贵。如果并发太高,不仅 Token 烧得快,还会把线程池拖死。
方案:Sentinel 介入。
我们不需要写任何额外代码,Spring Cloud Alibaba 的 Sentinel 自动适配了 Controller。
我们可以在 Sentinel 控制台配置两条规则:
- QPS 限流:限制
/ask接口每秒只能调 10 次。超过直接拒绝,防止 Token 爆炸。 - 慢调用比例熔断:如果 AI 响应时间超过 5 秒的比例达到 50%,直接熔断降级,返回兜底话术:“AI 正在思考人生,请稍后再试”。
// 定义兜底逻辑 (BlockHandler)publicStringhandleBlock(Stringquestion,BlockExceptionex){return"系统繁忙,请稍后重试(触发 Sentinel 限流)";}💥 进阶玩法:RAG (检索增强) 其实很简单
Spring AI Alibaba 也支持 RAG。你可以直接连接阿里云的DashScope向量检索服务,或者本地的Redis Vector。
// 伪代码演示 RAGVectorStorevectorStore=...;// 注入向量数据库List<Document>similarDocs=vectorStore.similaritySearch(question);Stringcontext=similarDocs.stream().map(Document::getContent).collect(Collectors.joining("\n"));// 把查到的知识库喂给 AIStringfinalPrompt="基于以下上下文回答问题:\n"+context+"\n问题:"+question;📝 总结
Spring AI Alibaba 的出现,标志着 Java 生态在 AI 领域吹响了反攻的号角。
它不再是简单的 API Wrapper,而是将 AI 能力标准化、配置化、可治理化。
- Nacos解决了 Prompt 工程化的难题。
- Sentinel解决了 AI 调用的稳定性难题。
- Spring Boot解决了开发效率难题。
对于国内企业来说,这就是目前落地大模型应用最“正统”、最稳健的技术选型。
博主留言:
还在用 HttpClient 硬调大模型接口吗?是时候拥抱 Spring AI 了!
在评论区回复“SCA”,我发给你一份《Spring AI Alibaba 实战工程源码(含 Nacos 配置模板)》,帮你十分钟搭好 AI 微服务脚手架!