🎉 重要公告
稳定版本模块
以下模块已正式发布 1.2.0 稳定版本:langchain4j-anthropic- Anthropic Claude 模型支持langchain4j-azure-open-ai- Azure OpenAI 服务集成langchain4j-bedrock- AWS Bedrock 服务支持langchain4j-google-ai-gemini- Google Gemini AI 集成langchain4j-mistral-ai- Mistral AI 模型支持langchain4j-ollama- Ollama 本地模型运行
BOM 依赖管理
langchain4j-bom 已发布 1.2.0 版本,包含所有模块的最新版本,简化依赖管理。
⭐ 核心功能亮点
1. 支持推理/思考能力
这是本次更新的最大亮点之一。LangChain4j 现已支持模型的推理和思考过程,让 AI 能够展示其思考步骤,提供更透明和可解释的AI决策过程。 应用场景:- 复杂问题分析
- 逻辑推理链展示
- 决策过程透明化
2. 流式部分工具调用
引入了流式部分工具调用功能,允许在工具执行过程中实时获取部分结果,大幅提升用户体验。 优势:- 降低响应延迟
- 提升实时性
- 优化用户体验
3. MCP 自动资源暴露
Model Context Protocol (MCP) 新增自动将资源暴露为工具的选项,简化了资源管理和工具配置流程。4. OpenAI 增强功能
- 支持自定义聊天请求参数
- 可访问原始 HTTP 响应
- 支持 SSE (Server-Sent Events) 事件处理
🔧 AI Services 功能增强
请求转换能力
- 在发送到 LLM 之前可对
ChatRequest进行转换 - 支持自定义请求预处理逻辑
中间响应暴露
- 暴露中间
ChatResponse对象 - 便于调试和监控 AI 交互过程
Token 使用统计
- Azure OpenAI 流式聊天模型现在可报告实际的
TokenUsage - 提供更准确的资源使用统计
工具执行回调
TokenStream新增工具执行前的回调处理器- 支持工具执行生命周期管理
⚠️ 破坏性变更
Vertex AI Gemini
- 修复流式模型问题:引入
Executor使其异步化 - 可能影响现有异步处理逻辑
Azure OpenAI
- 从流式模型中移除了
TokenCountEstimator - 需要更新相关代码以适应新的 Token 统计方式
🔄 其他重要改进
Ollama 增强
- 部分思考支持
- 支持跟踪和检索模型能力
错误处理优化
- OpenAI 和 Azure OpenAI:内容过滤或拒绝时抛出
ContentFilteredException - 提供更明确的错误信息
Gemini 功能扩展
- 新增两个布尔特性配置
- 支持自定义凭证
Neo4j 功能完善
- 实体检索器
- 对话记忆
- 图构建功能
Playwright 支持
- 新增 Playwright 文档加载器支持
- 扩展了网页内容抓取能力
依赖更新
- 更新多个核心依赖版本
- 提升安全性和性能
对于新用户
直接使用 1.2.0 版本的 BOM 依赖管理:📖 总结
LangChain4j 1.2.0 版本是一个重要的里程碑版本,不仅提供了更多稳定的模块,还引入了推理能力、流式工具调用等创新功能。这些改进将显著提升 AI 应用的开发体验和用户体验。本文基于 LangChain4j 官方发布说明整理,更多详细信息请参考 官方 GitHub 仓库