Dify Docs home page
简体中文
Search...
⌘K
Ask AI
Blog
Dify
Dify
Search...
Navigation
集成外部与 Ops 工具
集成外部 Ops 工具
使用文档
插件开发
访问 API
资源
入门
欢迎使用 Dify
云服务
Dify 社区版
Dify Premium
Dify 教育版
访问 API
手册
接入大模型
构建应用
工作流
知识库
工具
发布
标注
监测
监测
集成外部与 Ops 工具
集成外部 Ops 工具
集成 Arize
集成 Phoenix
集成 Langfuse
集成 LangSmith
集成 Opik
集成 W&B Weave
数据分析
扩展
协同
管理
动手实验室
简介
初级
中级
社区
寻求支持
成为贡献者
为 Dify 文档做出贡献
插件
功能简介
快速开始
插件管理
接口定义
最佳实践
发布插件
常见问题
研发
DifySandbox
模型接入
迁移
阅读更多
应用案例
扩展阅读
常见问题
政策
开源许可
用户协议
On this page
为什么需要 LLMOps 工具
Dify 与 Ops 工具的集成
集成外部与 Ops 工具
集成外部 Ops 工具
Copy page
为什么需要 LLMOps 工具
尽管 LLM 拥有出色的推理和文本生成能力,但其内部运作机制仍然难以完全理解,这给基于 LLM 的应用开发带来了挑战。例如:
评估输出
质量
推理
成本
评估
模型响应
延迟
链式调用、Agent 和工具引入的
调试复杂
性
复杂的用户意图理解
而 LangSmith、Langfuse 这类 LLMOps 工具,能够为 LLM 应用提供全面的追踪和深度评估能力,为开发者提供从应用的原型构建到生产、运营的完整生命周期支持。
原型阶段
LLM 应用在原型构建阶段通常涉及提示词测试、模型选择、RAG 检索策略和其他参数组合的快速实验。快速了解模型的执行效果对于此阶段非常重要。接入 Langfuse 可以在跟踪 dify 应用执行的每个步骤,提供清晰的可见性和调试信息,从而让开发者快速定位问题并减少调试时间。
测试阶段
进入测试阶段后,需要继续收集数据以改进和提高性能。 LangSmith 能够将运行作为示例添加到知识库中,从而扩展实际场景的测试覆盖范围。这是将日志系统和评估/测试系统置于同一平台中的一个关键优势。
生产阶段
进入生产环境后,开发团队还需要仔细检查应用关键数据点、增加基准知识库、人工注释以及深入分析运营数据结结果。尤其是在应用大规模使用中,运营和数据团队需要持续观测应用成本和性能,对模型以及应用表现进行优化。
Dify 与 Ops 工具的集成
使用 Dify Workflow 编排 LLM 应用时,通常涵盖一系列节点和逻辑,具有较高的复杂性。
将 Dify 与外部 Ops 工具集成,有助于打破编排应用时可能面临的 LLM “黑盒”问题。开发者只需要在平台上进行简单的配置,即可追踪应用生命周期中的数据和指标,轻松评估在 Dify 上创建的 LLM 应用质量、性能和成本。
编辑此页面
|
提交问题
Was this page helpful?
Yes
No
监测
集成 Arize
Assistant
Responses are generated using AI and may contain mistakes.