OpenLLMetry 简介
OpenLLMetry[1] 是一个基于OpenTelemetry的开源可观测性工具,专为LLM(Large Language Models,大型语言模型)应用设计。它提供了一套扩展,可以帮助开发者全面监控和管理他们的LLM应用。


项目特点
主要特点
-
基于OpenTelemetry:利用OpenTelemetry的底层能力,可以轻松连接到现有的可观测性解决方案,如Datadog、Honeycomb等。 -
易于集成:提供SDK,简化了与OpenLLMetry的集成过程,同时输出标准OpenTelemetry数据。 -
支持多种目的地:支持多种观测数据目的地,包括Traceloop、Dynatrace、Datadog、New Relic等。 -
自定义扩展:除了OpenTelemetry的标准监控外,还提供了针对LLM提供商和向量数据库的自定义扩展。
使用场景
OpenLLMetry适用于需要监控和管理大型语言模型应用的场景,尤其是在需要深入了解模型性能和行为的场合。它可以帮助开发者追踪和优化模型的调用,以及监控与模型交互的API和数据库。
项目使用
Traceloop支持Python、JavaScript / TypeScript,Go和Ruby处于Beta阶段,Java和Elixir正在开发中。以下是Python SDK的基本安装和使用。
安装与使用
-
安装SDK:
pip install traceloop-sdk
-
在代码中初始化Traceloop:
from traceloop.sdk import Traceloop
Traceloop.init()
如果需要立即查看追踪结果,可以禁用批处理发送:
Traceloop.init(disable_batch=True)
工作流装饰器
使用OpenLLMetry提供的装饰器来注释你的代码中的工作流。这有助于在Traceloop仪表板上追踪和监控工作流的执行。
from traceloop.sdk.decorators import workflow
@workflow(name="suggest_answers")
def suggest_answers(question: str):
...
@aworkflow(name="summarize")
async def summarize(long_text: str):
...
项目资源
-
官方文档[2] -
Demo地址[3] -
安装指南[4] -
集成指南[5] -
Slack社区[6] -
Twitter[7]
注:本文内容仅供参考,具体项目特性请参照官方 GitHub 页面的最新说明。
欢迎关注&点赞&在看,感谢你的阅读~
Github地址: https://github.com/traceloop/openllmetry
[2]
官方文档: https://traceloop.com/docs/openllmetry/introduction
[3]
Demo地址: https://app.traceloop.com
[4]
安装指南: https://traceloop.com/docs/openllmetry/getting-started-python
[5]
集成指南: https://traceloop.com/docs/openllmetry/integrations/introduction
[6]
Slack社区: https://traceloop.com/slack
[7]
Twitter: https://twitter.com/traceloopdev
原文始发于微信公众号(AIGC创想者):3.1K+ Star!OpenLLMetry:一个开源的LLM应用可观测性工具
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
文章由极客之音整理,本文链接:https://www.bmabk.com/index.php/post/314968.html