日期
作者
LangChain 团队
v0.9.77
LangSmith SaaS

LangSmith SDK 的端到端原生 OpenTelemetry 支持

日期:
作者: LangChain 团队

LangSmith 中引入端到端 OpenTelemetry 支持

LangSmith 现在为 LangChain 和 LangGraph 应用程序提供完整的端到端 OpenTelemetry (OTel) 支持,确保从您的应用程序代码到 LangSmith 平台的无缝可观测性。

为什么这很重要

通过我们的 OTel 支持,您将能够获得:

  • 统一的可观测性:在一个地方查看您的整个应用程序堆栈

  • 分布式追踪:跨微服务跟踪请求

  • 互操作性:通过 OpenTelemetry 标准与现有的可观测性工具集成

开始使用

  1. 安装 OpenTelemetry 支持

    pip install "langsmith[otel]" langchain
  2. 启用 OpenTelemetry 通过设置环境变量

    LANGSMITH_OTEL_ENABLED=true
    LANGSMITH_TRACING=true
    LANGSMITH_ENDPOINT=https://api.smith.langchain.com
    LANGSMITH_API_KEY=<your_langsmith_api_key>
  3. 在您的 LangChain 应用程序中使用追踪

    from langchain_openai import ChatOpenAI
    from langchain_core.prompts import ChatPromptTemplate
    
    prompt = ChatPromptTemplate.from_template("Tell me a joke about {topic}")
    model = ChatOpenAI()
    chain = prompt | model
    result = chain.invoke({"topic": "programming"})
    print(result.content)

立即试用

开始在 LangSmith 中使用 OpenTelemetry — 查看我们的文档了解更多详情: https://langsmith.langchain.ac.cn/observability/how_to_guides/trace_langchain_with_otel

由 LaunchNotes 强力驱动