日期
作者
朗链团队
LangSmith

🔁 LangSmith 中自我完善的 LLM 评估器

日期:
作者: 朗链团队

使用“LLM 评测模型”是给 LLM 应用程序输出评分的常用方法。这涉及将生成输出传递给另一个单独的 LLM,然后要求它对输出进行判断。但是,确保 LLM 评测模型执行良好需要进行另一轮提示工程。谁来评估评估者?

LangSmith 通过允许用户更正 LLM 评估模型反馈来解决这个问题,然后将更正储存为少量样本,用于调整/改进 LLM 评测模型。在无需手动调整提示的情况下改进未来的评估,确保测试更准确。

在我们的博客中了解详情。

由 LaunchNotes 支持