跳到主要内容

3 篇博文 含有标签「ui」

查看所有标签

v1.21.0 版本发布

· 阅读需 4 分钟

本次版本更新聚焦于「LLM 可观测」模块,以下若无特殊说明,均为「LLM 可观测」相关功能。

新增特性(Feature)

  1. 「数据集 - 实验」模块,新增多个实验对比功能:
    1. 对比多个实验,同一个评估维度的平均分,进行整体评估。
    2. 对比同一范例不同实验的 Output 内容、自动评估结果对比。
  2. 「Prompt 管理」:同一个 Prompt 的不同版本,可以一键对比 Prompt 内容的差异。
  3. 「应用分析」模块:新增「关联功能」页面,快速展示当前应用的数据都被哪些功能所使用。
  4. 「人工评估」、「自动评估」、和「Prompt 管理」模块的列表,新增与之相关的“关联应用”或“关联数据集”。使得不同模块之间的数据关联更加清晰。

v1.21.0 版本发布

· 阅读需 5 分钟

重大更新(Breaking Changes)

重大更新

Lighthouse 的「LLM 可观测」模块,正式推出「自动评估」、「数据集与实验」、「Prompt 调试」三大功能。

  • 自动评估

Lighthouse 的 LLM 可观测模块的自动评估功能,是基于评估器(Evaluator)实现的。通过评估器,可以配置评估的目标数据、评估模型、评估维度,按照设定的规则,对目标数据进行自动给出合适的评分值。有效解决了人工评估效率低、准确性不足的问题。帮助企业在开发和优化 LLM 应用过程中精准定位需求,快速调整策略,从而加速产品迭代,确保应用的性能和功能符合业务目标。

目前,Lighthouse 支持对应用的 Trace 数据、数据集进行自动评估。同时,系统内置了多种常用的评估维度模板,提高用户上手速度。

  • 数据集与实验

「数据集」指的是一组用于评估大模型在特定任务上的输出表现,这些数据集通常包含一系列的输入内容(Input)和输出参考答案(Reference Output)。其作用是帮助开发者评估 LLM 应用,是否达到预期效果。

基于数据集,便可以进行「实验」。实验是指,通过组合数据集、Prompt、模型设置、评估器(可选),实现在给定的 Prompt 下,对模型输入范例的 Input 内容,得到模型返回的 Output 内容。若配置了评估器,还会对每条数据进行评估,并给出评分值。通过分析实验结果,可以找到优化 LLM 应用效果的方向,获得有助于业务决策的信息。

  • Prompt 调试

在开发 LLM 应用的过程中,高质量的提示词(Prompt)是至关重要的一环。Prompt 内容和模型的合理搭配,可以最大限度地激发模型的潜能,满足多样化、个性化的应用场景。

Lighthouse 的「Prompt 调试」功能,可以让您无需切换工具或编写代码,便可轻松调试和优化您的 Prompt。通过调整 Prompt 内容和模型设置,可以实时查看不同模型对不同 Prompt 变更的响应,从而快速找到优化方向,极大提高工作效率。

v1.8.0 版本发布

· 阅读需 2 分钟

新增特性(Feature)

  1. 部署
    1. 新增 K8s 方式在线部署安装
    2. 打印探针执行日志,便于排障
  2. 告警:告警记录详情页,展示触发时的策略配置信息,以减少误导
  3. 文档:新增 eBPF agent 部署文档 【eBPF】Agent 安装
  4. 其他
    1. 平台显示版本号,便于排障
    2. 调用链、日志详情页的属性列表,增加自定义置顶功能,满足用户个性化关注重点