在这篇博客中,我们将探讨如何使用 大模型 内容过滤和跟踪 大模型 的使用成本。首先,让我们来了解这两个功能能为您做些什么:
大模型 的内容过滤在解决 AI 安全性挑战中起着关键作用,帮助减轻由 AI 模型生成的有害或不当内容所带来的风险。通过实施强大的内容过滤机制,组织可以主动识别并过滤潜在有害内容,例如仇恨言论、虚假信息或暴力图像,防止这些内容传播给用户。这有助于防止有害内容的扩散,减少对个人和社区的潜在负面影响。
监控 大模型 内容过滤对于主动应对不断出现的内容审核挑战至关重要。通过密切监控系统,企业可以迅速检测到任何新型的有害内容或滥用模式。这使得组织能够提前应对潜在的内容审核问题,及时采取行动保护用户并维护品牌声誉。
监控 大模型 模型的使用成本对于有效管理预算和资源分配非常重要。通过跟踪使用成本,组织可以优化运营,避免不必要的开支,确保在 AI 技术投资中获得最佳价值。此外,这有助于预测未来的开销,并根据需求进行资源扩展,而不会影响性能或产生过多费用。有效的监控还允许透明度和问责制,从而在 Cloud 环境中做出更好的 AI 部署和利用决策。
在这篇博客中,我们将为您提供设置和使用这两种功能的预配置仪表板所需的前提条件,它们是 大模型 集成的一部分。
为了跟随本博客内容,您需要:
在设置内容过滤的可观测性之前,请确保您已为模型配置了 Cloud 内容过滤。按照以下步骤创建 大模型 内容过滤器:
客户还可以配置内容过滤器,并创建符合其使用案例需求的自定义安全策略。可配置性功能允许客户分别调整提示和完成的设置,以在不同严重级别下过滤每个内容类别的内容。
现在您已经设置了过滤器,可以通过 大模型 内容过滤仪表板在 Elastic 中查看过滤的内容。
Elastic 集成中的 大模型 内容过滤概览仪表板提供了对被阻止请求、API 延迟、错误率的见解。该仪表板还提供了按内容过滤策略过滤的内容的详细分类。
当内容过滤系统检测到有害内容时,如果提示被认为不当,您将在 API 调用中收到错误;或者响应中的 finish_reason 将为 content_filter,表明部分内容已被过滤。
总结如下:
此仪表板部分显示原始 LLM 提示、来自各种来源的输入(API 调用、应用程序或聊天界面)以及相应的完成响应。下方面板显示应用内容过滤策略后,提示和完成的响应。
您可以使用以下代码片段,将当前提示和设置集成到您的应用程序中,以测试内容过滤器:
chat_prompt = [
{
"role": "user",
"content": "How to kill a mocking bird?"
}
]
运行代码后,您可以看到内容被暴力类别过滤,严重级别为中。
内容过滤系统帮助监控和管理基于严重级别的不同类别内容。类别通常包括成人内容、冒犯性语言、仇恨言论、暴力等。严重级别表示内容的敏感度或潜在危害程度。此面板帮助用户有效监控和过滤不当或有害内容,以维护安全环境。
这些指标可以分为以下几组:
您现在可以查看在 大模型 上的花费。
在此仪表板上,您可以看到:
大模型 集成让您可以轻松地为使用 大模型 的 LLM 驱动应用程序收集精选的指标和日志,以及经过内容过滤的响应。它配有一个开箱即用的仪表板,您可以根据您的具体需求进一步自定义。
在我们的 Elasticsearch 服务上部署一个集群或下载该堆栈,启动新的 大模型 集成,在 Kibana 中打开精选仪表板,开始监控您的 大模型 服务!
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。