文本内容安全(Text Moderation System,TMS)主要提供文本审核服务,帮助客户审核文本中出现的可能令人反感、不安全或不适宜内容,支持用户配置词库,识别自定义识别类型的文本。
AIGC生成的文本需符合相关管理办法的要求,对违法、涉黄、暴恐等有害内容进行识别和处理,保障AI输出结果合法可用。需识别内容包括但不仅限于: