示例效果
当用户上传敏感违规图片时,禁止用户上传发布,并且做出相对应的用户友好提示:
应用场景
通常,在校验一张图片是否含有违法违规内容相比于文本安全的校验,同样重要,有如下应用:
图片智能鉴黄:涉及拍照的工具类应用...access_token=ACCESS_TOKEN
检测图片审核,根据官方文档得知,需要两个必传的参数:分别是:access_token(接口调用凭证),media(要检测的图片文件)
对于HTTPS调用方式...这个根据自己的业务而定,小程序端对用户上传图片的大小是进行了限制的。如果您觉得微信官方提供的图片安全接口满足不了自己的业务需求,那么可以选择一些其他的图片内容安全校验接口。...,可以引入一些第三方的内容安全强强校验,确保内容的安全。...实现了如何对上传的图片大小进行限制,以及解决同名图片上传覆盖的问题。
如果大家对文本内容安全校验以及图片安全校验仍然有什么问题,可以在下方留言,一起探讨。