,可以强制用户不能输入,发布,或者评论等,还有一种处理方式就是,针对敏感词汇,用*号进行替代,如下所示
?...(敏感词汇用特殊符号处理)
那这个究竟是怎么实现的呢?...事件的触发应该是在失去焦点的时候,就进行常规自定义文文本内容校验的
/**
*
* 您也是可以单独将自定义的违规词汇放到一个utils文件,单独js文件当中,通过export的方式导出来,在想要使用的地方引入进去也是可以的...,若很多个模块涉及到用户自发表内容,那么是可以弄一个前端弱校验敏感接口的,一方面是方便运营人员,手动进行添加特殊敏感词汇,另一方面是不用频繁动代码
如果使用了接口,那么就增加了API的请求,体验流畅性就会降低...,因为请求接口,是需要时间的
如果把违规词收集写死放在小程序端,这种方式是不会请求API的,两种方式各有利弊 适合自己的业务才是最好的
不过在大型的项目里,若软件应用要求比较高,一般都是支持运营人员手动可以添加和删除敏感词汇的