专栏首页蓝天清理disuz垃圾用户信息SQL语句

清理disuz垃圾用户信息SQL语句

-- hadoop开头的是UCenter表,cdb开头的是BBS部分的表

-- 搜索出所有垃圾用户名:

select `hadoop_members`.`username` from `hadoop_members` left join `cdb_members` on `hadoop_members`.`username`=`cdb_members`.`username` where `cdb_members`.`username` is null;

select `hadoop_members`.`username` from `hadoop_members` where not exists (select `cdb_members`.`username` from `cdb_members` where `hadoop_members`.`username`=`cdb_members`.`username`);

-- 搜索出垃圾用户个数:

select count(`hadoop_members`.`username`) from `hadoop_members` left join `cdb_members` on `hadoop_members`.`username`=`cdb_members`.`username` where `cdb_members`.`username` is null;

select count(`hadoop_members`.`username`) from `hadoop_members` where not exists (select `cdb_members`.`username` from `cdb_members` where `hadoop_members`.`username`=`cdb_members`.`username`);

-- 删除垃圾用户

delete from `hadoop_members` where not exists (select 1 from `cdb_members` where `hadoop_members`.`username`=`cdb_members`.`username`);

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

我来说两句

0 条评论
登录 后参与评论

相关文章

  • error: not found: value sqlContext/import sqlContext.implicits._/error: not found: value sqlContext

    1、今天启动启动spark的spark-shell命令的时候报下面的错误,百度了很多,也没解决问题,最后想着是不是没有启动hadoop集群的问题

    别先生
  • 京东万台规模Hadoop集群 | 分布式资源管理与作业调度

    吴怡燃, 京东大数据平台高级技术专家,擅长大数据平台的资源管理与调度系统的开发与建设。目前专注于以万台分布式调度系统及深度学习平台的开发与建设。

    京东技术
  • 在腾讯云CVM上搭建Hadoop集群

    本教程将介绍如何在腾讯云CVM上搭建Hadoop集群。Hadoop中是一个Apache的框架,可以让你通过基本的编程处理跨服务器集群的分布式方式的大型数据集。H...

    林岑影
  • 最新详细hadoop集群操作系统安装教程

    虚拟机以及Linux系统安装在之前的两篇分享中已经详细的介绍了方法,并且每一步的都配图了。如果有朋友还是看不懂,那我也爱莫能助了。本篇主要就hadoop服务器操...

    IT小白龙
  • 嗨,IT小哥哥,我想问问你,我们有爱一点好不好?

    IT男,普遍会被贴上“智商极高,情商却极低”的标签,其实小宁同学也觉得IT小哥哥这个特殊的群体有些超乎寻常的高智商。

    用户1257393
  • 关于HDFS-KMS集群化部署教程,你以前看的都错了!

    吕信,京东商城基础架构部资深架构师,拥有多年数据产品研发及架构经验。在京东及国内主导过多种数据产品的开发及社区建设,积极活跃于数据产品领域,对数据库及大数据领域...

    京东技术
  • Linux巩固记录(9) keepalived+nginx搭建高可用负载分发环境

    web 192.168.2.100 再iis上启动了9011/9012/9013三个端口的web应用

    肖哥哥
  • Hadoop-2.8.0分布式安装手册

    10.12.154.79: Error: JAVA_HOME is not set and could not be found.

    一见
  • CDH中如何升级Spark

    通过上面的过程分析,可以知道,Spark版本存在两个地方:一个是A节点提交Spark-submit的程序必须是2.3.0版本的;另一个是Yarn使用的lib必须...

    用户1154259
  • Hive性能优化(全面)

    面对这些问题,我们能有哪些有效的优化手段呢?下面列出一些在工作有效可行的优化手段:

    Spark学习技巧

扫码关注云+社区

领取腾讯云代金券