前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >每天一道大厂SQL题【Day27】脉脉真题实战(三)连续两天活跃用户

每天一道大厂SQL题【Day27】脉脉真题实战(三)连续两天活跃用户

作者头像
Maynor
发布2023-07-24 20:51:23
2580
发布2023-07-24 20:51:23
举报
文章被收录于专栏:最新最全的大数据技术体系

每天一道大厂SQL题【Day27】脉脉真题实战(三)连续两天活跃用户

大家好,我是Maynor。相信大家和我一样,都有一个大厂梦,作为一名资深大数据选手,深知SQL重要性,接下来我准备用100天时间,基于大数据岗面试中的经典SQL题,以每日1题的形式,带你过一遍热门SQL题并给出恰如其分的解答。

一路走来,随着问题加深,发现不会的也愈来愈多。但底气着实足了不少,相信不少朋友和我一样,日积月累才是最有效的学习方式!

每日语录

C:\Users\ADMINI~1\AppData\Local\TemputoolsDoutuPlugin/tempImage1686573886875.gif
C:\Users\ADMINI~1\AppData\Local\TemputoolsDoutuPlugin/tempImage1686573886875.gif

学习!还是他娘地学习!

第26题 中级题: 活跃时长的均值

1. 需求列表

(1) 在过去一个月内,曾连续两天活跃的用户

(2) 有人想了解在过去一个月中,不同人才级别用户的活跃频次差异

– 什么数据可以说明该问题?请写出原因和您的思考

– 数据对应的sql是什么?

思路分析

(1) 在过去一个月内,曾连续两天活跃的用户

  1. 找到过去一个月内所有活跃的用户和日期。
  2. 计算每个用户相邻两天活跃日期之间的时间差。
  3. 筛选出时间差为1天的用户。

(2) 有人想了解在过去一个月中,不同人才级别用户的活跃频次差异

  1. 找到过去一个月内所有活跃的用户和日期。
  2. 按照用户的职业水平分组,计算每组用户的平均活跃天数。
  3. 比较不同职业水平用户组的平均活跃天数,以了解它们之间的差异。

答案获取

建议你先动脑思考,动手写一写再对照看下答案,如果实在不懂可以点击下方卡片,回复:大厂sql 即可。 参考答案适用HQL,SparkSQL,FlinkSQL,即大数据组件,其他SQL需自行修改。

加技术群讨论

点击下方卡片关注 联系我进群

或者直接私信我进群

附表

表1:maimai.dau

d

uid

module

active_duration

列说明

2020-01-01

1

jobs

324

d: 活 跃 的 日 期 uid:用户的唯一编码module:用户活跃模块actre.duration:该模块下对应的活跃时长(单位:s)

2020-01-01

2

feeds

445

2020-01-01

3

im

345

2020-01-02

2

network

765

2020-01-02

3

jobs

342

表2:maimai.users

uid

career_level

city

work_length

列说明

1

中级人才

北京

4

uid:用户的唯一编码career level:人才级别

2

高级人才

上海

7

3

初级人才

北京

1

city:用户所在城市work_length:用户工作年限

4

普通人才

平顶山

2

代码语言:javascript
复制
-- 建表
-- 表1 dau	记录了每日脉脉活跃用户的uid和不同模块的活跃时长
create	or	replace	temporary	view	dau(d,	uid,	module, active_duration) as
values ('2020-01-01', 1, 'jobs', 324),
('2020-01-01', 2, 'feeds', 445),
('2020-01-01', 3, 'im', 345),
('2020-01-02', 2, 'network', 765),
('2020-01-02', 3, 'jobs', 342);

-- 表2 users 脉脉所有用户得一些注册属性
create	or	replace	temporary	view	users(uid,	career_level, city, work_length) as
values (1, '中级人才', '北京', 4),
(2, '高级人才', '上海', 7),
(3, '初级人才', '北京', 1),
(4, '普通人才', '平顶山', 2); 

文末SQL小技巧

提高SQL功底的思路。 1、造数据。因为有数据支撑,会方便我们根据数据结果去不断调整SQL的写法。 造数据语法既可以create table再insert into,也可以用下面的create temporary view xx as values语句,更简单。 其中create temporary view xx as values语句,SparkSQL语法支持,hive不支持。 2、先将结果表画出来,包括结果字段名有哪些,数据量也画几条。这是分析他要什么。 从源表到结果表,一路可能要走多个步骤,其实就是可能需要多个子查询,过程多就用with as来重构提高可读性。 3、要由简单过度到复杂,不要一下子就写一个很复杂的。 先写简单的select from table…,每个中间步骤都执行打印结果,看是否符合预期, 根据中间结果,进一步调整修饰SQL语句,再执行,直到接近结果表。 4、数据量要小,工具要快,如果用hive,就设置set hive.exec.mode.local.auto=true;如果是SparkSQL,就设置合适的shuffle并行度,set spark.sql.shuffle.partitions=4;

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2023-07-19,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 每天一道大厂SQL题【Day27】脉脉真题实战(三)连续两天活跃用户
    • 每日语录
      • 第26题 中级题: 活跃时长的均值
        • 1. 需求列表
        • 思路分析
      • 答案获取
        • 加技术群讨论
          • 附表
            • 文末SQL小技巧
        相关产品与服务
        大数据
        全栈大数据产品,面向海量数据场景,帮助您 “智理无数,心中有数”!
        领券
        问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档