首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

数据产品的竞品分析怎么做

有和一些产品经理交流过关于竞品分析的体会,他们的问题相信你也曾经遇到过。 一、数据产品竞品分析的困惑 何时做分析,需求评审时却经常被开发或领导Diss,你知道竞品是怎么做的么?...竞品分析究竟什么时候、以什么样的频次去做呢? 竞品找不到,数据产品一般面向企业内部用户,因数据安全、商业机密等因素,内部产品资料很少对外共享。...先找到所需要的数据集,利用自助分析页面进行维度、度量、图表类型的选择及样式配置,再将图表组合成一个专题的可视化页面。相应的产品的信息结构包括:数据管理、自助分析、看板管理、以及系统管理等。...三、总结:数据产品竞品四要三不要 竞品分析的文章很多,本文主要结合数据产品的特性分享数据产品竞品分析的技巧,除了讲到的五个步骤三个方法外,还有几点建议,希望对你未来的数据产品工作有所帮助: 四要: 要养成定期做竞品分析的习惯...不要罗列功能缺少洞见,知道竞品是做什么的有什么功能不是目标,重要的是优缺点判断以及你准备怎么做的结论。 在做竞品分析过程中,你最常用的分析方法是什么,分析过程曾遇到过哪些困惑,是如何解决的呢?

1.3K21

提升DAU,数据分析怎么做

更糟糕的是:很多涨跌,只是单纯的开发埋点没做好,数据丢失等脑残问题导致的,没啥有价值发现。 当业务方来问:那我要拉升DAU,能做啥? 数据分析师只能颤颤巍巍的答道:要!搞!高!...问题在于: 第一:这些手段运营自己都知道,根本不需要数据分析 第二:手段真管用?...大部分都是“人走茶凉”型的,治标不治本 那么,站在数据分析角度,如何摆脱像布谷鸟一样,每天喊“涨啦,跌啦”,真正分析出解决问题的关键呢?...这样的话,在做好用户分类与场景划分以后,可以根据现有活动/信息的相应情况,做出对应。观察哪些用户没有被覆盖,有哪些用户发生了偏差,有待优化(如下图)。...数据分析的价值,在于在盲目推广中,找到更多刚性需求,从而降低成本,用更贴近用户需求的方法保持活跃。 只不过这样做,需要商品/活跃/优惠/内容/用户等方面,大量的基础数据建设。

76320
您找到你想要的搜索结果了吗?
是的
没有找到

提升DAU,数据分析怎么做

DAU涨啦,DAU又降啦; DAU又涨了,DAU又降啦…… 大量数据分析师的工作,就消耗在这种无聊的叨叨中。更糟糕的是:很多涨跌,只是单纯的开发埋点没做好,数据丢失等脑残问题导致的,没啥有价值发现。...数据分析师只能颤颤巍巍的答道:要!搞!高! 今天系统讲解下,这个僵局怎么破。...问题在于: 第一:这些手段运营自己都知道,根本不需要数据分析 第二:手段真管用?...大部分都是“人走茶凉”型的,治标不治本 那么,站在数据分析角度,如何摆脱像布谷鸟一样,每天喊“涨啦,跌啦”,真正分析出解决问题的关键呢?...这样的话,在做好用户分类与场景划分以后,可以根据现有活动/信息的相应情况,做出对应。观察哪些用户没有被覆盖,有哪些用户发生了偏差,有待优化(如下图)。

64430

数据分析怎么做才能“可执行”

数据分析师作为第三方角色,可以输出更有说服力的答案。...站在数据分析角度,关注的不是某个具体idea,而是哪个套路更管用。所谓:方向不对,努力白费。结合数据,找到更好的套路,才是数据分析的作用方式。 想找套路,就要先研究套路。...这里需要数据分析师对常用的业务套路所有了解。比如在线课程,是有常用推广方式的: ?...当然,这种层层递进的逻辑方法,也是数据分析的短板。从经验上看,数据分析师做的方案往往倾向于保守,往往缺少创意,这些都是太过理性的后遗症。而实际上商业成功往往不是理性的结果。...然而,数据分析的独特吸引力也在这里。你会发现创意、机智、魅力是天生的,权力、运气可遇不可求的,胆识加在蠢人身上就是灾难。唯独数据分析能力是可以通过学习、训练、实验、记录来不断提升的。

61910

数据分析怎么做才够“精准”

“用数据分析,精准定位用户,精准发现用户需求,精准推荐产品”是很多很多地方都在吹的故事。...好在互联网平台能记录数据,这也就是通过数据实现精准分析的前提。 ? 因此,精准不是一个绝对值,而是一个相对概念。...6 实现精准分析的步骤 正因为影响精准度的环节有很多,所以在实际开展项目的时候,一定要先清晰精准的目标,梳理业务流程,了解当前数据现状,了解业务方能在业务流程里做哪些事。...数据分析实现精准是需要过程,需要时间,需要经验积累的。把明显的问题先处理好,不然有太多的细节可以让人沉迷,最后也看不到效果改进。 这里做数据的新手很容易犯一个问题,就是:不看场景,直接怼模型。...所以业务方不要企图在精准营销之类工作中当甩手掌柜,认真的分享营销计划、投入费用、作战意图、内容创作、和数据分析共创,才是更好的提升之道。

66430

SEO工作中怎么做数据分析

数据分析是SEO优化中一项非常重要的工作,数据分析是以现有网站的内容为基础,分析那些内容是用户点击比较多以及哪些内容用户更加受欢迎。从而更多展示用户喜欢的内容,降低网站的跳出率增加网站黏性。...数据分析能从很大程度上促进网站关键词排名。 1:发现问题。数据分析的前提是发现问题,如果只是盲目的寻找不同是难以发现数据体现的问题的。...关于网站的各种问题都可以提出然后带着问题去分析数据。 2:分析pv、uv、ip、跳出率和平均访问时长 pv、uv、ip是互相关联的。...4:.受访页面、着陆页和搜索词 分析受访页面可以看出推广、外链以及内链效果,分析搜索词可以得出现在内容排名效果。受访页面和搜索词结合分析就是推广、外链和内链布局的真实效果。...(2)页面上下游是体现用户浏览网页的轨迹,从上下游的数据可以统计布局的内链用户点击最多的文章是哪一篇,以及哪些页面的跳出率高。页面上下游数据最能说明内链布局效果。

45630

【大数据哔哔集20210117】Hive大关联小到底该怎么做

原理 当一个大和一个或多个小做JOIN时,最好使用MAPJOIN,性能比普通的JOIN要快很多。另外,MAPJOIN 还能解决数据倾斜的问题。...MAPJOIN的基本原理是:在小数据量情况下,SQL会将用户指定的小全部加载到执行JOIN操作的程序的内存中,从而加快JOIN的执行速度。...另外,MAPJOIN 还能解决数据倾斜的问题。MAPJOIN的基本原理是:在小数据量情况下,SQL会将用户指定的小全部加载到执行JOIN操作的程序的内存中,从而加快JOIN的执行速度。...OR连接多个条件; * 目前ODPS在MAPJOIN中最多支持指定6张小,否则报语法错误; * 如果使用MAPJOIN,则所有小占用的内存总和不得超过512M(解压后的逻辑数据量)。...]之间调整 案例 这个例子比较综合,既涉及到了数据倾斜问题,又涉及到当“小”不是很小时(>512M)如何利用mapjoin。

2.3K10

数据分析,该怎么做才能超出预期?

有同学问:每次做的数据分析报告,业务方看了不是说“我早知道了”,就是说“你这不符合业务常识”。搞得人很郁闷。...很有可能在数据分析中根本回应不到这些结论,或者简单的鹦鹉学舌再重复一遍,这就会导致开篇的:“我早知道了”、“不符合业务常识”等问题。所以进行事先沟通,了解情况非常重要。...虽然嘴上不说,但内心里还是会认可分析的价值。 从问题出发,到行动结束 上边只是个简单的例子,还有更多可以深入的地方。有些同学看了会说:老师,这些看数据的维度,我们BI里也有。是滴,罗列数据是很简单的。...然而问题是,这样单纯的罗列没有任何逻辑,没有回答任何业务方疑问,没有引导业务方思考,它就只是一张张数据而已。在没有逻辑的时候,甚至列的数据越多越招人嫌。...做数据分析,要从具体问题出发,到一个指向业务的行动结束。想要超出业务期望,当然得了解具体业务期望是什么,解答他们的问题,帮他们发现更深层的问题。

54210

数据分析,该怎么做才能超出预期?

有同学问:每次做的数据分析报告,业务方看了不是说“我早知道了”,就是说“你这不符合业务常识”。搞得人很郁闷。...很有可能在数据分析中根本回应不到这些结论,或者简单的鹦鹉学舌再重复一遍,这就会导致开篇的:“我早知道了”、“不符合业务常识”等问题。所以进行事先沟通,了解情况非常重要。...虽然嘴上不说,但内心里还是会认可分析的价值。 从问题出发,到行动结束 上边只是个简单的例子,还有更多可以深入的地方。有些同学看了会说:老师,这些看数据的维度,我们BI里也有。是滴,罗列数据是很简单的。...然而问题是,这样单纯的罗列没有任何逻辑,没有回答任何业务方疑问,没有引导业务方思考,它就只是一张张数据而已。在没有逻辑的时候,甚至列的数据越多越招人嫌。...做数据分析,要从具体问题出发,到一个指向业务的行动结束。想要超出业务期望,当然得了解具体业务期望是什么,解答他们的问题,帮他们发现更深层的问题。

45530

数据分析,该怎么做才能超出预期?

有同学问:每次做的数据分析报告,业务方看了不是说“我早知道了”,就是说“你这不符合业务常识”。搞得人很郁闷。...很有可能在数据分析中根本回应不到这些结论,或者简单的鹦鹉学舌再重复一遍,这就会导致开篇的:“我早知道了”、“不符合业务常识”等问题。所以进行事先沟通,了解情况非常重要。...虽然嘴上不说,但内心里还是会认可分析的价值。 从问题出发,到行动结束 上边只是个简单的例子,还有更多可以深入的地方。有些同学看了会说:老师,这些看数据的维度,我们BI里也有。是滴,罗列数据是很简单的。...然而问题是,这样单纯的罗列没有任何逻辑,没有回答任何业务方疑问,没有引导业务方思考,它就只是一张张数据而已。在没有逻辑的时候,甚至列的数据越多越招人嫌。...做数据分析,要从具体问题出发,到一个指向业务的行动结束。想要超出业务期望,当然得了解具体业务期望是什么,解答他们的问题,帮他们发现更深层的问题。

40020

toB和toC业务,数据分析怎么做

很多同学很疑惑:为什么我做的数据分析和别人讲的差别那么大???有一个重要的原因,是数据分析的问题场景不一样。...而很多toB企业的数字化程度很低,沟通过程基本都靠销售自己完成,导致过程数据严重缺失。数据缺失,自然导致数据分析师很难分析出啥东西了。 其次,在toC业务里,线上业务和线下业务是两大有差异场景。...线下业务数据量很少,很多时候,连基础的RFM分析都做不了(因为没有用户ID),相当多的线下业务,是基于订单、工单、采购单等单据进行分析的,这一点让习惯了线上数据的同学们非常难受。...数据来源,运营方式,分析思路都不同。 所以,想做数据分析做得深入,具体问题,具体分析这八个字是非常重要的。具体到一个业务场景里,就容易讨论清楚。...如果只浮于表面,光说:“数据分析就是做对比”,谁跟谁比,比啥指标,比出来差异又咋解释,一窍不通,自然不能分析出好结果。

60151

APT取证分析怎么做

与其他普通网络攻击不同,APT攻击的取证分析更为复杂,一般可以按照以下几个步骤来进行:1、收集取证数据:收集与攻击有关的日志文件、网络流量数据、文件系统快照、内存镜像等数据。...2、鉴别数据源:根据收集到的数据,鉴别其来源,例如是来自于网络流量、应用程序日志还是文件系统。然后将这些数据进行分类,并进行分析。...3、数据分析:对于从数据源中提取出来的数据进行分析,可以分析网络流量,检查网络连接、流量大小、流量方向和协议类型,以识别潜在的攻击流量和命令与控制(C&C)通信。...此外,APT攻击的取证分析需要具备以下技能:1、熟悉网络安全知识:需要具备深入的网络安全知识,了解APT攻击的行为和特征,能够通过分析网络流量、应用程序日志和文件系统等数据来识别APT攻击。...2、熟悉操作系统和网络设备:需要熟悉被攻击系统的操作系统和网络设备,了解其日志格式和数据结构,能够根据日志数据分析攻击行为。

48220

数据分析怎么做才能有前瞻性

其实只有一年的数据完全不说明问题,但是人们就是会很惯性的认为:过去跌的就一定跌,过去涨的就一定涨,特别出现这种5432顺序排列的数据,惯性的就会认为下个数字是1……其实这正是数据分析要打倒的大敌。...所以单纯用惯性思维判断,完全没有体现数据分析的价值,做的结论还极有可能是错误的。 错误三:习以为常。...还是上图数据,很多同学看了三年趋势,然后脱口而出:因为过去6月份会涨,所以今年6月份也会涨……这种说法,很有可能被业务评价为:我早知道了!你分析了啥!...虽然没有精确的数据或模型,但是能通过分析,判断未来走势(相对应的,建数据模型详细计算的是定量预测)。 做预测的关键,是找到影响未来的因素。这些影响因素,才是支撑指标曲线的真正支柱。...比如很多做数据分析的同学只看数据类文章,公众号只关注《数据分析XX》《数据挖掘XX》《python XX》反而每天沉迷在数字和代码里,对行业发生了什么看都看不到很容易被批了。

1K20

怎么做数据分析数据分析的这些环节你不得不知

很多刚开始做数据分析的朋友,不知道数据分析该如何下手,更不知道一个完整的数据分析流程有哪些环节。...数据分析的流程比较简单,主要包括以下六个环节:明确分析目的、数据获取、数据处理、数据分析数据可视化、结论与建议。 一、明确数据分析的目的 做事都是有目的的,数据分析也是。...在数据分析之前,我们首先要清楚为什么要进行数据分析?...四、数据分析 在上面的准备阶段后,我们需要明确数据分析思路,数据分析思路即数据分析方法,数据分析是以目的为导向的,通过目的选择数据分析方法。...六、总结与建议 数据分析报告实际上是对整个数据分析过程的总结和呈现。

58100

.NET ORM 分分库【到底】怎么做

一、理论知识 分 - 从表面意思上看呢,就是把一张分成N多个小,每一个小都是完正的一张。分数据都是存放在分表里,总表只是一个外壳,存取数据发生在一个一个的分表里面。...分库 - 把原本存储于一个库的数据分块存储到多个库上,把原本存储于一个数据分块存储到多个上。...数据库中的数据量不一定是可控的,在未进行分分库的情况下,随着时间和业务的发展,库中的会越来越多,中的数据量也会越来越大,相应地,数据操作,增删改查的开销也会越来越大;另外,一台服务器的资源(CPU...、磁盘、内存、IO等)是有限的,最终数据库所能承载的数据量、数据处理能力都将遭遇瓶颈 二、情怀满满 分、分库在 .NET 下可谓是老大难题,简单点可以使用类似 mycat 中间件,但是就 .NET 平台的自身生态...本人就自身有限的技术水平和经验,对分、分库进行分析,实现出自成一套的使用方法,虽然不极 sharding-jdbc 强大,但是还算比较通用、简单。

54210

毫秒级从百亿大任意维度筛选数据,是怎么做到的…

本文提供了一种解决大数据场景下的高效数据筛选、统计和分析方法,从亿级别数据中,任意组合查询条件,筛选需要的数据,做到毫秒级返回。...2、技术选型分析 从技术角度分析,我们这个业务场景有如下特点: 需要支持任意维度的组合(and/or)嵌套查询,且要求低延迟; 数据规模大,至少亿级别,且需要支持不断扩展; 单条数据指标维度多,至少上百...因此,一般会采用分库分的方式,把数据规模控制在百万级。 查询效率瓶颈:mysql对于常用的条件查询,需要单独建立索引或组合索引。非索引字段的查询需要扫描全,性能下降明显。...综上分析,我们的应用场景,并不适合采用行存储数据 库,因此我们重点考虑列存数据库。 2.2 行式存储与列式存储 下面简单对比一下行式存储与列式存储的特点: ?...行存适合近线数据分析,比如要求查询中某几条符合条件的记录的所有字段的场景。列存适合用于数据的统计分析

2.3K40

数据分析中Redis怎么做到220万ops

数据时代,海量数据分析就像吃饭一样,成为了我们每天的工作。为了更好的为公司提供运营决策,各种抖机灵甚至异想天开的想法都会紧跟着接踵而来!...业务多变,决定了必须每天修改系统,重新跑数据,这就要求极高的海量数据读取和存储速度! 公司每天增加几亿行的业务日志数据,我们需要从中分析出各种维度的业务画像。...Redis怎么做到220万ops 1,Redis是单线程模型,因此32核心服务器安装32个实例 2,数据分片,key散列后均分到几十个实例上 3,关闭持久化,运维和Linux保证可靠性 4,控制好数据包大小...经过大量验证,同样32核心服务器,数据库3巨头一般得到20000qps的查询速度和接近10000tps的写入速度。这是按照单几百万数据有两个索引的情况测试。...大数据分析,有很多是临时数据,需要合并、叠加、去重等等,它们的生命周期不长,一般24小时或48小时,也有不少是两三个小时,关键是数据量还特别大,每天几千万很常见。这类数据,写数据库是很不合适的。

1.9K61
领券