腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
返回腾讯云官网
斑斓
张逸的技术分享
专栏作者
举报
256
文章
255813
阅读量
60
订阅数
订阅专栏
申请加入专栏
全部文章(256)
设计(43)
架构(40)
系统(38)
服务(28)
其他(24)
领域驱动设计(24)
java(23)
scala(23)
微服务(23)
模型(21)
对象(19)
uml(17)
编程算法(14)
spark(13)
系统架构(13)
大数据(12)
开发(12)
数据(11)
架构设计(10)
软件架构(10)
企业(9)
数据库(8)
sql(8)
数据处理(8)
ddd(8)
存储(7)
测试(7)
软件(7)
网关(7)
接口(6)
框架(6)
python(5)
linux(5)
程序员(5)
事件(5)
ruby(4)
运维(4)
工具(4)
管理(4)
函数(4)
实践(4)
erlang(3)
react(3)
ide(3)
api(3)
人工智能(3)
分布式(3)
单元测试(3)
编程(3)
产品(3)
工作(3)
科技(3)
生命周期(3)
事务(3)
重构(3)
机器学习(2)
php(2)
android(2)
mvc(2)
git(2)
unix(2)
spring(2)
神经网络(2)
深度学习(2)
电商(2)
http(2)
容器(2)
网络安全(2)
jdk(2)
敏捷开发(2)
微信(2)
小程序(2)
数据分析(2)
https(2)
it(2)
程序(2)
登录(2)
基础(2)
架构模式(2)
开发者(2)
通信(2)
性能(2)
需求分析(2)
iphone(1)
javascript(1)
go(1)
actionscript(1)
angularjs(1)
xml(1)
ecmascript(1)
汇编语言(1)
nosql(1)
云数据库 Redis(1)
postgresql(1)
apache(1)
mapreduce(1)
访问管理(1)
命令行工具(1)
消息队列 CMQ 版(1)
cci 持续集成(1)
短信(1)
腾讯云测试服务(1)
mongodb(1)
svg(1)
redux(1)
lodash(1)
游戏(1)
自动化(1)
缓存(1)
数据迁移(1)
jvm(1)
aop(1)
markdown(1)
dubbo(1)
rpc(1)
数据结构(1)
canvas(1)
kafka(1)
性能测试(1)
flink(1)
agile(1)
dsl(1)
null(1)
twitter(1)
报表(1)
编程语言(1)
变量(1)
并发(1)
博客(1)
部署(1)
插件(1)
低代码(1)
反射(1)
分布式事务(1)
服务器(1)
公众号(1)
函数式编程(1)
行业(1)
后台(1)
继承(1)
集合(1)
计算机(1)
架构师(1)
脚本(1)
接口设计(1)
进程(1)
客户端(1)
可视化(1)
快捷键(1)
模块化(1)
内存(1)
配置(1)
企业应用(1)
前端(1)
求职(1)
日志(1)
软件开发(1)
设计模式(1)
摄像头(1)
思维导图(1)
搜索(1)
线程(1)
线程安全(1)
效率(1)
异常(1)
异常处理(1)
语法(1)
原理(1)
注解(1)
搜索文章
搜索
搜索
关闭
PySpark分析二进制文件
spark
linux
python
https
客户需求 客户希望通过spark来分析二进制文件中0和1的数量以及占比。如果要分析的是目录,则针对目录下的每个文件单独进行分析。分析后的结果保存与被分析文件同名的日志文件中,内容包括0和1字符的数量与占比。 要求:如果值换算为二进制不足八位,则需要在左侧填充0。 可以在linux下查看二进制文件的内容。命令: xxd –b –c 1 filename 命令参数-c 1是显示1列1个字符,-b是显示二进制。 遇到的坑 开发环境的问题 要在spark下使用python,需要事先使用pip安装pyspark。
张逸
2018-03-07
1.7K
0
Spark Submit的ClassPath问题
spark
需求场景: 我们的产品需要与客户的权限系统对接,即在登录时使用客户的认证系统进行认证。集成认证的方式是调用客户提供的jar包,调用userService的authenticate方法。同时,还需要在classpath中提供密钥的key文件。 从需求看,这个集成并不复杂,且客户也提供了较翔实的接口文档与示例案例,开发工作量非常小。唯一的阻碍是客户有安全要求,内部的Jar包及其他文件都不能拷贝出来,而我们的开发环境是不能连接客户内网的。客户提供的Jar包并没有通过Maven来管理,我们只能采用直接导入的方式。在
张逸
2018-03-07
4.1K
0
我们的产品架构
大数据
spark
sql
本文是我在中生代技术群分享的话题《创业一年经历的技术风雨》中的第一部分《产品架构与技术选型》的第一部分。 整体架构 我们的产品代号为Mort(这个代号来自电影《马达加斯加》那只萌萌的大眼猴),是基于
张逸
2018-03-07
903
0
Martin Odersky访谈录所思
spark
scala
ThoughtWorks的「TW洞见」在4月发布了对Scala之父Martin Odersky的访谈。Odersky的回答显得言简意赅,仔细分析,仍然能从中收获不少隐含的信息(虽然可能是负面的信息)。 提问的中心主要是语言之争。Scala是一门极具吸引力的语言,似乎天生具备一种气质,轻易能够吸粉,但招黑的能力也不遑多让。它似乎是从象牙塔里钻研出来的,但又在许多大型项目和产品中得到了实践。有人转向了她,又有人之后背弃了它。如果说Ruby的助力是Rails,那么推动着Scala在社区中成长的,其实到处可见Spa
张逸
2018-03-07
826
0
Spark强大的函数扩展功能
spark
在数据分析领域中,没有人能预见所有的数据运算,以至于将它们都内置好,一切准备完好,用户只需要考虑用,万事大吉。扩展性是一个平台的生存之本,一个封闭的平台如何能够拥抱变化?在对数据进行分析时,无论是算法也好,分析逻辑也罢,最好的重用单位自然还是:函数。 故而,对于一个大数据处理平台而言,倘若不能支持函数的扩展,确乎是不可想象的。Spark首先是一个开源框架,当我们发现一些函数具有通用的性质,自然可以考虑contribute给社区,直接加入到Spark的源代码中。 我们欣喜地看到随着Spark版本的演化,确实涌
张逸
2018-03-07
2.1K
0
Spark 1.4为DataFrame新增的统计与数学函数
spark
Spark一直都在快速地更新中,性能越来越快,功能越来越强大。我们既可以参与其中,也可以乐享其成。 目前,Spark 1.4版本在社区已经进入投票阶段,在Github上也提供了1.4的分支版本。最近,Databricks的工程师撰写了博客,介绍了Spark 1.4为DataFrame新增的统计与数学函数。这篇博客介绍的函数主要包括: 随机数据生成(Random Data Generation) 概要与描述性统计(Summary and descriptive statistics) 协方差与相关性(Sa
张逸
2018-03-07
1.2K
0
Spark发布1.3.0版本
spark
3月13日,Spark 1.3.0版本与我们如约而至。这是Spark 1.X发布计划中的第四次发布,距离1.2版本发布约三个月时间。据Spark官方网站报道,此次发布是有史以来最大的一次发布,共有174位开发者为代码库做出贡献,提交次数超过1000次。 此次版本发布的最大亮点是新引入的DataFrame API。对于结构型的DataSet,它提供了更方便更强大的操作运算。事实上,我们可以简单地将DataFrame看做是对RDD的一个封装或者增强,使得Spark能够更好地应对诸如数据表、JSON数据等结构型数
张逸
2018-03-07
836
0
Spark SQL访问Postgresql
spark
sql
postgresql
随着Spark SQL的正式发布,以及它对DataFrame的支持,它可能会取代HIVE成为越来越重要的针对结构型数据进行分析的平台。 随着Spark SQL的正式发布,以及它对DataFrame的支
张逸
2018-03-07
1.6K
0
选型的目光瞄准Spark
spark
在Spark社区,众多参与者已经在为Spark 1.4.0(RC2)推出的特性投票了。我之遗憾,在于我们暂时还未参与这项工程的创造工作;我之欣喜,在于我们可以毫无顾虑地借用它;最后,得以帮助这座大集市在人声鼎沸中彰显不羁的个性。 ♦ ♦ 在大数据分析平台,我们选择了Spark。这源于它的效率,它的快速演化,更在于我对它的偏爱。在理性挑选的基础上,感情的抉择成了火箭发射时最后一级的助力。 从最早对0.9版本的使用到现在的1.3.1,我亲眼所见Spark迅猛的发展。它发力于通用与性能两大亮点之上,使得自己在众多
张逸
2018-03-07
619
0
大数据 | Spark中实现基础的PageRank
大数据
spark
吴军博士在《数学之美》中深入浅出地介绍了由Google的佩奇与布林提出的PageRank算法,这是一种民主表决式网页排名技术。书中提到PageRank的核心思想为: 在互联网上,如果一个网页被很多其他网页所链接,说明它受到普遍的承认和信赖,那么它的排名就高。 同时,该算法还要对来自不同网页的链接区别对待,排名越高的网页,则其权重会更高,即所谓网站贡献的链接权更大。 例如网页Y被X1,X2,X3,X4四个网页所链接,且这四个网页的权重分别为0.001,0.01,0.02,0.04,则网页Y的Rank值=0.0
张逸
2018-03-07
1.3K
0
框架 | Spark中的combineByKey
spark
在数据分析中,处理Key,Value的Pair数据是极为常见的场景,例如我们可以针对这样的数据进行分组、聚合或者将两个包含Pair数据的RDD根据key进行join。从函数的抽象层面看,这些操作具有共同的特征,都是将类型为RDD[(K,V)]的数据处理为RDD[(K,C)]。这里的V和C可以是相同类型,也可以是不同类型。这种数据处理操作并非单纯的对Pair的value进行map,而是针对不同的key值对原有的value进行联合(Combine)。因而,不仅类型可能不同,元素个数也可能不同。 Spark为此提
张逸
2018-03-07
954
0
大数据 | 理解Spark的核心RDD
大数据
spark
与许多专有的大数据处理平台不同,Spark建立在统一抽象的RDD之上,使得它可以以基本一致的方式应对不同的大数据处理场景,包括MapReduce,Streaming,SQL,Machine Learning以及Graph等。这即Matei Zaharia所谓的“设计一个通用的编程抽象(Unified Programming Abstraction)。这正是Spark这朵小火花让人着迷的地方。 要理解Spark,就需得理解RDD。 RDD是什么? RDD,全称为Resilient Distributed Da
张逸
2018-03-07
823
0
【大数据】Spark的硬件配置
大数据
spark
从MapReduce的兴起,就带来一种思路,就是希望通过大量廉价的机器来处理以前需要耗费昂贵资源的海量数据。这种方式事实上是一种架构的水平伸缩模式——真正的以量取胜。毕竟,以现在的硬件发展来看,CPU的核数、内存的容量以及海量存储硬盘,都慢慢变得低廉而高效。然而,对于商业应用的海量数据挖掘或分析来看,硬件成本依旧是开发商非常关注的。当然最好的结果是:既要马儿跑得快,还要马儿少吃草。 Spark相对于Hadoop的MapReduce而言,确乎要跑得迅捷许多。然而,Spark这种In-Memory的计算模式,是
张逸
2018-03-07
2.2K
0
没有更多了
社区活动
腾讯技术创作狂欢月
“码”上创作 21 天,分 10000 元奖品池!
立即发文
Python精品学习库
代码在线跑,知识轻松学
立即查看
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
立即体验
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
立即查看
领券
问题归档
专栏文章
快讯文章归档
关键词归档
开发者手册归档
开发者手册 Section 归档