腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
返回腾讯云官网
悦思悦读
IT技术(人工智能,大数据)和职场话题
专栏作者
举报
170
文章
222022
阅读量
49
订阅数
订阅专栏
申请加入专栏
全部文章
机器学习
人工智能
深度学习
神经网络
编程算法
NLP 服务
模型
其他
企业
数据分析
工作
大数据
数据
算法
chatgpt
数据挖掘
python
入门
教育
工程师
r 语言
图像处理
开源
机器人
数据结构
工具
互联网
论文
java
知识图谱
监督学习
微信
测试
服务
行业
求职
网络
自动驾驶
html
api
机器翻译
腾讯云测试服务
网站
金融
存储
游戏
网络安全
spark
图像识别
决策树
线性回归
安全
企业组织
it
产品
程序
程序员
函数
实践
区块链
iphone
嵌入式
oracle
apache
mapreduce
数据加密服务
文字识别
语音合成
医疗
自动化
爬虫
hadoop
卷积神经网络
强化学习
opencv
推荐系统
自动化测试
敏捷开发
无监督学习
数据处理
windows
数据可视化
物联网
sas
云计算
对话机器人
gpt
model
service
笔记
编程
变量
表格
插件
创业
地图
翻译
混合云
继承
基础
计算机
架构
脚本
教程
可视化
框架
量化
面试
苹果
软件
软件架构
设计
视频
统计
系统
性能
研发
音频
硬件
语法
原理
搜索文章
搜索
搜索
关闭
Spark为什么比Hadoop快那么多?
spark
hadoop
编程算法
mapreduce
存储
在2014年11月5日举行的Daytona Gray Sort 100TB Benchmark竞赛中,Databricks 用构建于206个运算节点之上的spark运算框架在23分钟内完成100TB数据的排序,一举击败了该赛事2013年的冠军—Yahoo团队建立在2100个运算节点之上的Hadoop MapReduce集群,该集群耗时72分钟排序了102.5TB的数据。换句话说,Spark用了十分之一的资源在三分之一的时间里完成了Hadoop做的事情。 HadoopSpark被排序数据大小102.5 TB
叶锦鲤
2018-03-15
2.1K
0
没有更多了
社区活动
腾讯技术创作狂欢月
“码”上创作 21 天,分 10000 元奖品池!
立即发文
Python精品学习库
代码在线跑,知识轻松学
立即查看
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
立即体验
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
立即查看
领券
问题归档
专栏文章
快讯文章归档
关键词归档
开发者手册归档
开发者手册 Section 归档