腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
首页
学习
活动
专区
工具
TVP
最新优惠活动
返回腾讯云官网
从零开始的linux
专栏成员
举报
103
文章
134645
阅读量
39
订阅数
订阅专栏
申请加入专栏
全部文章(103)
linux(33)
其他(26)
python(10)
yum(9)
nginx(7)
数据库(6)
容器镜像服务(6)
shell(6)
bash(5)
云数据库 SQL Server(5)
ssh(4)
grep(4)
node.js(3)
云数据库 Redis(3)
apache(3)
es 2(3)
容器(3)
java(2)
php(2)
git(2)
mongodb(2)
存储(2)
jdk(2)
hadoop(2)
go(1)
erlang(1)
.net(1)
html(1)
json(1)
oracle(1)
access(1)
django(1)
api(1)
tomcat(1)
mapreduce(1)
文件存储(1)
人工智能(1)
express(1)
编程算法(1)
开源(1)
分布式(1)
自动化(1)
运维(1)
hive(1)
正则表达式(1)
unity(1)
ftp(1)
npm(1)
二叉树(1)
rabbitmq(1)
gcc(1)
anaconda(1)
大数据(1)
安全(1)
https(1)
系统架构(1)
hbase(1)
kafka(1)
搜索文章
搜索
搜索
关闭
用python解释mapreduce
python
mapreduce
hadoop
map import sys #输入为标准输出stdin for line in sys.stdin: #删除开头和结尾的空行 line = line.strip() #以默认空格分隔单词到words列表 words = line.split() for word in words: #输出所有单词,格式为“单词,1”以便为reduce的输入 print '%s %s' % (word,1) reduce import sys cur
零月
2018-04-25
691
0
hdfs基本概念
大数据
node.js
存储
hadoop
HDFS是Hadoop Distribute File System 的简称,也就是Hadoop的一个分布式文件系统。 一、HDFS的主要设计理念 1、存储超大文件 这里的“超大文件”是指几百MB、GB甚至TB级别的文件。 2、最高效的访问模式是 一次写入、多次读取(流式数据访问) HDFS存储的数据集作为hadoop的分析对象。在数据集生成后,长时间在此数据集上进行各种分析。每次分析都将设计该数据集的大部分数据甚至全部数据,因此读取整个数据集的时间延迟比读取第一条记录的时间延迟更重要。 3、运行在
零月
2018-04-25
825
0
没有更多了
社区活动
【纪录片】中国数据库前世今生
穿越半个世纪,探寻中国数据库50年的发展历程
立即查看
Python精品学习库
代码在线跑,知识轻松学
立即查看
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
立即体验
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
立即查看
领券
问题归档
专栏文章
快讯文章归档
关键词归档
开发者手册归档
开发者手册 Section 归档