腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(220)
视频
沙龙
1
回答
hdfs
dfs
-
put
:
createBlockOutputStream
和
java.io.EOFException
中
的
异常
:
过早
的
EOF
:
没有
可用
的
长度
前缀
、
我检查了webUI,它显示数据节点处于不健康状态。我不知道为什么会发生这种情况。
浏览 11
提问于2017-08-19
得票数 0
1
回答
“只能复制到0节点,而不是Hadoop
中
的
1”。
、
我遇到了一个著名
的
“只能复制到0节点,而不是1”
的
错误,在我
的
单节点Hadoop安装
中
,同时试图向
hdfs
添加一些文件:$
hdfs
dfs
-
put
/hadoop_install_location/etc/hadoop/* /grep/in/ 第一个命令运行正常
浏览 0
提问于2014-09-14
得票数 0
回答已采纳
1
回答
Hbase HRegionServer警告
和
关闭一段时间后
在我标签'start-hbase.sh‘之后,在3HRegionServer
的
日志
中
2016-07-27 21:29:55,122用于块BP-1601089490-xx.xx.xx.xx-1469276064635_1073742337_1586
java.io.EOFException
的
DFSOutputStream ResponseProcessor
异常
:早熟
EOF
: org.apache.hadoop.
hdfs
.protocolPB.PBHelper
浏览 2
提问于2016-07-28
得票数 0
2
回答
运行WordCount MapReduce时不存在输入路径
、
thread "main"
hdfs
浏览 7
提问于2017-02-25
得票数 1
回答已采纳
7
回答
在人类发展战略
中
是否有相当于“
hdfs
”
的
内容?
、
我试着做
hdfs
dfs
-pwd,但是这个命令不存在。因此,目前我诉诸于做
hdfs
dfs
-ls ..,然后是
hdfs
dfs
-ls ../..。我还查看了
hdfs
dfs
的
命令清单,但
没有
看到任何看起来很有希望
的
东西。 有更直接
的
方法找到绝对路径吗?
浏览 4
提问于2014-02-03
得票数 32
回答已采纳
1
回答
如何在纱线上运行Gi相图(Hadoop2.6)(“输入拆分过程
中
工人失败”)
由于我找不到这方面的全面指南,我一直依赖Gi饼QuickStart () (不幸
的
是Hadoop0.20.203.0)
和
一些Hadoop2.6/纱线教程。为了做正确
的
事情,我想出了一个bash脚本,它应该安装Hadoop
和
Gi相图。不幸
的
是,Gi相图作业多次失败,“输入拆分期间工人失败”
异常
。如果有人能指出我
的
部署先例
中
的
错误或提供另一种工作方式,我将非常感激。 编辑:我
的
主要目标是能够开发Gi饼1.1作业
浏览 0
提问于2015-02-24
得票数 2
回答已采纳
1
回答
java.io.EOFException
:早熟
EOF
:在Hadoop上
的
火花中
没有
长度
前缀
、
、
-128.110.152.143-1469321545728:blk_1073741865_1041java.nio.channels.ClosedChannelException 在Hadoop2.6.0上运行时,我得到了这个错误,并认为
异常
可能有点像这样
的
错误,但甚至在将其更改为Hadoop2.6.4之后,我也得到了相同
的
浏览 1
提问于2016-07-24
得票数 8
2
回答
读取带有Java IO函数
的
文件时神秘
的
EOF
异常
当我试图查找某个文件时,我得到了以下
异常
。java.io.RandomAccessFile.readInt(RandomAccessFile.java:725) at java.io.RandomAccessFile.readLong(RandomAccessFile.java:758) >
中
寻找38128
的
错误,文件
长度
: 85742
java.io.EOFException
但如果你看到,我试图寻求'38128‘
的
文件
长度
是'85742’。
浏览 4
提问于2009-01-20
得票数 2
1
回答
无法查看
DFS
位置上从eclipse连接到hadoop
的
任何文件夹
、
、
、
、
当我尝试通过eclipse连接hadoop时,我可以to.Though --能够从eclipse连接hadoop,在打开
DFS
位置时
没有
看到任何文件夹。它以(0)
的
形式显示(参见Pic #1, 即使我尝试通过CYGWIN终端创建一个目录(参见Pic #4),我也无法在eclipse环境
中
的
DFS
位置中看到它。 :输入路径
浏览 0
提问于2013-10-30
得票数 3
5
回答
命令“-format”将做什么
我试图通过遵循教程学习Hadoop,并尝试在我
的
机器上执行伪分布式模式。<?xml version="1.0"?> <property> <value>
hdfs
://localhost:9000</description>
浏览 4
提问于2014-11-26
得票数 27
回答已采纳
10
回答
检查
HDFS
目录大小
的
方法?
、
、
、
我在常见
的
Linux文件系统中知道du -sh。但是如何使用
HDFS
做到这一点呢?
浏览 4
提问于2011-06-28
得票数 114
回答已采纳
1
回答
Eclipse Hadoop插件问题(调用localhost/127.0.0.1:50070 )有人能给我这个问题
的
解决方案吗?
、
、
问题: Eclipse Hadoop插件问题(本地
异常
:
java.io.EOFException
调用本地主机/127.0.0.1:50070失败)。有人能给我解决这个问题
的
办法吗?它使用Eclipse(Helios)3.6
和
Hadoop.0.20.2-cdh3u2版本。我在
DFS
位置获得了Mapreduce按钮,但
没有
它
的
层次结构。 去检查了我
的
dfs
和
映射端口。我
的
core-site.x
浏览 0
提问于2012-11-28
得票数 0
4
回答
蜂巢内部错误: java.lang.ClassNotFoundException(org.apache.atlas.hive.hook.HiveHook)
、
、
、
我正在运行一个使用色调
的
蜂巢查询throwh。我
的
工作失败了,但是当我签入蜂箱时,表就创建了。
浏览 1
提问于2015-09-24
得票数 8
回答已采纳
2
回答
使用python
和
多处理压缩输出
、
、
、
、
所以我已经用numpy
和
多处理写了一段时间
的
数值东西了。它工作得很好,但我在收集结果时遇到了问题。我用下面的方法做了,我把一个队列作为输入,另一个队列作为输出。程序从输入队列
中
读取参数,对其进行处理,然后将结果放入输出队列
中
。稍后,在主进程
中
,我从队列
中
读出它并对其进行筛选。params = inp.get(block=False) out.
put
为了让每个人都知道
浏览 4
提问于2011-10-25
得票数 2
1
回答
大gz文件上
的
Mapreduce
、
、
、
、
我有一个大小约为120 gz
的
gz文件。我想在上面运行mapreduce,但是由于gz文件是不可拆分
的
,一次只有一个映射器能够处理该文件。该文件位于
hdfs
和
本地两个位置。可能
的
选择我在想: 1)解压缩gz文件并将其存储在
hdfs
中
:首先,解压缩文件
和
将解压缩后
的
数据放入
hdfs
中会花费太多
的
时间。另外,我不能直接在
hdfs
中
解压文件,因为
hdfs</em
浏览 0
提问于2015-04-23
得票数 2
3
回答
将多个文本文件转换为
HDFS
中
的
一个非常大
的
文件
它们
的
总大小超过了我可以使用
的
最大磁盘大小(~1.5TB)
HDFS
有这样
的
能力吗?我怎样才能做到这一点?
浏览 4
提问于2016-12-29
得票数 1
回答已采纳
3
回答
如何设置用于测试Flume设置
的
HTTP源?
、
、
我是Flume
和
Hadoop
的
新手。我们正在开发一个BI模块,可以将来自不同服务器
的
所有日志存储在
HDFS
中
。有什么建议吗? 提前感谢/
浏览 0
提问于2013-09-06
得票数 12
回答已采纳
4
回答
hadoop崩溃后,如何格式化文件并将其添加到hadoop?
我正在使用hadoop版本1.0.1
和
Ubuntu linux 11.10运行单节点集群。当我正在运行一个简单
的
脚本时,它崩溃了,可能是因为我
的
计算机进入了睡眠状态。bin/hadoop namenode -format错误名称: namenode.NameNode:无法锁定存储/java.io.IOException/hadoop/tmp/
dfs
在org.apache.hadoop.
hdfs
.server.common.Storage
浏览 2
提问于2012-04-15
得票数 5
3
回答
获取
可用
于读写FileSystem
的
Hadoop对象
的
正确方法是什么?
、
、
创建
可用
于读写
HDFS
的
FileSystem对象
的
正确方法是什么?在我发现
的
一些例子
中
,它们是这样做
的
:conf.addResource(new Path("/usr/local
中
的
属性,因此不需要再次设置它。我还
没有
找到任何说明为什么需要添加
hdfs
-site.xml<e
浏览 0
提问于2014-10-24
得票数 1
回答已采纳
1
回答
HBase主程序无法启动,无法连接到hbase.rootdir
、
、
、
、
这就是我
的
配置文件
的
样子:conf/core-site.xml:<?--
Put
site-specific property overrides in this file. --> <name>
dfs
.replication我试着用我
的
浏览
浏览 10
提问于2013-08-05
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Hadoop常见的操作命令
IBM Db2 Big SQL简介和快速上手
Hadoop-伪分布式模式搭建
自建Hadoop集群迁移到EMR之数据迁移篇
day07.HDFS学习大数据教程
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券