我是刚认识hadoop的。我试图在hdfs中创建一个目录,但我无法创建。
我已经登录到"hduser“中,因此我假设/home/hduser”“,所以我尝试使用下面的命令创建hadoop目录。
[hduser@Virus ~]$ hadoop fs -mkdir /home/hduser/mydata/
14/12/03 15:04:53 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applic
我已经安装了hadoop,我不能使用-copyFromLocal,它的响应
[root@hadoop-master ~]# hadoop fs -copyFromLocal file.dat
copyFromLocal: `.': No such file or directory
我试过了-mkdir dir,但它的反应
[root@hadoop-master ~]# hadoop fs -mkdir dir
mkdir: `dir': No such file or directory
和-ls
[root@hadoop-master ~]# hadoop fs -ls
$ hadoop fs -mkdir /home/hadoop/hadoop_input
mkdir: `hdfs://localhost:9000/home/hadoop': No such file or directory 即使我创建了/home/hadoop/hadoop_input文件夹,这个错误仍然存在。
我在亚马逊d2.2Xlarge上运行单节点hadoop集群时出现此错误。我也无法查看我的output.Can。谁能提供正确的步骤来解决此问题?
"Caused by: org.apache.hadoop.util.DiskChecker$DiskErrorException: Could not
find any valid local directory for output/file.out"
这是我执行的步骤。
bin/hdfs dfsadmin -safemode leave
bin/hadoop fs -mkd
我做了新的hadoop2.9的设置。
为了创建一个目录,我尝试:
> hadoop fs -mkdir test
mkdir: 'test': No such file or directory
为了列出它的内容,我尝试:
> hadoop fs -ls/
not listing directories or files
请帮助我理解这个问题。
我已经在Windows10上安装了本地单节点Hadoop,它显然可以正常工作。
不幸的是,当我尝试将文件从本地文件系统复制到Hadoop时,它发誓:
λ hadoop fs -copyFromLocal ../my_models/*.model hdfs://localhost/tmp
copyFromLocal: `../my_models/aaa.model': No such file or directory
copyFromLocal: `../my_models/bbb.model': No such file or directory
copyFromLocal:
我正在尝试学习使用python mrjob的mapreduce程序。我收到以下错误:
回溯:
dumping stdin to local file /tmp/pyes_mrjob.testuser.20131004.103251.998597/STDIN
Making directory hdfs:///user/testuser/tmp/mrjob/pyes_mrjob.user.20131004.103251.998597/files/ on HDFS
> /usr/lib/hadoop-mapreduce/bin/hadoop fs -mkdir hdfs:///user/tes
hduser@Connected:~$ hive
Logging initialized using configuration in jar:file:/usr/local/hive/lib/hive-common-0.14.0.jar!/hive-log4j.properties
Exception in thread "main" java.lang.RuntimeException: java.lang.RuntimeException: The root scratch dir: /tmp/hive on HDFS should be writable. Curren
new.txt文件是可以使用的;我不知道为什么当我试图进入hdfs目录时,它说文件不存在。
deepak@deepak:/$ cd $HOME/fs
deepak@deepak:~/fs$ ls
new.txt
deepak@deepak:~/fs$ cat new.txt
an apple a day keeps the doctor away
deepak@deepak:~/fs$ hadoop fs -cp $HOME/fs/new.txt $HOME/hdfs
cp: File does not exist: /home/deepak/fs/new.txt
deepak@deepak: