首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

bash: bin/hadoop:没有这样的文件或目录( ubuntu 16.04上的hadoop 2.7.3 )

这个问题是关于在Ubuntu 16.04上安装Hadoop 2.7.3时出现的错误信息。根据错误信息"bash: bin/hadoop:没有这样的文件或目录",这意味着系统无法找到hadoop命令。

要解决这个问题,可以按照以下步骤进行排查和修复:

  1. 确认Hadoop是否正确安装:首先,确保已经正确地安装了Hadoop 2.7.3。可以通过检查Hadoop安装目录是否存在来确认。默认情况下,Hadoop安装目录位于/usr/local/hadoop。使用以下命令检查目录是否存在:
  2. 确认Hadoop是否正确安装:首先,确保已经正确地安装了Hadoop 2.7.3。可以通过检查Hadoop安装目录是否存在来确认。默认情况下,Hadoop安装目录位于/usr/local/hadoop。使用以下命令检查目录是否存在:
  3. 如果目录不存在,可能是因为Hadoop没有正确安装。请重新安装Hadoop并确保按照正确的步骤进行操作。
  4. 检查环境变量配置:Hadoop需要正确的环境变量配置才能正常运行。请确保已经将Hadoop的bin目录添加到系统的PATH环境变量中。可以通过编辑~/.bashrc文件来添加环境变量配置。打开终端并执行以下命令:
  5. 检查环境变量配置:Hadoop需要正确的环境变量配置才能正常运行。请确保已经将Hadoop的bin目录添加到系统的PATH环境变量中。可以通过编辑~/.bashrc文件来添加环境变量配置。打开终端并执行以下命令:
  6. 在文件末尾添加以下行:
  7. 在文件末尾添加以下行:
  8. 保存文件并执行以下命令使配置生效:
  9. 保存文件并执行以下命令使配置生效:
  10. 然后尝试再次运行hadoop命令,看是否仍然出现相同的错误。
  11. 检查Hadoop配置文件:Hadoop还需要正确的配置文件才能正常运行。请确保已经正确配置了Hadoop的核心配置文件core-site.xmlhdfs-site.xml。这些文件位于Hadoop安装目录的etc/hadoop子目录中。请检查这些文件是否存在并包含正确的配置。
  12. 可以使用以下命令打开core-site.xml文件进行编辑:
  13. 可以使用以下命令打开core-site.xml文件进行编辑:
  14. 确保以下配置项存在并设置正确的值:
  15. 确保以下配置项存在并设置正确的值:
  16. 同样,使用以下命令打开hdfs-site.xml文件进行编辑:
  17. 同样,使用以下命令打开hdfs-site.xml文件进行编辑:
  18. 确保以下配置项存在并设置正确的值:
  19. 确保以下配置项存在并设置正确的值:
  20. 保存文件并尝试再次运行hadoop命令。

如果按照上述步骤进行排查和修复后仍然无法解决问题,可能是由于其他原因导致。可以尝试重新安装Hadoop,确保按照官方文档提供的步骤进行操作。另外,还可以查看Hadoop的日志文件以获取更多详细的错误信息,日志文件位于Hadoop安装目录的logs子目录中。

希望以上信息对您有所帮助!如果您需要了解更多关于云计算、IT互联网领域的知识或其他问题,请随时提问。

页面内容是否对你有帮助?
有帮助
没帮助

相关·内容

hadoop + docker 搭建hadoop学习环境

在学习大数据情况下免不了自己搭建一个hadoop环境,但是使用虚拟机在自己电脑启动一个集群环境会很吃机器资源,所以我们使用docker来进行搭建大数据集群环境。...环境准备 docker-ce 环境 ubuntu 16.04镜像 jdk1.7.0_80 hadoop-2.7.3 所需都为开源,可以很方便从网上找寻到相应软件。...ubuntu 16.04 镜像环境制作可以参考下篇博文: docker镜像制作 可以直接再镜像制作时候安装上相应环境,比如java...."client2-server" ubuntu:v1 bash 启动后容器如下图所示: ?...配置 在/data下解压hadoop-2.7.3 进入hadoop-2.7.3/etc/hadoop/下进行修改配值文件 vim hadoop-env.sh 在其中添加java环境 export

1.9K40

使用 Shell 脚本进行 Hadoop Spark 集群批量安装

推荐一个网站,explainshell, 输入 Shell 命令,它会对命令各部分进行详细解释。 以下内容虽在 Ubuntu 16.04 试用过,但有些细节可能由于时间因素,难免会有偏差。.../usr/bin/env bash HADOOP_DOWNLOAD_URL=https://mirrors.cnnic.cn/apache/hadoop/common/stable/hadoop-2.7.3...以 Master 为例,在 Ubuntu 16.04 下,/etc/hostname 默认为空,直接使用命令 echo "Master" > /etc/hostname 即可。...复制 Master 节点 /usr/local/hadoop目录到 Slave 节点 我们打算将 Hadoop,Spark 安装在 /usr/local 目录下,也就是 /usr/local/hadoop...同步 hadoop/spark 配置目录 同步完 Hadoop 和 Spark 完整目录后,我们还需要对 Hadoop 进行一些配置,比如要进行完全分布式配置,修改 hdfs-site.xml 等等文件

1K10

Hadoop 环境搭建

开发环境搭建 安装虚拟机 使用是VMware Workstation 安装操作系统 ubuntu-16.04-desktop-amd64 安装虚拟机和操作系统教程可以参考之前Blog: Ubuntu...系统初识 下载Hadoop 如果你在官网上下载比较慢的话可以去这个网站看下 我们选择最新稳定版本2.7.3 下载速度非常快 安装Hadoop 首先解压hadoop文件到/usr/local 路径下,并且重命名为...官网上给了一个比较简单例子 $ mkdir input $ cp etc/hadoop/*.xml input # 将配置文件作为输入文件 $ bin/hadoop jar share/hadoop...$ cat output/* # 查看运行结果 Hadoop伪分布式配置 Hadoop 可以在单节点以伪分布式方式运行,Hadoop 进程以分离 Java 进程来运行,节点既作为 NameNode...此外,伪分布式虽然只需要配置 fs.defaultFS 和 dfs.replication 就可以运行(官方教程如此),不过若没有配置 hadoop.tmp.dir 参数,则默认使用临时目录为 /tmp

1.1K50

CentOS 7安装Hadoop 3.0.0

/bin/hadoop version 2),在/usr/hadoop/目录下,建立tmp: #mkdir /usr/hadoop/tmp 3)、设置环境变量: #vi /etc/profile         .../bin 4)、使环境变量生效,终端中运行如下命令: #source /etc/profile 5)、设置hadoop:      一共需要配置主要6个文件:   hadoop-3.0.0/etc/hadoop...>namenode本地hadoop临时文件夹                         ⑷、配置hdfs-site.xml...with status 1” 则是出错             备注:只需格式化namenode,datanode不需要格式化(若格式化了,可将/usr/hadoop/tmp目录文件都删除),所以先将安装文件夹复制到其他服务器...  http://www.linuxidc.com/Linux/2017-08/146232.htm Ubuntu 16.04构建分布式Hadoop-2.7.3集群  http://www.linuxidc.com

1.9K110

Hadoop单机模式

/install.sh 创建hadoop用户并设置密码(如果暴露外网IP务必使用复杂密码避免攻击) useradd -m hadoop -s /bin/bash passwd hadoophadoop...版本可以自行在官网下载 统一安装目录均为**/usr/local/XX** 2.1 环境配置 需要准备好JAVA安装包和Hadoop安装包,我们把以下两个文件放到我们创建好install目录hadoop...3.Hadoop伪分布式配置 Hadoop 可以在单节点以伪分布式方式运行,Hadoop 进程以分离 Java 进程来运行,节点既作为 NameNode 也作为 DataNode,同时,读取是...如果没有 NameNode DataNode ,那就是配置不成功,请仔细检查之前步骤,通过查看启动日志排查原因。...上面的单机模式,grep 例子读取是本地数据,伪分布式读取则是 HDFS 数据。

83260

Hadoop完全分布式环境搭建(三节点)

hadoop配置文件 修改/hadoop-2.7.2/etc/hadoop目录hadoop-env.sh、yarn-env.sh、slaves、core-site.xml、hdfs-site.xml...、mapred-site.xml、yarn-site.xml 1.在hadoop目录下创建tmp文件夹及其子目录 ubuntu@adserver:~$ sudo mkdir -p /usr/local/...@monserver:~$ java -version ubuntu@monserver:~$ hadoop version 设置所有节点hadoop-2.7.2文件夹权限为0777: 设置所有节点...hadoop-2.7.2文件夹权限为0777: 设置所有节点hadoop-2.7.2文件夹权限为0777: ubuntu@adserver:~$ sudo chmod -R 0777 /usr/local...:master节点将会增加一个JobHistoryServer 进程 注意:多次重启以后,一定要删除每个节点logs、tmp目录,并重新创建tmp目录 查看三台节点运行状态 ubuntu@adserver

46020

Ubuntu搭建Hadoop群集

1.准备3台Ubuntu Server 1.1复制出3台虚拟机 我们可以用之前编译和安装好Hadoop虚拟机作为原始版本,在VirtualBox中复制三台新虚拟机出来,也可以完全重新安装一台全新Ubuntu...slave02 1.3修改为固定IP UbuntuIP地址保存到/etc/network/interfaces文件中,我们需要为3台虚拟机分别改为固定IP,这里我环境是在192.168.100....当然如果是X64Ubuntu,我建议还是本地编译Hadoop,具体编译过程参见这篇文章。...xvzf hadoop-2.7.3.tar.gz 最后将解压后Hadoop转移到正式目录下,这里我们打算使用/usr/local/hadoop目录,所以运行命令: sudo mv hadoop-2.7.3.../bin # Hadoop Env export HADOOP_HOME=/usr/local/hadoop export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME

62610

Hadoop集群模式

附上: Hadoop官网:hadoop.apache.org 喵了个咪博客:w-blog.cn 1.准备工作 安装包清单 统一存放到**/app/install**目录下,暂时只用存放到hadoop...-3 为所有集群节点创建hadoop用户(如果暴露外网IP务必使用复杂密码避免攻击) > useradd -m hadoop -s /bin/bash > passwd hadoophadoop.../usr/local/Hadoop-2.7.3 文件夹复制到各个节点。...,首先创建 HDFS 用户目录: > hdfs dfs -mkdir -p /user/hadoop 将 /usr/local/hadoop-2.7.3/etc/hadoop配置文件作为输入文件复制到分布式文件系统中...可能会有点慢,但如果迟迟没有进度,比如 5 分钟都没看到进度,那不妨重启 Hadoop 再试试。若重启还不行,则很有可能是内存不足引起,建议增大虚拟机内存,或者通过更改 YARN 内存配置解决。

1.3K60

Ububtu18.04安装Hadoop3.1.3全分布集群-持续更新问题集

3.启动测试 4.报错以及解决方案 问题1:/usr/bin/env: "bash": 没有那个文件目录 问题2:Cannot set priority of namenode process 15335.../bin:$HADOOP_HOME/sbin:$PATH 编辑Hadoop目录目录etc/Hadoop目录文件Hadoop-env.sh文件: 将JAVA_HOME设为jdk所在绝对路径(否则运行时可能会出现找不到情况...hadoop namenode -format 会在master,slave1,slave2节点路径下看到格式化后 dfs目录 在master执行启动hdfs命令 start-dfs.sh 然后在各个节点依次执行.../env: “bash”: 没有那个文件目录 需要注意是,执行前,查看自己环境变量是否设置正确 Starting secondary namenodes [master] master: /usr.../bin/env: "bash": 没有那个文件目录 hadoop@master:~/opt/app/hadoop$ ls -l `which sh` lrwxrwxrwx 1 root root 4

1.4K30

如何使用Python为Hadoop编写一个简单MapReduce程序

How to Install Hadoop in Stand-Alone Mode on Ubuntu 16.04 如何使用Python 为 Hadoop编写一个简单MapReduce程序。...尽管Hadoop官方网站给示例程序是使用Jython编写并打包成Jar文件这样显然造成了不便,其实,不一定非要这样来实现,我们可以使用Python与Hadoop 关联进行编程,看看位于/src/examples...如果你没有架设好,那么在后面有个简明教程来教你在Ubuntu Linux 搭建(同样适用于其他发行版linux、unix) 如何使用Hadoop Distributed File System (HDFS...一个重要备忘是关于Hadoop does not honor mapred.map.tasks 这个任务将会读取HDFS目录gutenberg并处理他们,将结果存储在独立结果文件中,并存储在HDFS.../part-00000 903193 2007-09-21 13:00 hadoop@ubuntu:/usr/local/hadoop$ 可以使用dfs -cat 命令检查文件目录

2.1K50
领券