Hadoop生态圈各组件的启动及关闭脚本,虽然有些使用频率不高,不容易记住,这里特地整理出来,大家可以先保存,用的时候就方便了。
1. Hdfs (v 2.7.3)
1.1.启动集群
sbin/start-dfs.sh注:这个启动脚本是通过ssh对多个节点的namenode、datanode、journalnode以及zkfc进程进行批量启动的。
1.2.启动NameNode
sbin/hadoop-daemon.sh start namenode1.3.启动DataNode
sbin/hadoop-daemon.sh start datanode1.4.停止集群
sbin/stop-dfs.sh1.5.停止单个进程
sbin/hadoop-daemon.sh stop zkfc
sbin/hadoop-daemon.sh stop journalnode
sbin/hadoop-daemon.sh stop datanode
sbin/hadoop-daemon.sh stop namenode2. Yarn (v 2.7.3)
2.1.启动集群
sbin/start-yarn.sh注:start-yarn.sh启动脚本只在本地启动一个ResourceManager进程,而3台机器上的nodemanager都是通过ssh的方式启动的。
2.2.启动ResouceMananger
sbin/yarn-daemon.sh start resourcemanager2.3.启动NodeManager
sbin/yarn-daemon.sh start nodemanager2.3.启动JobHistoryServer
sbin/yarn-daemon.sh start historyserver2.4.停止集群
sbin/stop-yarn.sh2.5.停止单个节点
sbin/yarn-daemon.sh stop resourcemanager
sbin/yarn-daemon.sh stop nodemanager3. Zookeeper (v 3.4.5)
3.1.启动集群
bin/zkServer.sh start3.2.启动单个节点
bin/zkServer.sh start3.3.启动客户端
bin/zkCli.sh -server master:21814.Kafka (v 2.10-0.10.1.1)
4.1.启动集群
bin/kafka-server-start.sh -daemon config/server.properties4.2.启动单个节点
bin/kafka-server-start.sh -daemon config/server.properties4.3.创建Topic
bin/kafka-topics.sh --create --zookeeper master:2181 --replication-factor 1 --partitions 1 --topic test4.4.列出Topic
bin/kafka-topics.sh --list --zookeeper master:21814.5.生产数据
bin/kafka-console-producer.sh --broker-list master:9092 --topic test4.6.读取数据
bin/kafka-console-consumer.sh --zookeeper master:2181 --topic test --from-beginning5.Hbase (v 1.2.4)
5.1.启动/停止集群
bin/start-hbase.shbin/stop-hbase.sh5.2. 启动/停止HMaster
bin/hbase-daemon.sh start masterbin/hbase-daemon.sh stop master5.3. 启动/停止HRegionServer
bin/hbase-daemon.sh start regionserverbin/hbase-daemon.sh stop regionserver5.2.启动Shell
bin/hbase shell6.Spark (v 2.1.0-bin-hadoop2.7)
6.1.启动程序
6.1.1. 本地
bin/spark-shell --master local6.1.2.Standalone
bin/spark-shell --master spark://master:70776.1.3. Yarn Client
bin/spark-shell --master yarn-client6.1.4. Yarn Cluster
bin/spark-shell --master yarn-cluster7. Flume
7.1启动Agent
bin/flume-ng agent -n LogAgent -c conf -f conf/logagent.properties -Dflume.root.logger=DEBUG,console8.Sqoop
8.1.导入
sqoop import \
--connect jdbc:mysql://mysql.example.com/sqoop \
--username sqoop \
--password sqoop \
--table cities8.2.导出
sqoop export \
--connect jdbc:mysql://mysql.example.com/sqoop \
--username sqoop \
--password sqoop \
--table cities \
--export-dir cities9.Hive
9.1. 启动Shell
hive -h <host> -p <port>
beeline -u jdbc:hive2://<host>:<port>10. Mysql
10.1.启动Shell
mysql -u<user> -p<password>原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。