前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Hadoop文件读取及文件上传

Hadoop文件读取及文件上传

作者头像
码客说
发布2023-09-17 09:02:20
3280
发布2023-09-17 09:02:20
举报
文章被收录于专栏:码客

文件操作

上传

代码语言:javascript
复制
hadoop fs -put localfile /user/hadoop/hadoopfile
hadoop fs -put localfile1 localfile2 /user/hadoop/hadoopdir
hadoop fs -put localfile hdfs://host:port/hadoop/hadoopfile

具体示例

方式1

代码语言:javascript
复制
hadoop fs -put /root/zjhome/test.json hdfs://hacluster/zjhome/test.json

其中集群名可以通过下面的地址查看

http://hadoop02:50070/dfshealth.html#tab-overview

image-20230915174128298
image-20230915174128298

不要使用

代码语言:javascript
复制
hadoop fs -put /root/zjhome/test.json hdfs://hadoop02:9000/zjhome/test.json

其中端口是在hdfs-site.xml中的dfs.namenode.rpc-address配置的端口。

这种方式只会找对应的服务器上找,如上只会从hadoop02上找,如果hadoop02不是激活状态则无法上传。

方式2

代码语言:javascript
复制
hadoop fs -put /root/zjhome/test.json /zjhome/test.json

注意如果父级目录没有创建,需要先创建。

查看文件列表

代码语言:javascript
复制
hadoop fs -ls /

创建目录

代码语言:javascript
复制
hadoop fs -mkdir -p /zjhome/

这里的-p选项会创建所有必要的父目录,如果它们不存在的话。

查看文件

代码语言:javascript
复制
hadoop fs -cat /zjhome/test.json

下载文件

代码语言:javascript
复制
hadoop fs -get /zjhome/test.json

文件读取

代码语言:javascript
复制
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.fs.FSDataInputStream;

import java.io.BufferedReader;
import java.io.InputStreamReader;

public class ReadHDFSFile {

    public static String getHadoopConfigRootPath() {
        String conf = System.getenv("HADOOP_CONF_DIR");
        if (conf == null) {
            String hh = System.getenv("HADOOP_HOME");
            if (hh == null) {
                throw new RuntimeException("找不到配置文件");
            }
            conf = hh + "/etc/hadoop";
        }
        return conf;
    }

    public static Configuration loadHDFS() throws RuntimeException {
        String conf = getHadoopConfigRootPath();
        Configuration config = new Configuration();
        config.addResource(new Path(conf + "/core-site.xml"));
        config.addResource(new Path(conf + "/hdfs-site.xml"));
        return config;
    }

    public static String getStrByPath(String hdfsFilePath) {
        try {
            Configuration conf = loadHDFS();
            FileSystem fs = FileSystem.get(conf);
            Path filePath = new Path(hdfsFilePath);

            if (fs.exists(filePath)) {
                FSDataInputStream inputStream = fs.open(filePath);
                BufferedReader reader = new BufferedReader(new InputStreamReader(inputStream));

                StringBuilder content = new StringBuilder();
                String line;

                while ((line = reader.readLine()) != null) {
                    content.append(line).append("\n");
                }

                reader.close();
                inputStream.close();
                fs.close();
                return content.toString();
            } else {
                System.out.println("文件不存在:" + hdfsFilePath);
            }
        } catch (Exception e) {
            e.printStackTrace();
        }

        return "";
    }

    public static void main(String[] args) {
        String hdfsFilePath = "hdfs://hacluster/zjhome/test.json";
        String fileContent = getStrByPath(hdfsFilePath);
        System.out.println("文件内容:\n" + fileContent);
    }
}

注意

要读取服务器上的Hadoop配置,否则无法找到文件。

依赖的Jar

代码语言:javascript
复制
<dependency>
    <groupId>org.apache.hadoop</groupId>
    <artifactId>hadoop-common</artifactId>
    <version>${hadoop.version}</version> <!-- 使用与你的Hadoop集群版本匹配的版本 -->
</dependency>
本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 文件操作
    • 上传
      • 查看文件列表
        • 创建目录
          • 查看文件
            • 下载文件
            • 文件读取
            领券
            问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档