首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >如何为Spark应用程序读取和写入HDFS字节?

如何为Spark应用程序读取和写入HDFS字节?
EN

Stack Overflow用户
提问于 2016-04-19 18:36:03
回答 1查看 754关注 0票数 2

我想为spark应用程序收集不同的指标,如果有人知道如何获得HDFS字节读写,请告诉我?

EN

回答 1

Stack Overflow用户

发布于 2018-04-28 00:46:18

我正在寻找同样的信息,但我在任何地方都找不到: Spark文档和Spark用户的邮件列表(即使有些人是asking the question)都没有给我提供这些信息。

但是,我在互联网上找到了some clues,它在指标中表明它是由Spark提供的。

我正在处理一些应用程序日志(由历史服务器提供的日志),似乎每个SparkListenerTaskEnd事件中Task Metrics中的Input MetricsOutput Metrics都给出了为每个任务读取和写入的数据量。

代码语言:javascript
运行
复制
{
  "Event": "SparkListenerTaskEnd",
  ...
  "Task Metrics": {
      ...
      "Input Metrics": {
        "Bytes Read": 268566528,
        "Records Read": 2796202
      },
      "Output Metrics": {
        "Bytes Written": 0,
        "Records Written": 0
      },
      ...
  },
  ...
}

请注意,我对此不是100%确定,但我得到的日志似乎与此假设一致:)

此外,如果您从本地文件系统读取,我认为这将混合在相同的度量中。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/36715858

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档