腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
Pyspark
:
使用
configParser
读取
HDFS
上
的
属性
文件
、
、
、
我正在
使用
ConfigParser
读取
传递给我
的
pyspark
程序
的
键值。当我从hadoop集群
的
边缘节点执行时,代码工作正常,配置
文件
在边缘节点
的
本地目录中。如果配置
文件
被上传到
hdfs
路径,并且我尝试
使用
解析器访问相同
的
路径,则不会发生这种情况。在Hadoop Cluster
上
:上传para.conf
文件
到
hdfs<
浏览 23
提问于2019-04-10
得票数 1
回答已采纳
1
回答
pyspark
:
Configparser
未从google存储中
读取
配置
文件
、
、
、
我正在尝试通过由dataproc运行
的
pyspark
脚本从google存储桶中
读取
配置
文件
。但该
文件
未被
读取
。config =
configparser
.
ConfigParser
()[]
浏览 28
提问于2021-04-01
得票数 0
1
回答
org.apache.hadoop.fs.UnsupportedFileSystemException: No FileSystem方案"oci“
、
、
、
当我试图
使用
pySpark
访问存储在OCI对象存储中
的
文件
时,我碰到了上述错误。import
configparser
import osfrom
pyspark
.sql importSparkSessionfrom
pyspark
.sql.types import * import
浏览 3
提问于2021-12-28
得票数 0
4
回答
从
pyspark
读取
hdfs
文件
、
、
我正在尝试
读取
hdfs
中
的
一个
文件
。这里显示了我
的
hadoop
文件
结构。-- 1 hduser supergroup 2685300 2016-03-06 17:31 /inputFiles/CountOfMonteCristo/BookText.txtfrom
pyspark
import SparkContext, SparkConf conf = SparkConf().setAp
浏览 6
提问于2016-03-07
得票数 13
回答已采纳
1
回答
通过
使用
PySpark
的
Kerberos身份验证
读取
HDFS
上
的
文件
、
、
、
我有一个采用Kerberos身份验证
的
HDFS
集群。如何
使用
PySpark
读取
HDFS
上
的
文件
。
浏览 62
提问于2019-07-25
得票数 1
2
回答
在
Pyspark
中
使用
时,具有静态
文件
依赖关系
的
python包无法
读取
静态
文件
、
、
我正在尝试解决python包
PySpark
的
一个问题。我开发了一个python包,它具有以下结构。sample_package/ |-sample.ini |-__init__.pyaddPyFile(path/t
浏览 4
提问于2018-06-25
得票数 0
1
回答
在s3中
使用
pyspark
合并多个小json
文件
、
、
我是spark
的
新手。我有许多目录,如上所述,并希望合并所有的
文件
在一个单一
的
目录。附言:我试过
使用
python,但花了
浏览 1
提问于2020-02-16
得票数 0
1
回答
在
Pyspark
中
读取
属性
文件
、
、
我想在我
的
spark 1.6.0应用程序中
读取
.ini
文件
(这是我
的
配置/
属性
文件
)。为此,我
使用
ConfigParser
读取
属性
文件
。import
ConfigParser
config =
ConfigParser
.
ConfigParser
() config.read(os.path.join(os.path.d
浏览 4
提问于2016-12-05
得票数 0
3
回答
spark execution -在驱动程序和执行器中访问
文件
内容
的
单一方式
、
、
根据这个问题- --files option in
pyspark
not working,sc.addFiles选项应该适用于访问驱动程序和执行器中
的
文件
。如果我
使用
--files标志并传递
文件
,它还会将
文件
复制到
hdfs
://路径,该路径可由执行器
读取
。 这是因为addFile要求
文件
也存在于本地
的
executors
上
。当前readme.txt在主节点
上
。如
浏览 35
提问于2021-01-27
得票数 0
2
回答
如何高效地将MySQL表读入Apache Spark/
PySpark
?
、
、
、
我目前已经将这些表导出为CSV
文件
,并将它们放到
HDFS
上
。现在,我从
PySpark
上
的
HDFS
中将每个表
读取
到不同
的
RDDs中进行分析。from
pyspark
.sql import SQLContextdf = sqlContext.read.format('com.databricks.spark.csv').options(head
浏览 1
提问于2015-12-07
得票数 2
1
回答
用于火花
的
HDFS
Config
、
、
我想用
pyspark
从
HDFS
读取
一个
文件
。://localhost:8020/data/file.avro", header=True)
使用
以下命令:谢谢 编辑:我解
浏览 14
提问于2022-05-04
得票数 0
1
回答
Apache Tika无法解析
HDFS
文件
、
、
、
我正在
使用
Tika库来解析存储在Hadoop集群中
的
文档。我
使用
的
代码如下:import urllib3在linux
上
,如果我给出一个本地路径,tika可以解析,但是对于
hdfs
路径,我得到一个 Spar
浏览 0
提问于2018-03-13
得票数 1
1
回答
在Python3中操纵JSON配置
文件
中变量
的
最佳方法
、
、
、
、
我希望有一个JSON
文件
,在这里我可以在内部引用值。例如,考虑下面这个JSON配置
文件
: "
hdfs
-base":"/user/SOME_
HDFS
_USER/SOME_PROJECT" ,"processing-path":"$
hdfs
-base&
浏览 1
提问于2020-01-08
得票数 1
1
回答
使用
Nifi预处理大
文件
、
、
我们有高达8 8GB
的
文件
,其中包含结构化内容,但重要
的
元数据存储在
文件
的
最后一行,需要附加到每一行内容。
使用
ReverseFileReader获取最后一行很容易,但这需要
文件
在磁盘上是静态
的
,而我无法在现有的Nifi流中找到这样做
的
方法?在数据流到内容存储库之前,这是可能
的
吗?
浏览 43
提问于2019-06-22
得票数 1
回答已采纳
1
回答
将DF转换为RDD后,尝试在flatmap中应用拆分方法时出现
属性
拆分错误
、
我正在
使用
下面的代码片段来
读取
一些
使用
spark上下文
的
示例
文件
>>> textFile = sc.textFile("
hdfs
:///user/hive/warehouse/sample.txt")现在,我正在
使用
下面的代码片段
读取
一些
使用
data frame
的
示例
文件
,然后尝试转换为rdd并应用前
浏览 0
提问于2018-09-29
得票数 1
2
回答
星星之火:无法从
HDFS
加载拼板
文件
,直到将它们“放入”
hdfs
中。
、
、
、
、
如果我
使用
scp将
文件
复制到安装了
HDFS
客户端
的
目标计算机上,然后"
hdfs
将该
文件
放入“
HDFS
中,那么spark可以正确地
读取
该
文件
。如果我
使用
curl对webhdf服务直接从客户端应用程序将该
文件
上传到
HDFS
,则在尝试
读取
parquet
文件
时从Spark获得以下错误: df = "/usr/hd
浏览 0
提问于2018-12-04
得票数 0
1
回答
HDFS
URI不完整,没有主机
、
、
我正在尝试通过
PySpark
从
HDFS
读取
csv
文件
。我
使用
了以下代码:该
文件
可以正确
读取
。:java.io.IOException:
HDFS
URI不完整,没有主机:
hdfs
://xx.XX:x000 我用来创建数据框
的
代码
浏览 1
提问于2018-02-23
得票数 3
2
回答
如何在
pyspark
中
读取
csv
文件
?
、
、
我正在尝试
读取
csv
文件
使用
pyspark
,但它显示一些错误。你能说出
读取
csv
文件
的
正确过程吗?python代码:df = spark.read.csv("D:\Users\SPate233\Downloads\iMedical\query1.
浏览 9
提问于2019-11-11
得票数 0
1
回答
如何从
HDFS
读取
pyspark
中
的
文件
、
、
我
使用
sqoop将mysql中
的
数据摄取到
hdfs
中。 我想在
pyspark
中
读取
此
文件
,我可以
读取
part_m_0000吗,以及如何在.How中找到
文件
的
路径。
浏览 1
提问于2021-06-24
得票数 0
2
回答
如何在Hadoop
上
运行
pySpark
、
、
、
我是Hadoop世界
的
新手。我将在我
的
PC
上
安装一个独立版本
的
Hadoop,以便将
文件
保存在
HDFS
(当然是1个节点)
上
,然后运行
pySpark
从
HDFS
读取
文件
并对其进行处理。谁能给我一个清晰
的
顺序,我需要安装
的
组件?
浏览 0
提问于2017-01-11
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
ConfigParser:Python中对于ini格式的配置文件的使用
在WSL Linux系统下使用Python读取D盘文件的方法
使用Spark将本地文件读取并封装为DataFrame的完整指南
如何在CDH集群上部署Python3运行环境及运行Python作业
Python自动化测试常用库整理
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
对象存储
云直播
活动推荐
运营活动
广告
关闭
领券