腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
从
pyspark
获取
客户端
、
我想检索一个文件列表。我看到一篇文章说,这些命令可以完成这项工作:client = Config().get_client('dev')但实际上,执行失败了:HdfsError Traceback (most recent call last) <ipyt
浏览 9
提问于2017-01-13
得票数 0
1
回答
Pyspark
- REST API调用以
获取
azure服务总线连接字符串
、
、
我正在尝试使用数据库将消息发送到Azure Service bus主题使用
Pyspark
代码中定义的连接字符串/使用密钥库。根据
客户端
策略,他们将频繁更新密钥,因此每次我们需要发送消息时,都会要求使用REST API调用
从
服务总线
获取
连接字符串! 有没有办法通过rest API调用来实现这一点?
浏览 15
提问于2021-08-10
得票数 1
2
回答
如何
从
多台机器
获取
spark streaming的输入?
、
根据Spark for streaming中给出的示例,它通过netcat服务器(nc -lk 9999)作为
客户端
连接来
获取
输入。 但是,netcat仅限于处理单个
客户端
。我使用的是
pyspark
。
浏览 4
提问于2015-08-22
得票数 1
3
回答
设置--master选项时,Apache Spark -“初始作业未接受任何资源源”
、
我在Digital Ocean上设置的集群中使用Spark已经有几个星期了,有一个主站和一个
从
站,但我一直收到相同的错误“初始作业没有接受任何资源;检查你的集群UI以确保工人已经注册并拥有足够的资源”。/bin/
pyspark
--master spark://<MASTER-IP>:7077sc.parallelize(range(10))我确信这不是资源的问题,因为我可以
从
两个节点启动shell并创建rdd,并且在spark-
浏览 1
提问于2015-10-13
得票数 0
2
回答
如何在
Pyspark
中
获取
kafka模式注册表?
、
、
、
我正在查看
PySpark
的相关库,以便
从
Kafka
获取
模式注册表并对数据进行解码。有人知道在中
从
scala到
pyspark
的代码/库转换是什么吗
浏览 25
提问于2020-02-28
得票数 2
回答已采纳
1
回答
从
Pyspark
访问HDFS失败
、
、
、
、
Hadoop和
Pyspark
似乎都能独立正常工作。然而,我没有设法在
Pyspark
中
从
HDFS中
获取
文件。当我尝试
从
HDFS
获取
文件时,我得到以下错误: 如果我删除了环境变量,一切都会像以前一样工作。
浏览 1
提问于2017-09-21
得票数 1
1
回答
如何将
pyspark
数据帧写入不同hadoop集群
、
、
我正在尝试备份我
从
pyspark
程序写入hadoop集群的数据。我可以这样做吗? 现在,我正在
获取
一个hadoop集群
客户端
配置文件,该配置文件在环境变量中设置Hadoop集群的详细信息。然后,我创建了一个spark会话,以便
从
RDD创建数据帧。
浏览 18
提问于2020-06-03
得票数 0
1
回答
如何在
PySpark
应用程序中读写Google Cloud Bigtable中的数据?
、
、
、
我在Google Cloud Dataproc集群上使用Spark,我想在
PySpark
作业中访问Bigtable。我们有没有像谷歌BigQuery连接器那样的Spark的Bigtable连接器?如何
从
PySpark
应用程序访问Bigtable?
浏览 4
提问于2016-11-02
得票数 5
1
回答
从
本地连接到
客户端
cassandra
、
、
、
我正在尝试
从
cassandra
获取
已安装在AWS ec2中的数据。当我通过
pyspark
运行以下命令时,我能够
从
AWS读取,但是当我通过spark-submit提交相同的python文件时,我
从
本地
获取
rdd。你能给我推荐一下我缺少配置的地方吗?from
pyspark
import SparkConf, SparkContext conf = SparkCon
浏览 0
提问于2017-04-14
得票数 2
2
回答
如何创建到远程Spark服务器的连接,并从运行在本地机器上的ipython中读取数据?
、
、
、
然后
从
remote server上存在的hdfs文件夹中读取数据。如何
从
本地ipython notebook创建到Spark服务器的远程连接
浏览 3
提问于2015-11-24
得票数 6
1
回答
Dict2Columns -
PySpark
、
、
、
789| cl | QS |我只是试着只做一行类似这样的事情: #
PySpark
浏览 2
提问于2019-08-02
得票数 0
1
回答
使用配置单元元数据读取HDFS文件-
Pyspark
、
、
、
、
我是
PySpark
新手,正在尝试读取HDFS文件(上面创建了hive表)并创建
PySpark
数据帧。通过
PySpark
读取配置单元表非常耗时。有没有什么方法可以动态
获取
hive列名(用作dataframe中的模式)?我希望将文件位置、表名和数据库名作为输入传递给aa程序/函数,以便
从
配置单元元数据(可能是元数据xml)中
获取
模式/列名称,并作为dataframe返回。 请指教
浏览 15
提问于2019-03-06
得票数 0
回答已采纳
1
回答
如何在中间层集群上运行
PySpark
(可能是在
客户端
模式下)?
、
、
我试图在中间层集群上运行一个
PySpark
作业,但是我似乎无法让它运行。我知道Mesos不支持
PySpark
应用的集群部署模式,需要在
客户端
模式下运行。我相信这就是问题所在。当我尝试提交一个
PySpark
作业时,我得到了下面的输出。... socket.hpp:107] Shutdown failed on fd=48: Transport endpoint is not connected [107] 我认为在
客户端
模式下运行的我需要更改什么配置才能在
客户端
模式下运行
PySpa
浏览 0
提问于2015-09-16
得票数 3
1
回答
aws胶水触发作业
、
、
、
我已经修改了一个Glue生成的脚本,用于转换和操作数据。我希望通过触发器在目录中出现的每个新表上运行相同的作业,但不需要在作业脚本中手动更改表名。简而言之,如何在不每次手动更改表名的情况下,对数据目录中出现的每个新表运行脚本提供的相同转换?
浏览 3
提问于2018-05-11
得票数 0
1
回答
如何
从
本地机器使用python2.7执行aws胶水脚本?
、
、
、
我想做各种操作,比如
获取
模式信息,
获取
AWS Glue控制台中所有表的数据库详细信息。我尝试了以下脚本示例:from awsglue.transforms import *from
pyspark
.context我发现boto3通过awscli提供了各种
客户端
调用,我们可以通过client=boto3.client('glue')访问它们。因此,为了像上面这样
获取
模式信息
浏览 0
提问于2018-02-21
得票数 6
回答已采纳
2
回答
从
JSON文件中
获取
Pyspark
模式
、
、
、
我试图
从
JSON文件中
获取
Pyspark
模式,但是当我使用Python代码中的变量创建模式时,我能够看到<class '
pyspark
.sql.types.StructType'>的变量类型,但是当我试图通过有没有办法通过JSON文件
获取
pyspark
模式?
浏览 0
提问于2018-07-05
得票数 3
1
回答
有没有人能够在Spark中使用elasticsearch xpack sql?
、
、
、
使用
PySpark
,我试图
从
elasticsearch中读取数据。"query": { } 但是,最近我在kibana上尝试了_xpack/sql,在其他SQL
客户端
上尝试了JDBC,它们在
获取
数据方面都工作得很好。但是,当我尝试在我的
pyspark
代码中引用_xpack时,我得到了以下错误: Py4JJavaError:
浏览 0
提问于2019-01-31
得票数 3
2
回答
如何在
PySpark
中
从
向量结构中
获取
项目
、
、
我正在尝试
从
TF-IDF结果向量中
获取
分数数组。
浏览 12
提问于2020-02-27
得票数 1
回答已采纳
2
回答
AttributeError:不能在<模块'
pyspark
.cloudpickle‘>上获得属性'_fill_function’>来自‘
pyspark
/cloudpickle/__init_..py’>
、
、
当
从
脚本中执行
pyspark
代码时。在df.show()时
获取
以下错误。from
pyspark
.sql.types import StructType,StructField, StringType, IntegerTypedf.show(truncate=False) AttributeError: Can't get attribute '_fill_funct
浏览 12
提问于2021-06-06
得票数 2
1
回答
pyspark
中的first_value窗口函数
、
、
、
我正在使用
pyspark
1.5
从
Hive表中
获取
数据,并尝试使用窗口函数。鉴于
pyspark
不支持UserDefinedAggregateFunctions (UDAF),有没有办法实现这一点?
浏览 4
提问于2016-02-02
得票数 6
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
从 GitHub 上获取文件内容
扣缴客户端如何获取个人填写的专项附加扣除信息
如何从FACEBOOK获取同行的询盘?
从数据库获取数据并绘图
vlookup应用——如何从学号中获取班级信息
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券