腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
如何
通过
pyspark
dataframe
中
的
structfiled
向
表
中
插入
注释
?
、
、
我需要
插入
表字段
的
注释
,我尝试使用结构字段,但它不起作用: 我
的
代码: Schema = StructType([ StructField("title", StringType(), True, {'description': "Name of the category"})]) 当我在雅典娜
中
搜索表格时,
注释</e
浏览 35
提问于2021-08-17
得票数 0
回答已采纳
1
回答
使用
pySpark
将
DataFrame
写入mysql
表
、
、
、
、
我正在尝试
向
MySql
表
中
插入
记录。该
表
包含作为列
的
id和name。id = '103' l = [id,name] pas
浏览 3
提问于2017-10-04
得票数 16
回答已采纳
2
回答
通过
JDBC从
pyspark
dataframe
插入
到外部数据库
表
时
的
重复键更新
、
、
、
、
嗯,我使用
的
是
PySpark
,我有一个Spark
dataframe
,我使用它将数据
插入
到mysql
表
中
。df.write.jdbc(url=url, table="myTable", mode="append") 我希望
通过
列值和特定数字
的
浏览 4
提问于2015-09-16
得票数 12
1
回答
在Databricks中使用
Pyspark
更新数据库
表
、
、
、
我在Azure SQL Server数据库中有一个
表
,该
表
是从我
的
Dataframe
填充
的
。我想使用
pyspark
/ pandas基于多条件数据库来更新这个
表
。我是
PySpark
/ Databricks / Pandas
的
新手,有人能告诉我
如何
更新
表
吗?我已经将数据
插入
到
表
中
-我可以想到
的
一种解
浏览 2
提问于2020-04-20
得票数 0
1
回答
PySpark
-在写入PostgrSQL DB后获取
插入
的
行id
、
、
、
、
我正在使用
PySpark
通过
下面的JDBC命令
向
PostgreSQL数据库写入一个
DataFrame
。
如何
获取
插入
的
行id?它被设置为具有自动增量
的
标识列。我使用
的
是下面的命令,而不是单独
插入
每一行
的
for循环。(url=url, table="table1", mode=mode, properties=properties) 我知道我可以使用monotonicallyIncr
浏览 2
提问于2019-09-18
得票数 2
1
回答
pyspark
1.3.0将数据帧保存到配置单元
表
中
、
、
177070 我正在尝试将该DF保存到不存在配置单元
表
中
$$anonfun$resolve$1.apply(
DataFrame
.scala:162) at scala.Opti
浏览 0
提问于2017-01-20
得票数 0
1
回答
Pyspark
sql用于创建配置单元分区
表
、
、
我正在尝试使用spark sql从
pyspark
dataframe
创建一个hive paritioned
表
。下面是我正在执行
的
命令,但得到了一个错误。错误消息如下。df_view) spark.sql("create table if not exists tablename PARTITION (date) AS select * from df_view") 错误:
pyspark
.sql.utils.ParseException:u"\nmismatched input
浏览 113
提问于2021-09-19
得票数 0
回答已采纳
1
回答
如何
使用postgreSQL
表
插入
csv文件内容?
、
、
、
我希望将数据从csv文件
插入
到postgreSQL
表
中
。我编写了从csv文件
中
获取数据
的
代码,如下所示我得到了'myData‘变量
中
的
文件内容,我编写了如下数据库连接。', properties=pro
浏览 0
提问于2018-09-19
得票数 1
回答已采纳
1
回答
表
或视图未被
插入
到mysql
中
,而该
表
或视图存在于
Pyspark
中
。
、
、
、
我试图使用
Pyspark
连接
插入
到现有的Mysql
表
中
,但是我得到了以下错误 File "/usr/hdp/current
DataFrame
(self.: 'Table or view not found: test_write; line 1 pos 1' 我能得到关于这个错误
的
帮助吗。该
表</e
浏览 0
提问于2020-07-17
得票数 0
回答已采纳
1
回答
使用配置单元元数据读取HDFS文件-
Pyspark
、
、
、
、
我是
PySpark
新手,正在尝试读取HDFS文件(上面创建了hive
表
)并创建
PySpark
数据帧。
通过
PySpark
读取配置单元
表
非常耗时。有没有什么方法可以动态获取hive列名(用作
dataframe
中
的
模式)?我希望将文件位置、
表
名和数据库名作为输入传递给aa程序/函数,以便从配置单元元数据(可能是元数据xml)
中
获取模式/列名称,并作为
dataframe
浏览 15
提问于2019-03-06
得票数 0
回答已采纳
2
回答
如何
在spark
中
插入
空数据框
中
的
值
、
、
、
我正在使用spark sql开发一个SPARK应用程序,我
的
工作之一是从两个
表
中选择值,并将其
插入
到一个空
表
中
,这就是我
的
结果。下面是我
的
情况代码from
pyspark
.sql.types import StructType,StructField,StringType=sqlc.createDataFrame([],schema)
dataframe
浏览 2
提问于2016-08-03
得票数 0
回答已采纳
2
回答
将
PySpark
数据转换为Delta
表
、
、
、
我将Glue目录
中
的
数据作为动态数据读取,并将其转换为
Pyspark
dataframe
以进行自定义转换。为了重新
插入
新
的
/更新
的
数据,我打算使用delta
表
。但我只找到从路径读取数据作为增量表
的
选项。为了执行合并操作,我需要将我
的
Pyspark
转换为Delta
表
。有办法这样做吗?
浏览 7
提问于2021-08-30
得票数 3
回答已采纳
2
回答
saveAsTable -
如何
向
现有
表
中
插入
新数据?
、
、
、
如何
向
现有
表
中
插入
新数据?from
pyspark
import SparkContext sc = SparkContext
表
“人员”
中
的
数据不能更改。|
浏览 0
提问于2018-11-08
得票数 3
1
回答
Pyspark
:使用Zeppelin笔记本
插入
到蜂巢
中
的
表
的
问题
、
、
我一直试图复制源
表
的
内容,将NULLS转换为0并将其
插入
目标
表
中
。当在线阅读时,Spark似乎不支持INSERT INTO,但是,我一直在读到您可以使用
dataframe
并将其附加到
表
中
。这是我
的
原始代码:from
pyspark
.context import SparkContext df = sqlContext.sql("SELECT * FROM test_t
浏览 0
提问于2018-10-15
得票数 1
回答已采纳
1
回答
如何
在postgres驱动程序中使用nextval()?
、
、
、
、
在Postgres
中
,我有一个名为"mytable“
的
表
,其中有两个列,id (bigint)和value (varchar(255))。
PySpark
应用程序接受一个
dataframe
并使用postgresql(PostgreSQL42.1.4.jar)将数据
插入
到"mytable“
中
。下面是我目前
如何
编写从
Pyspark
到Postgres
的
数据: df.write.format("j
浏览 0
提问于2018-01-21
得票数 2
回答已采纳
2
回答
PySpark
配置单元SQL -未
插入
数据
、
、
、
、
我想
插入
一些数据,我
的
表
“测试”
通过
一个
pySpark
脚本(火种
的
python)。我首先在HUE
的
图形界面
中
为Hive创建了一个
表
"animals“,感谢下面的查询:于是我买了一张新桌子。我写这个脚本是为了给它添加一个新行(1,dog):fro
浏览 2
提问于2018-01-25
得票数 0
2
回答
Spark zeppelin:
如何
在%
pyspark
解释器
中
获取%sql结果?
、
、
、
我知道我可以用 %
pyspark
select C.name, count(C.name) from orderitems as A left join clientpagemodules as C onunix_timestamp(NOW()) - 3600*24*30) *1000
浏览 30
提问于2019-02-15
得票数 0
1
回答
如何
将
PySpark
RDD转换为具有未知列
的
Dataframe
?
、
、
、
我是
通过
从RDD
中
的
文本文件加载数据来创建
PySpark
的
。现在,我想将这个RDD转换成一个
dataframe
,但是我不知道RDD中有多少列和列。我试图了解
如何
创建schema,但大多数示例都显示了一个硬编码模式创建示例。现在,由于我不知道列是什么,所以
如何
将rdd转换为
dataframe
?到目前为止,我
的
代码如下:sqlContext
浏览 9
提问于2017-04-07
得票数 2
1
回答
PySpark
PCA:
如何
将数据行从多列转换为单列DenseVector?
、
、
、
、
我想使用
PySpark
(Spark1.6.2)对存在于Hive
表
中
的
数值数据执行主成分分析(PCA)。我能够将Hive
表
导入到:>>> hiveContext = HiveContext(sc) >>>
dataframe
有一篇优秀
的
StackOverflow文章展示了
如何
在
PySpark<
浏览 1
提问于2016-10-06
得票数 4
回答已采纳
1
回答
如何
使用
Pyspark
/SQL/DataFrames SPARK RDD来
插入
/删除DB2源
表
数据?
、
、
、
我尝试运行upsert/delete命令来
插入
/删除DB2数据库源
表
中
的
一些值,这是DB2上
的
一个现有
表
。是否可以使用
Pyspark
/Spark SQL/Dataframes。
浏览 2
提问于2019-05-10
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
PySaprk之DataFrame
PySpark,大数据处理的Python加速器!
Dataiku DSS Code Recipe 介绍
Python开源数据分析工具TOP 3!
如何在CDH集群上部署Python3运行环境及运行Python作业
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券