腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(7907)
视频
沙龙
1
回答
使用
带有
jdbc
写入
的
PySpark
数据
帧
在
PostgreSQL
上
写入
enun
时
出现问题
、
、
因此,我
使用
PySpark
(Spark 3.0.1,Scala2.12)将
数据
从MySQL (5.7)
数据
库移动到
PostgreSQL
(12.7)
数据
库。destiny模型中
的
表有一列是Enum。REFUNDED','PARTIALLY_REFUNDED','PROCESSING'); 插入时: df_orders.select(df_orders.columns).write.format('
jd
浏览 25
提问于2021-07-06
得票数 0
回答已采纳
1
回答
使用
JDBC
从Dataframe源复制到SQL Server目标
、
、
、
、
我
在
Databricks
的
Python环境中工作。我想应该有几种方法可以将
数据
帧
复制到SQL Server中
的
表中。下面是我正在测试
的
两个代码示例。# Saving data to a
JDBC
source .format("
jdbc
") \ .option("url", "
jdbc
:
postgresql
("<
浏览 24
提问于2019-11-27
得票数 0
回答已采纳
1
回答
即使配置了电子病历也找不到Spark org.
postgresql
.Driver
、
、
、
我正在尝试
使用
以下代码将
pyspark
数据
帧
写入
Postgres
数据
库:url = "
jdbc
:
postgresql
://host/database" properties= {"user": "user","password": "password","
浏览 8
提问于2019-11-07
得票数 0
1
回答
如何在postgres驱动程序中
使用
nextval()?
、
、
、
、
在
Postgres中,我有一个名为"mytable“
的
表,其中有两个列,id (bigint)和value (varchar(255))。
PySpark
应用程序接受一个dataframe并
使用
postgresql
(
PostgreSQL
42.1.4.jar)将
数据
插入到"mytable“中。我可以看到,在读取
数据
()
时
可以调用Postgres方法,但我不确定如何调用Postgres函数(如nextval() )将<e
浏览 0
提问于2018-01-21
得票数 2
回答已采纳
1
回答
pyspark
dataframe.write()中
的
批处理大小选项不起作用
、
、
我正在尝试将
数据
从
pyspark
写入
postgresql
DB。我
使用
了batchsize 1000,
pyspark
dataframe中
的
总
数据
是10000。但是
在
postgresql
中进行
的
插入并不是批处理
的
。它是一个接一个地插入
数据
。下面的代码用于
写入
DB df.write.option('batchsize
浏览 4
提问于2019-11-11
得票数 0
1
回答
pySpark
jdbc
写入
错误:调用o43.
jdbc
时
出错。:scala.MatchError:空
、
、
、
我正在尝试
使用
pySpark
将简单
的
spark
数据
帧
写入
db2
数据
库。Dataframe只有一个
数据
类型为double
的
列。这是只有一行和一列
的
数据
帧
: 这是
数据
帧
架构: 当我尝试
使用
以下语法将此
数据
帧
写入
db2表
时
: dataframe.wri
浏览 0
提问于2018-03-21
得票数 1
2
回答
对postgres
的
Spark
写入
较慢
、
、
我正在
写入
数据
(大约。83M条记录)从一个
数据
帧
到
postgresql
,速度有点慢。完成对db
的
写入
需要2.7小
时
。prop.setProperty("password", DB
浏览 1
提问于2016-09-09
得票数 6
回答已采纳
1
回答
JDBC
与非Unicode
数据
库,如何指定处理不受支持
的
字符?
、
我有一个用于Unicode
的
Java应用程序和一个8位非Unicode代码页(例如,DB2 )中
的
数据
库(Oracle、MSSQL、DB2、MySQL)。将
数据
库迁移到Unicode不是一个选项。当应用程序传递不能在
数据
库编码中编码
的
unicode字符
时
,是否有任何方法来指定
JDBC
驱动程序
的
行为(替换/错误/警告)?
浏览 4
提问于2017-02-06
得票数 0
回答已采纳
2
回答
使用
PySpark
JDBC
将
数据
帧
写入
Azure SQL
数据
库
时
性能较低
、
、
、
我
在
PySpark
中
使用
下面的
JDBC
URL将data frame写成Azure SQL Database。但是,我觉得这个写操作
的
性能并没有达到标准,可以通过设置一些额外
的
属性来提高。有什么变通方法或参数可以让我提高
JDBC
的
写入
性能吗?=false" .mod
浏览 2
提问于2020-01-13
得票数 0
1
回答
jdbc
.SQLServerException:将
数据
导出到Azure SQL Server
时
找不到
数据
类型“”TEXT“”
、
、
、
、
我已经
在
Azue HDInsight
上
的
scala spark 2.1中创建了一个
数据
帧
。我正在尝试
使用
PostgreSQL
包将
数据
帧
写入
SQL
数据
仓库。我尝试了以下命令来编写: df1.write.format("
jdbc
").option("url", "
jdbc
:sqlserver://#
浏览 1
提问于2017-05-26
得票数 1
2
回答
Py4JJavaError java.lang.NullPointerException org.apache.spark.sql.DataFrameWriter.
jdbc
、
、
、
、
当我试图将spark
数据
帧
写入
postgres DB
时
,我得到了这个错误。我
使用
的
是本地集群,代码如下:from
pyspark
import SQLContext, SparkConf import osos.environ["SPARK_CLASSPATH"] = '/usr/share/java/
pos
浏览 6
提问于2016-08-09
得票数 5
3
回答
如何
使用
JDBC
源
在
(Py)星火库中读写
数据
?
、
、
、
、
这个问题
的
目的是记录: 这些方法只要做一些小
的
改动,就可以与其他受支持
的
语言一起工作,包括Scala
浏览 0
提问于2015-06-22
得票数 81
回答已采纳
2
回答
pyspark
.sql.utils.AnalysisException:表未找到: test_result;
、
、
、
、
我正在尝试从S3桶中读取文件,并
使用
pyspark
将
数据
写入
postgresql
表,但遇到了以下错误from
pyspark
.sql import SparkSession df.write.format("
jdbc
浏览 17
提问于2022-03-29
得票数 0
回答已采纳
1
回答
创建并
写入
数据
库
JDBC
PySpark
、
、
我有一个
数据
帧
,我想要写到
数据
库表中,但是
使用
以下命令: .write.format("
jdbc
") \.option("url", "
jdbc
:
postgresql
://ec2xxxxamazonaws.com:xxxx/xxxx"
浏览 1
提问于2020-10-10
得票数 1
2
回答
AWS胶水IllegalArgumentException:‘无效
的
类型名称uuid’
、
我正在尝试将一个
在
一列中包含UUID
的
表ETL到postgres表中,但是我正在努力将UUID列作为UUID类型加载到目标postgres表中。
使用
以下代码行: applymapping1 = ApplyMapping.apply(frame = foo, mappings = [("id", "string", "id", "uuid")],transformation_ctx = "applymapping1") 当我运行glue作业<e
浏览 57
提问于2019-10-04
得票数 0
回答已采纳
2
回答
使用
Python从Server查询和插入记录
、
、
、
、
作为这个项目的一部分,我正在重新创建一些包,但是我在
数据
库访问方面遇到了问题。我设法像这样查询
数据
库:.format("
jdbc
") .format("
jdbc
") \
浏览 9
提问于2022-11-15
得票数 0
回答已采纳
1
回答
如何在不丢失模式
的
情况下用
PySpark
的
JDBC
覆盖
数据
?
、
、
我有一个愿意
写入
PostgreSQL
数据
库
的
DataFrame。如果我简单地
使用
“覆盖”模式,比如:将重新创建该表,并保存
数据
。因此,我想要么只覆盖
数据
,保留表模式,要么
在
之后添加主键约束和索引。其中任何一个
浏览 3
提问于2018-04-04
得票数 7
1
回答
while作业
在
向java.lang.OutOfMemoryError
写入
时抛出s3
、
、
我有一个胶水作业,从RDS中读取,并以带分区
的
拼花格式将其
写入
s3。
数据
的
大小与150 GB有关。import SparkContext from
pyspark
.sql.functions import col, udf
浏览 3
提问于2022-04-06
得票数 0
1
回答
PySpark
-
在
写入
PostgrSQL DB后获取插入
的
行id
、
、
、
、
我正在
使用
PySpark
通过下面的
JDBC
命令向
PostgreSQL
数据
库
写入
一个DataFrame。如何获取插入
的
行id?它被设置为具有自动增量
的
标识列。我
使用
的
是下面的命令,而不是单独插入每一行
的
for循环。df.write.
jdbc
(url=url, table="table1", mode=mode, properties=properties) 我知道
浏览 2
提问于2019-09-18
得票数 2
1
回答
火花错误:在
数据
库“默认”中找不到表或视图“用户”;
、
、
我试图通过
JDBC
使用
spark发送SQL查询,
使用
: SparkSession.builder() .config("url", "
jdbc
:oracle:thin:@host/service")
浏览 1
提问于2019-10-15
得票数 0
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
实时音视频
对象存储
云直播
活动推荐
运营活动
广告
关闭
领券