腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
如何
从
Pyspark
更新
Mysql
表
中的数据
、
我可以
从
pyspark
中的mysql
表
中读取数据。hiveContext.read.format('
jdbc
').options(url=
jdbc
_url, dbtable=mysql_query,driver='com.mysql.
jdbc
.Driver').load() 但是我找不到在mysql中
更新
记录的方法。有没有人执行过
pyspark
的
更新
。
浏览 4
提问于2016-12-17
得票数 1
1
回答
使用
JDBC
从
Pyspark
更新
表
、
、
不幸的是,Databricks似乎不能调用存储过程,所以我手动将包含正确数据的行追加到我的日志
表
中。但是,在给定一组条件的情况下,我找不到正确的sytnax来
更新
表
: 我用来追加一行的语句如下: spark_log.write.
jdbc
(sql_url, 'internal.Job',mode='append查看文档,这似乎只提到了
使用
带有query参数的select语句: 目标数据库是Azure SQL数据库。https://spark.apache.o
浏览 29
提问于2020-01-06
得票数 2
回答已采纳
1
回答
使用
PySpark
DataFrames和
JDBC
插入和
更新
MySql
表
、
、
、
、
我正在尝试
使用
PySpark
、SQL、DataFrames和
JDBC
connection在MySql上插入和
更新
一些数据。myDataFrame.write.mode(SaveMode.Append).
jdbc
(JDBCurl,mySqlTable,conn
浏览 2
提问于2020-07-02
得票数 1
1
回答
将转换的DataFrame保存/导出回
JDBC
/ MySQL
、
、
我试图弄清楚如何
使用
新的DataFrameWriter将数据写回
JDBC
数据库。我似乎找不到这方面的任何文档,尽管看一下源代码,它似乎是可能的。下面是我正在尝试的一个简单的例子: "url" -> "
jdbc
:mysql://localhost/foo", "dbtable" -> "foo.bar&q
浏览 0
提问于2015-09-16
得票数 7
2
回答
通过
JDBC
从
pyspark
dataframe插入到外部数据库
表
时的重复键
更新
、
、
、
、
嗯,我
使用
的是
PySpark
,我有一个Spark dataframe,我
使用
它将数据插入到mysql
表
中。df.write.
jdbc
(url=url, table="myTable", mode="append") 我希望通过列值和特定数字的总和来
更新
列值(不
浏览 4
提问于2015-09-16
得票数 12
1
回答
Pyspark
dataframe:用给定模式编写
jdbc
来动态创建
表
、
、
、
是否有一种方法可以像我们
使用
熊猫的方法那样,动态地
从
pyspark
创建具有给定模式的
表
。 类似地,我们可以
从
pyspark
dataframe创建一个具有给定模式的
表
吗?df.write.
jdbc
("
jdbc
:postgresql://localhost:5432/postgres", "sample_data1",mode="overwrite"
浏览 4
提问于2020-06-22
得票数 1
回答已采纳
1
回答
如何在python中解密密码
、
、
、
、
我的代码是
使用
pyspark
连接到sql server。对于这个连接,我得到了jceks的加密密码。如何解密密码并用于
从
sql server加载
表
。请提个建议。import
pyspark
from
pyspark
_llap import HiveWarehouseSessionfrom
pyspark
.sql.functions import * f
浏览 14
提问于2019-08-06
得票数 4
回答已采纳
1
回答
PySpark
sqlContext阅读postgres9.6 NullPointerException
、
、
、
尝试
使用
PySpark
从
Postgres DB读取
表
。"url = '
jdbc
:postgresql://tom:@localhost/gqp' sqlContext.read \ .option("url", url) \ .option("driver&
浏览 6
提问于2017-03-09
得票数 3
回答已采纳
1
回答
将
pyspark
连接到MS-SQL数据库时出现问题
、
我正在尝试
使用
pyspark
连接到MS-SQL数据库: "jdbcDF = spark.read.format("
jdbc
") \ .option("url", "
jdbc
:sqlserver
浏览 21
提问于2019-03-08
得票数 2
1
回答
我可以
使用
pyspark
连接到Hive数据库,但是当我运行我的程序时,数据不显示
、
、
我已经写了下面的代码来
从
HIVE
表
中读取数据,当我试图运行时,没有编译错误,也没有数据显示。from
pyspark
import SparkConf, SparkContext os.environ['
PYSPARK
_SUBMIT_ARGS'] = '--jars hive-
jdbc
-2.1.0.jar
浏览 0
提问于2018-04-20
得票数 0
2
回答
Apache Spark
PySpark
连接到MSSQL数据库
JDBC
、
、
我在Windows 10 64位操作系统上
使用
Python 3.7.3,我有Python的Anaconda发行版。我已经下载了Jar
JDBC
文件,并将其放入Spark文件夹(位于
pyspark
的Anaconda文件夹中)。美国东部时间12/31 18:46
更新
* 步骤1
使用
Anaconda Prompt ->
pyspark
->按enter键启动类路径,然后输入以下命令 bin/spark-shell--driver-class-path/m
浏览 37
提问于2019-12-31
得票数 1
1
回答
如何处理AWS胶粉中的“0000-00-00”
、
、
、
、
我
使用
AWS胶水读取Aurora (MySQL)
表
并写入S3文件。MySQL
表
的日期列值为“0000-00-00”,这在MySQL中是允许的。正因为如此,我的Glue作业(
PySpark
)失败了。附加
jdbc
:mysql:<host-name>/<db-name>?zeroDateTimeBehavior=convertToNull&autoReconnect=true&characterEncoding=UTF-8&characterSetRes
浏览 0
提问于2018-08-04
得票数 2
1
回答
如何在postgres驱动程序中
使用
nextval()?
、
、
、
、
id
使用
nextval('my_sequence')
从
序列中获取其值。
PySpark
应用程序接受一个dataframe并
使用
postgresql(PostgreSQL42.1.4.jar)将数据插入到"mytable“中。下面是我目前如何编写
从
Pyspark
到Postgres的数据: .option("url",
jdbc
_
浏览 0
提问于2018-01-21
得票数 2
回答已采纳
1
回答
使用
pySpark
将DataFrame写入mysql
表
、
、
、
、
我正在尝试向MySql
表
中插入记录。该
表
包含作为列的id和name。id = '103' l = [id,name] url='
jdbc
:mysql://localhost/
浏览 3
提问于2017-10-04
得票数 16
回答已采纳
1
回答
从
sql
表
加载数据以激发Azure数据库中的数据
、
我正在尝试将SQL
表
加载到dataframe中。我正在跟踪微软的官方文件。java.lang.ClassNotFoundException: connectionProperties = {}databa
浏览 4
提问于2022-05-21
得票数 0
2
回答
如何
使用
SQLContext
从
pyspark
笔记本中执行任意sql?
、
、
、
、
我正在尝试一个基本的测试用例,将数据
从
dashDB读入spark,然后再写回dashDB。sqlContext = SQLContext(sc) url="
jdbc
:db2://bluemix05) WITH NO DATAfrom
pyspark
.sql import DataFrameWriter writer =
浏览 7
提问于2015-11-12
得票数 0
回答已采纳
1
回答
在执行python文件时
使用
submit的CLI参数。
、
、
、
我正试图通过下面的
pyspark
代码将sql server
表
转换为.csv格式。from
pyspark
import SparkContextfrom
pyspark
.sql import SQLContext, Row df = sqlContext.read.format("
jdbc
").op
浏览 0
提问于2017-09-07
得票数 0
回答已采纳
1
回答
从
databricks中删除postgres的记录。(火花放电)
、
、
因此,我
使用
pyspark
从
databricks连接到postgres数据库,我可以阅读,我可以创建
表
,也可以
更新
它。但我无法删除一份记录。dfs = spark.read.format('
jdbc
')\.option("user", user)\ .option("password",
浏览 2
提问于2022-06-07
得票数 1
1
回答
在调用o23.
jdbc
时发生了错误。::java.lang.ClassNotFoundException: com.mariadb.
jdbc
.Driver
、
、
我将
使用
pyspark
.And
从
mariadb数据库读取
表
--运行以下代码‘’时会发生错误jdbcDatabase = "pucsl"jdbcUrl = "
jdbc
:mariadb://{0}:{1}/{2}?user={3}&password={4}".format(jdbcHostname, jdbcPort, jdb
浏览 33
提问于2022-04-25
得票数 0
1
回答
表
或视图未被插入到mysql中,而该
表
或视图存在于
Pyspark
中。
、
、
、
我试图
使用
Pyspark
连接插入到现有的Mysql
表
中,但是我得到了以下错误 File "/usr/hdp/current该
表
存在于MySql数据库中,在从另一个
表
中选择数据时,我成功地插入了Dataframe,但是我想直接插入到Mysql数据库
表
中。我的代码:from
pyspark
.
浏览 0
提问于2020-07-17
得票数 0
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券