腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
Pyspark
3.0
无法
覆盖
或
删除
托管
表
、
、
当我尝试
覆盖
托管
表
时: lego_sets_df.write.mode("overwrite").saveAsTable('test_table') 我得到一个错误:
pyspark
.sql.utils.AnalysisExceptionThe associated location('file:/C:/Users/gprodanovic/PycharmProjects/pythonPySpark/spark-wa
浏览 77
提问于2020-12-07
得票数 0
2
回答
使用Phoenix从
PySpark
更新HBase
、
、
、
、
我正在尝试使用Phoenix连接器从
PySpark
读取和写入HBase。overwrite") \ .option("zkUrl", "localhost:2181") \我已经能够从
pyspark
然而,这个例子只给出了“
覆盖
”的模式,这意味着整个
表
将被
覆盖
。但是,我想要一个从
PySpark
向HBase追加数据<
浏览 5
提问于2018-01-06
得票数 0
1
回答
如何从
PySpark
向SQL添加新的和
覆盖
现有的?
、
、
、
、
所以我在一个SQL数据库中有一个
表
,我想使用Synapse (
PySpark
)来,添加新记录,
覆盖
现有记录()。但是,在
PySpark
中,我可以使用
覆盖
模式(这将
删除
我没有在迭代中推送的旧记录),也可以使用附加模式(不会
覆盖
现有记录)。选项A:先加载旧记录,然后在
PySpark
中合并,然后对所有内容进行处理。缺点是我得先把整张桌子装上。 选项B:
删除
我将要
覆盖
浏览 4
提问于2022-03-23
得票数 0
1
回答
如何在写入RDS posgtres时不丢失模式而用
PySpark
的JDBC
覆盖
数据?
、
、
、
、
我正在使用下面的代码来实现上述功能: .format("jdbc") \ .option("dbtable", "schema.table") \ .option("password", "p
浏览 3
提问于2021-05-13
得票数 0
2
回答
pyspark
rdd/dataframe未在cassandra中自动创建
表
、
、
、
、
在检查了所有找到的源之后,datastax-spark-cassandra连接器支持在cassandra中使用scala和java中的rdd自动创建
表
。特别是对于
pyspark
,有另一个包可以完成这项工作-- 。但是即使有了这个包也不能自动创建表格。对于dataframe,我根本找不到任何选项。我刚接触
pyspark
和cassandra,任何帮助都是非常感谢的。尝试仅使用anguenot包作为依赖项。Spark版本: 2.4.7 Cassandra :最新docker镜像
Pyspark
shell >> <e
浏览 8
提问于2021-03-03
得票数 2
1
回答
如何使用
Pyspark
删除
CosmosDB顶点
、
、
因为我们可以使用下面的
pyspark
将数据读写到cosmosdb中, cfg = {"spark.cosmos.accountKeycosmosDbFormat = "cosmos.oltp" df = spark.read.format("cosmos.oltp").options(**cfg).load() 同样的,有没有办法用
pyspark
来
删除
浏览 17
提问于2021-08-12
得票数 0
2
回答
星星之火HiveContext :插入
覆盖
与读取表相同的
表
、
、
、
我想使用SCD1和SCD2在HiveContext中使用
PySpark
。在我的方法中,我正在读取增量数据和目标
表
。阅读完后,我将加入他们的行列,寻找新的方法。我正在尝试将最终数据集写入目标
表
,并且我面临的问题是,
无法
在从目标
表
读取的
表
中插入
覆盖
。 请提出一些解决办法。我不想将中间数据写入物理
表
并再次读取它。是否有任何属性
或
方法来存储最终数据集,而不将依赖项保留在从中读取的
表
上。这样,就有可能
覆盖
<e
浏览 6
提问于2017-09-10
得票数 1
回答已采纳
2
回答
将函数应用于数组列中的所有值
、
、
、
示例数据框架: [Row(name='Joe', forecast_values=[1.0,2.0,
3.0
]), |name|forecast_values| | Joe|[1.0, 2.0,
3.0
浏览 3
提问于2019-10-22
得票数 6
回答已采纳
2
回答
databricks错误IllegalStateException:事务日志完整性检查失败
、
我有一个需要
删除
、
删除
事务日志和重新创建的
表
,但是当我试图
删除
时,我会得到以下错误。 我已经运行了修复
表
对此语句,并可能负责的错误,但不确定。验证失败:
表
大小(字节)-预期:0计算: 63233个文件数量-预期:0计算:1
浏览 1
提问于2018-12-13
得票数 2
2
回答
星火
覆盖
删除
红移
表
权限
、
、
我正在尝试使用
pyspark
更新红移群集
表
的内容,如下所示: .format("com.databricks.spark.redshift") \ .option("tempdir", aws_bucket_name) \ .save()
表
内容被正确保存,但是在
覆盖
操作之
浏览 3
提问于2022-06-17
得票数 0
回答已采纳
1
回答
当managedobjectcontext更改时,NSFetchedResultsController不会更新
、
我做了一个程序,有时我会把一些锚移到另一个锚上。我用这个标准代码更新了一些东西 // get the moc for this thread NSManagedObjectContext *moc = [self managedObjectContext]; DLog(@"thre
浏览 0
提问于2011-11-04
得票数 1
回答已采纳
1
回答
Spark流式数据以更新SQL Server (事务)
、
目前我有一些
pyspark
代码,它是从kafka主题读取数据(readStream),我计划使用事务更新SQL Server
表
。流数据将具有所有三个插入、更新、
删除
事务。
浏览 2
提问于2020-01-29
得票数 0
2
回答
PySaprk:星火提交
无法
执行所需的工作
、
、
、
我是
PySpark
的新手。我使用下面的spark-submit进程在集群中的Hive中加载一个
表
。/usr/hdp/2.5.0.0-1245/spark2/bin/spark-submit --driver-class-path /path/to/driver/sqljdbc4-
3.0
.jar --Some other staging related errors 底线:我
无法
使用上面的spark-submit代码创建一个H
浏览 1
提问于2019-03-29
得票数 2
1
回答
如何从hdfs中
删除
客户信息
、
、
、
如果我的客户要离开,他希望他的个人信息应该从我的hdfs中
删除
。方法1:2.使用筛选逻辑从第一个
表
创建外部
表
。3.在创建第二个
表
时,在特定列上应用udfs进行更多列筛选Spark=>读,过滤,写 还有别的解决办法吗?
浏览 6
提问于2020-04-22
得票数 1
2
回答
删除
Dataproc上的集群后,Apache检索
表
存储在gcs中
、
、
、
、
我将数据存储在一个外部gcs桶中,使用
pyspark
作为spark数据data,并将其存储为一个分区
表
,使用"df.repartition(100).write.saveAsTable()“格式的”
或
c之后,我
删除
了我的集群并创建了一个新的集群。现在,我
无法
使用我的gcs桶使用
pyspark
加载分区
表
。我甚至将"spark.sql.warehouse.dir“配置SparkSession位置设置为以前保存
表
的路径。但是,即使在使用&
浏览 1
提问于2020-06-03
得票数 2
1
回答
Core
3.0
中ValidateEntity的等价性
、
、
似乎在包中从Microsoft.AspNetCore.Identity.EntityFrameworkCore)类中
删除
了保护
覆盖
DbEntityValidationResult ValidateEntity(最新版本(2.2.0和
3.0
)中的IdentityDbContext )。如何在Core
3.0
或
Core2.2中验证数据库?
浏览 1
提问于2019-11-28
得票数 2
回答已采纳
3
回答
如何
覆盖
CRM中的
托管
解决方案?
、
现在我在dev CRM上做了一些更改,比如从Contact entity中
删除
和添加一些字段。之后,我创建了新的S1导出(作为
托管
)。如何在CRM上完全
覆盖
导入的
托管
解决方案? 谢谢
浏览 0
提问于2013-05-12
得票数 0
回答已采纳
1
回答
保存模式(‘
覆盖
’)设置的星火DataFrame时,“关联位置已经存在”
、
: 'spark_no_bucket_table1') table('`spark_no_bucket_table1
浏览 35
提问于2022-11-15
得票数 2
回答已采纳
1
回答
如何在Azure Delta湖上创建外部
表
(类似于Hive)
、
、
如何在Azure数据湖存储上创建外部Delta
表
?我目前正在从事一个迁移项目(从
Pyspark
/Hadoop到Azure)。我找不到很多关于在Azure中创建非
托管
表
的文档。即使在加载第二次数据前执行“如果存在
删除
表
”,但如果在步骤4之后查询“
表
”,我可以看到两个数据的内容,因为我只是在“
删除
”
表
结构,而不是实际数据(Hive外部
表
)。Create非
托管
表
。 这是我的Da
浏览 3
提问于2022-03-30
得票数 0
2
回答
PySpark
配置单元SQL -未插入数据
、
、
、
、
我想插入一些数据,我的
表
“测试”通过一个
pySpark
脚本(火种的python)。我首先在HUE的图形界面中为Hive创建了一个
表
"animals“,感谢下面的查询:于是我买了一张新桌子。我写这个脚本是为了给它添加一个新行(1,dog):from
pyspark
import SparkContext from
pyspar
浏览 2
提问于2018-01-25
得票数 0
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
云直播
腾讯会议
实时音视频
活动推荐
运营活动
广告
关闭
领券