腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
2
回答
Apache
Spark
是否
从
目标
数据库
加载
整个
数据
?
、
、
、
我想使用
Apache
Spark
并通过JDBC连接到Vertica。似乎
Spark
从
目标
服务器
加载
了所有
数据
。这是我的代码: .option(&
浏览 5
提问于2017-02-16
得票数 1
1
回答
运行中的
Spark
Cassandra连接器:如果Cassandra托管在不同的服务器上,它是如何工作的
、
、
、
假设我想转换来自cassandra表(比如表)的
数据
,并使用
Spark
将相同的
数据
重写到cassandra中的其他表(比如tableNew),我编写的代码如下所示 val conf = new SparkConf("org.
apache
.
spark
.sql.cassandra").options(Map( "table" -> "<table>", "keyspace" -> "<Key
浏览 26
提问于2019-07-09
得票数 1
回答已采纳
1
回答
三角洲湖:如何在内部工作?
、
、
在我们的
数据
管道中,我们
从
数据
源中摄取CDC事件,并将这些更改写入AVRO格式的“增量
数据
”文件夹中。然后定期运行
Spark
作业,将这些“增量
数据
”与当前版本的“快照表”(ORC格式)合并,以获得上游快照的最新版本。1)将“增量
数据
”
加载
为DataFrame df1。2)将当前的“快照表”
加载
为DataFrame df2 3)合并df1和df2,取消复制ids,并使用最新版本的行(使用update_timesta
浏览 1
提问于2019-12-25
得票数 4
回答已采纳
2
回答
Spark
Thrift服务器在通过JDBC传输之前将全部
数据
集
加载
到内存中
、
Spark
Thrift服务器试图在通过JDBC传输之前将完整的
数据
集
加载
到内存中,在JDBC客户端上,我收到错误: org.
apache
.
spark
.SparkException: Job aborted due to stage failure: Total size of serializedresults of 48 tasks (XX GB) is bigg
浏览 9
提问于2018-11-01
得票数 0
2
回答
如何将
数据
从
hortonworks hive导出到cassandra?
、
、
、
、
我想将
数据
从
hortonworks hive导出到Cassandra,有没有一种方法可以不使用ETL工具将
数据
从
Horton works Hive导出到datastax Cassandra?
浏览 3
提问于2016-03-23
得票数 0
6
回答
星火箱类-十进制型编码器错误“不能从十进制转换”。
、
、
我
从
MySQL/MariaDB中提取
数据
,在创建Dataset期间,
数据
类型发生错误 线程"main“org.
apache
.
spark
.sql.AnalysisException中的异常:不能从十进制(30,6)到十进制(38,18),因为它可能截断
目标
对象的类型路径是:- AMOUNT (类:"org.
apache
.
spark
.sql.types.Decimal",名称:”org.
apache</em
浏览 16
提问于2016-12-03
得票数 13
回答已采纳
1
回答
Apache
Spark
:如何在
spark
应用程序中
加载
数据
?
我是
apache
spark
的新手。有没有人可以给我介绍一个例子,解释在集群模式下运行的
spark
应用程序是如何
加载
数据
的。准确地说,当您启动负责
从
DB
加载
数据
的应用程序(它有数百万条记录)时,是先在驱动程序中
加载
整个
数据
,还是将函数实际传递给executor,以便在每个executor中划分和
加载
数据
?
浏览 19
提问于2019-03-10
得票数 1
回答已采纳
1
回答
如何在
数据库
中不
加载
表
数据
的情况下获得模式?
、
、
、
、
我正在开发Databricks,我使用
spark
来进行laod,并将
数据
发布到SQL
数据库
。我需要完成的任务之一是获取
数据库
表的架构,从而查看每一列的
数据
类型。到目前为止,我能够做到这一点的唯一方法是
加载
整个
表,然后提取模式。df_tableA =
spark
.read.format("jdbc") \ .optio
浏览 3
提问于2022-04-11
得票数 0
回答已采纳
1
回答
允许Cerner
加载
FHIR R4 (ukcore)的依赖项是什么?
、
、
、
有谁知道Cerner库()
是否
会
加载
FHIR R4包并将
数据
持久化以激发sql
数据库
?如果有人能给我指点或指点,那就太好了。目前,我只是尝试
从
加载
一个捆绑的示例。最终
目标
是将传入的Bundles持久化到一个由
Apache
集群访问的蜂巢
数据库
中。--
Spark
dependencies --> <groupId>org.<
浏览 3
提问于2020-08-29
得票数 1
回答已采纳
1
回答
读取scala星星之火时如何
从
excel文件中的超链接中提取urls
、
、
、
、
我有一个带有列A的文件,其中包含以下超链接: 我可以使用com.crealytics.
spark
.excel库在scala中
加载
Excel文件,但只能使用不包含url的“视图链接”文本import org.
apache
.
spark
.sql.types.builder()
浏览 5
提问于2022-04-26
得票数 0
1
回答
通过另一列的值初始化列表
出于迁移的目的,我需要将“
数据
”的值复制到一个新列:data_list (list<text>)。如何通过data_list列中的值初始化data列?
浏览 2
提问于2021-06-13
得票数 1
回答已采纳
1
回答
是否
有可能使用基础格式的
数据库
精确地实现一次语义?
、
、
、
、
在流处理应用程序中(例如,基于
Apache
Flink或
Apache
Spark
流),有时必须只处理一次
数据
。在
数据库
世界中,可以通过使用遵循ACID标准的
数据库
来实现相同的
目标
(如果我错了,请纠正我)。 然而,有很多(非关系型)
数据库
不遵循ACID,而遵循BASE。现在我的问题是:如果我要将这样一个基础
数据库
集成到流处理应用程序中(恰好一次),我还能保证
整个
流水线只处理一次吗?如果这是可能的,在什么情况下?
浏览 28
提问于2021-04-26
得票数 0
1
回答
当连接到Phoenix查询服务器时,
Spark
dataframe仅返回结构
、
、
我通过phoenix (4.11) queryserver
从
Spark
2.2.0连接到hbase (1.2版),但
数据
帧返回了唯一的表结构,其中包含空行,尽管表中存在
数据
。4.11.0-HBase-1.2-thin-client.jar<br>prop.setProperty("driver", "org.
apache
.phoenix.queryserver.client.Driver&q
浏览 0
提问于2017-10-13
得票数 1
1
回答
如何使用Pyspark
从
mongodb中仅提取特定行?
、
、
、
我正在从mongodb集合中提取
数据
,并使用
Spark
python代码将其写入bigquery表。下面是我的代码片段: .format("com.mongodb.
spark
.sql.DefaultSource")\df2 = df.f
浏览 1
提问于2021-02-18
得票数 0
1
回答
如何将
数据
推送到phoenix is块
、
、
、
我正在尝试将
数据
从
spark
推送到phoenix。
数据
的大小超过100万。
spark
作业在10万条记录的情况下运行良好,但当记录数超过100万条时就会卡住。我正在从hive
加载
数据
val hive_data =
spark
.sql(query) 把它推向凤凰城 hive_data.write.format("org.
apache
.phoenix.
spark
options(collection.immuta
浏览 26
提问于2021-06-26
得票数 0
1
回答
如何将elasticsearch与
apache
火花流或风暴连接起来?
、
、
、
我们正在用开源工具构建一个实时的大
数据
工具。我们的主要
目标
是通过实时
从
kafka服务器获取日志来监控和分析网络。我们在教程中看到,我们必须将我们的工具分成两个部分:分析和监督,如下所示。 尽管
Apache
是一个真正的实时
数据
处理工具,比
Apache
流更快,但它并不提供像
Apache
这样的机器学习库。这就是为什么我们正在考虑选择
Apache
火花。弹性网站表明,它存在一个连接器ES-Hadoop来连接Elasticsearch
数据库</em
浏览 6
提问于2016-07-08
得票数 3
回答已采纳
1
回答
跨集群分布分区
、
、
、
、
在
apache
spark
中,允许
从
许多不同的源
加载
数据
集。根据我的理解,
spark
集群的计算节点可以不同于hadoop用来存储
数据
的节点(对吗?)更重要的是,我们甚至可以
加载
本地文件到
spark
作业中。主要问题来了:即使我们在hdfs和
spark
上使用相同的计算机,在创建RDD的过程中,
spark
是否
总是会对所有
数据
进行混洗?或者
spark
只是
浏览 0
提问于2018-05-08
得票数 0
2
回答
如何在Map[String,Dataframe]中存储多个dataframe,并使用map的key访问每个dataframe
、
我有多个
数据
帧需要将它们存储在MapString中,
数据
帧
数据
结构。下一步,我们的
目标
是访问它们以进行连接操作。Map.empty[String,DataFrame] map_DFs += ("Addresses" -> addresses_df) 我正在尝试
加载
这些
数据
帧[_],joinExprs: org.
apache
.
spark
浏览 27
提问于2019-08-27
得票数 0
2
回答
从
AWS (MySQL)
加载
表时
是否
可以强制进行模式定义?
、
、
、
我使用
Apache
从
MySQL
数据库
读取AWS 中的
数据
。
是否
可以在
加载
表时强制执行模式定义?
浏览 3
提问于2017-02-27
得票数 3
回答已采纳
1
回答
java.sql.SQLException:
从
Apache
连接到Oracle
数据库
时未识别的SQL类型-102
、
、
、
、
我正在尝试将远程Oracle
数据库
表
加载
到上。./
spark
-shell --driver-class-path ../jars/ojdbc6.jar --jars ../jars/ojdbc6.jar --master local 我得到一个Scala提示符,在这里我尝试
加载
一个Oracle
数据库
表,如下所示。org.
apache
.
spark
.sql.execution.datasource
浏览 3
提问于2019-06-16
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
教程:Apache Spark SQL入门及实践指南!
pyspark 安装
数据湖和SQL并不矛盾
Uber机器学习平台Michelangelo是如何使用Spark模型的?
年薪50万+的大数据工程师需要具备哪些技能?
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券