腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9570)
视频
沙龙
1
回答
DataFrame
/
Dataset
Apache
spark
的
逻辑
计划
、
我使用
的
是
spark
2.0.0。下面是我
的
代码:import org.
apache
.
spark
.sql.SparkSession import org.
apache
.
spark
.sql.catalyst.analysis.EliminateSubqueryAliasesimport org.
apache
.
spar
浏览 2
提问于2016-08-12
得票数 1
3
回答
如何让
spark
dataframe
将其解释
计划
打印为字符串
、
、
我有一个系统,其中组件A将sql传递给组件B,然后B通过
apache
spark
运行sql,并返回结果。出于调试
的
目的,我放入了第二个通信通道,在这个通道中,A可以将sql传递给B,并请求和解释
计划
。B中
的
代码如下所示: val
dataFrame
= sparkContext.sql(sql)
dataFrame
.explain(
浏览 0
提问于2019-04-10
得票数 7
2
回答
过滤器与Hive where子句
、
、
、
我只是想知道这个火花密码就像这个一样有效率:在第一组中,我们是将所有的单元数据加载到RAM中,还是足够聪明地在执行生成
的
DAG时过滤蜂巢中
的
这些值
浏览 2
提问于2020-08-28
得票数 0
回答已采纳
1
回答
无法使用Case类将rdd转换为
Dataframe
、
我正试图使用Case类将rdd转换为
DataFrame
,如下所示==分析
逻辑
计划
==名称: string GlobalLimit 21 +- LocalLimit 21 +- P
浏览 1
提问于2017-05-19
得票数 0
1
回答
调用
Dataset
静态方法在Shell中不工作
、
、
、
我是Scala
的
新手,所以如果解决方案微不足道,我会提前道歉。import org.
apache
.
spark
.sql._ val newDS =
Dataset
.ofRows(
spark
, newPlanval newDS = org.
apache
.
浏览 0
提问于2017-11-07
得票数 1
回答已采纳
2
回答
为什么我不能导入org.
apache
.
spark
.sql.
DataFrame
、
我有Maven依赖项
spark
-sql_2.1.0和
spark
-hive_2.1.0。然而,当我尝试import org.
apache
.
spark
.sql.
DataFrame
时,出现了一个错误。但是导入org.
apache
.
spark
.sql.SQLContext是可以
的
,没有错误。为什么?
浏览 20
提问于2017-07-19
得票数 4
回答已采纳
2
回答
DAG中
的
ExternalRDDScan是什么?
、
、
ExternalRDDScan在DAG中
的
意义是什么?
浏览 6
提问于2019-10-01
得票数 6
回答已采纳
2
回答
星星之火:如果
DataFrame
有一个模式,
DataFrame
如何成为
Dataset
[Row]?
、
、
、
声称
Spark
中
的
DataFrame
等同于
Dataset
[Row],但是显示
DataFrame
有一个模式。以博客文章中关于将RDD转换为
DataFrame
的
例子:如果
DataFrame
与
Dataset
[Row]相同,那么将RDD转换为
DataFrame
应该是一样简单
的
。= sparkSession.createDataFrame(rddStringToRowRDD,dfschema) val rDD
浏览 0
提问于2016-10-07
得票数 6
回答已采纳
1
回答
执行查询
计划
中
的
项目节点是什么?
、
Project节点在Sparks执行
计划
中
的
意义是什么?我有一个
计划
,其中包括: +- Project [dm_country#population#6a1ad864-235f-4761-9a6d-0ca2a2b40686#834, dm_country#population
浏览 4
提问于2017-11-28
得票数 12
回答已采纳
2
回答
DataSet
javaRDD()性能
、
、
、
、
我正在使用
Spark
SQL从
Spark
应用程序
的
Cassandra中检索数据。数据以
DataSet
的
形式检索。但是,我需要使用javaRDD()函数将此
dataset
转换为JavaRDD。是否有一些参数需要调整以增强这次
的
性能?
浏览 1
提问于2017-08-19
得票数 0
1
回答
在
Spark
管道中缓存中间结果
、
最近,我
计划
迁移我
的
独立python代码来激发。
spark
.ml中
的
ML管道非常方便,使用了精简API来链接算法阶段和超参数网格搜索。不过,我发现它对现有文档中一个重要特性
的
支持很难理解:中间结果缓存。当管道涉及计算密集型阶段时,这一特性
的
重要性就出现了。例如,在我
的
例子中,我使用一个巨大
的
稀疏矩阵对时间序列数据执行多个移动平均值,以形成输入特性。矩阵
的
结构由某些超参数决定。这一步最终成为整个管道
的
瓶颈,因为我必须在
浏览 1
提问于2015-09-14
得票数 16
1
回答
我将相同
的
方法应用于
spark
scala中
的
多个数据帧,如何将其并行化?
、
我目前正在遍历我
的
所有数据帧,并在它们上运行本质上相同
的
查询/过滤器。有没有一种方法可以更有效地并行运行?以下是示例代码...for (db <- list_of_dbs) .format("csv") .option("sep
浏览 18
提问于2020-08-28
得票数 0
3
回答
如何将火花结构流
DataFrame
插入到Hive外部表/位置?
、
、
一个关于星火结构流与HIVE表集成
的
查询。 val
spark
=SparkSession.builder().appName("StatsAnalyzer") .config", "hdfs://pp/apps/hive/warehouse/ab.db") &
浏览 0
提问于2018-12-28
得票数 13
1
回答
Spark
默认类
、
我在代码中使用了withColumn()函数;但是,我还没有导入下面的类:我想知道为什么编译器没有抛出错误。如果是,
Spark
中
的
默认类是什么?
浏览 0
提问于2018-07-25
得票数 0
1
回答
Spark
和
Spark
之间有什么关系?
、
而且,我对
Spark
和
Spark
之间
的
关系感到困惑。
Spark
是否应该在后台转换为
Spark
?
浏览 0
提问于2016-10-11
得票数 1
回答已采纳
1
回答
如何连接星星之df中
的
小写列值
、
<console>:65: error: overloaded method value join with alternatives: (right: or
浏览 0
提问于2018-06-07
得票数 1
回答已采纳
1
回答
如何将
spark
DataFrame
转换为RDD mllib LabeledPoints?
、
、
、
、
我
的
代码: import org.
apache
.
spark
.required: org.
apache
.
spark
.rdd.RDD[org.
apache
.
spark
.mllib.regression.LabeledPoint] 我尝试了以下两种可能
的
解决方案: org.
apache
.
spark
浏览 0
提问于2016-03-13
得票数 14
回答已采纳
1
回答
火花物理
计划
与
逻辑
计划
我有两个问题: 提前谢谢。
浏览 0
提问于2018-05-19
得票数 3
1
回答
火花放电管道中
的
用户定义变压器
、
、
、
、
我
的
数据集有一个列,它是一个字符串。因此,在应用管道模型之前,我使用“StringIndexer”将其转换为数字。我
的
管道只包含两个阶段StringIndexer和ClassificationModel有其他方法可以删除StringIndexer中
的
实际列吗? 谢谢
浏览 0
提问于2017-07-19
得票数 2
回答已采纳
1
回答
星星之火UI,SQL选项卡
的
含义是什么?
如果我
的
理解是正确
的
,火花申请可能包含一个或多个工作。作业可以分为阶段,阶段可以划分为任务。我或多或少可以在星火用户界面中遵循这一点(或者至少我认为是这样)。但我对SQL选项卡
的
含义感到困惑。特别是:为了理解,我一直在列举一些例子,但仍然不太清楚。
浏览 3
提问于2021-07-28
得票数 1
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
教程:Apache Spark SQL入门及实践指南!
Spark之SparkSQL
Dataiku DSS Code Recipe 介绍
简化TensorFlow和Spark互操作性的问题:LinkedIn开源Spark-TFRecord
使用Spark将本地文件读取并封装为DataFrame的完整指南
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券