腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(4060)
视频
沙龙
1
回答
如何在
Spark
中使用ASCII函数
、
、
我需要帮助使用火花函数ASCII(sparkSQl字符串函数)通过使用scala import org.apache.
spark
.sql.SparkSessionimport org.apache.
spark
.sql.functions select ascii('Santosh') 我需要santosh的ascii值和
浏览 63
提问于2019-06-25
得票数 0
回答已采纳
2
回答
如何
将
RDD
[CassandraRow]转
换为
DataFrame?
、
、
、
、
目前,我正在
将
Cassandrarow
RDD
转
换为
dataframe:} 正如您所看到的,我首先将cassandraRow
rdd
转
换为
string,然后映射到我想要的格式。我发现这个方法变得很复杂,因为
rdd
包含多个颜色,而不是一个
浏览 5
提问于2017-05-30
得票数 0
回答已采纳
0
回答
spark
将
spark-SQL
转
换为
RDD
API
、
、
、
Spark
SQL对我来说非常清楚。然而,我才刚刚开始使用
spark
的
RDD
API
。", "D") val inputDf = input.toDF("TARGET", "col1", "col2", "col3TooMany", "col4")val
rdd
1_inputDf = inputDf.
rdd
.flatMap { x
浏览 0
提问于2017-01-03
得票数 0
回答已采纳
2
回答
Spark
:和
RDD
一样,数据集和数据帧也是不可变的吗?
、
、
、
在Apache
Spark
中,
RDD
是不可变的。 数据集和数据帧怎么样?它们是可变的还是不可变的(因为底层结构仍然是
RDD
)?
浏览 0
提问于2020-07-03
得票数 0
1
回答
使用火花中的弹性搜索火花读取数据时如何转换类型
、
、
、
当我尝试使用esRDD("index")函数读取elasticsearch中的数据时,我得到了org.apache.
spark
.
rdd
.
RDD
[(String, scala.collection.Map然而,我在上看到,上面写着: scalaVersion := "2.11.8" libraryDependencies += &qu
浏览 4
提问于2017-07-06
得票数 3
回答已采纳
2
回答
spark
避免每次都构建
RDD
、
我在S3中有数据,我可以在S3中加载数据,因为
RDD
应用一些更改将其转
换为
dataframe并运行
spark-sql
查询。但是,每当向S3添加新数据时,我都需要加载整个数据,因为
RDD
会将其转
换为
dataframe并运行查询。有没有一种方法可以避免加载整个数据而只加载新数据。是否应该
将
新数据添加到
RDD
中,而不是加载整个
RDD
?
浏览 10
提问于2019-04-30
得票数 0
回答已采纳
1
回答
Spark-SQL
数据帧外部数据源效率低
、
当我试图在
Spark-SQL
外部数据源上做一些测试时,会发生这个问题。为了更清楚地表达这个问题,我编写了一段代码: 在我的外部Datasource
API
基准代码中,它实现了一个假的外部数据源(实际上是一个
RDD
[String,ArrayInt] ),并通过以下方式获取数据帧val
rdd
= sqlContext.sparkContex
浏览 2
提问于2016-01-09
得票数 1
1
回答
spark
.sql()和
spark
.read.format("jdbc").option("query“、"")之间有什么区别?
、
、
、
我假设
spark
.sql(查询)是在使用
spark
.sql时使用的,而
spark
.read.format("jdbc").option("query“、"")则是在使用oracle语法时使用的。
浏览 3
提问于2021-08-16
得票数 3
回答已采纳
1
回答
根据scala中的数据类型映射每个列
、
、
、
fields.reduceByKey((x,y) => x+y) 获取误差 值reduceByKey不是org.apache.
spark
.
rdd
.
RDD
浏览 7
提问于2022-01-17
得票数 0
2
回答
SparkSession和SparkContext有什么区别?
、
我只知道版本差异,但不知道功能或其他。也就是说,Sparksession有内部的sparkcontext和conf。
浏览 0
提问于2018-03-30
得票数 16
1
回答
NoClassDefFoundError:
spark
应用程序中的scala/产品$class
、
、
我正在使用bash脚本构建一个
Spark
应用程序,并且我在build.sbt文件中只有一个
spark-sql
和核心依赖项。因此,每次我调用一些
rdd
方法或
将
数据转
换为
case类以创建dataset时,我都会收到以下错误: Caused by: java.lang.NoClassDefFoundError: scala/Product" %% "
spark-sql
" % "2.3.3" lazy val sparkCore =
浏览 13
提问于2019-06-08
得票数 1
回答已采纳
1
回答
无法解析导入的com.datastax.
spark
.connector.CassandraJavaUtil
、
、
、
我正在尝试使用
spark-sql
java
API
来连接cassandra。下面是我正在使用的jar <dependency> <artifactId>
spark
-cassandra-connector_2.11</artifactId></depende
浏览 24
提问于2019-04-22
得票数 0
1
回答
如何在Pandas数据转换过程中处理时间戳类型?
、
、
、
、
我看了一下“createDataFrame”()中的pyspark源代码,它们似乎
将
数据转
换为
numpy记录数组,并将其转
换为
列表: at org.apache.
spark
.
api
.python.PythonRDD.compute(PythonRDD.scala:63) at org.apache.
spark
.
rdd
.
RDD
.computeOrRe
浏览 2
提问于2017-07-25
得票数 5
0
回答
无法
将
RDD
注册为TempTable
、
、
、
{SparkConf, SparkContext}import java.sql.+= "org.apache.logging.log4j" % "log4j-
api
" % "2.11.0" libraryDependencies += "org.apache.logging.log4j+= "org.apache.
spark
" %% "
spa
浏览 11
提问于2018-07-16
得票数 0
回答已采纳
1
回答
在包含join的Sparkjob中超出了GC开销限制
、
、
:379)at org.apache.
spark
.
rdd
.
RDD
.iterator(
RDD
.scala:319)at org.apache.<
浏览 22
提问于2017-03-10
得票数 1
1
回答
spark
和scala中的
RDD
到DataFrame
、
、
、
def main(args: Array[String]): Unit = { .builder() .appName("SparkAndHive") val sparkCo
浏览 5
提问于2022-10-19
得票数 0
回答已采纳
2
回答
BSONObject到DataFrame的
RDD
、
、
、
按照的描述,我正在从Mongo加载一个bson
转
储到
Spark
中。它是有效的,但我得到的是:它基本上应该是包含所有String字段的JSON。但是,当然,toDF在该
RDD
上失败了。如何将其转
换为
所有字段均为String的
Spark
DataFrame?如果能有类似于
spark
.read.json的东西就太好了。
浏览 1
提问于2016-10-04
得票数 1
2
回答
Scala火花-
将
RDD
[List[scala.Double]]转
换为
RDD
[scala.Double]
、
我正在调用mllib Statistics.corr()函数并接收以下错误: (x: org.apache.
spark
.
api
.java.JavaRDDjava.lang.Double,y: org.apache.
spark
.
api
.java.JavaRDDjava.lang.Double,方法: String)scala.Double (x: org.apache.
spark
.
rdd
.RDDscala.Double,y: org.apache.
spark
.
r
浏览 6
提问于2015-09-21
得票数 1
回答已采纳
1
回答
正在尝试
将
数据帧数据写入CSV文件。在
Spark
中
、
、
、
{Level, Logger} import org.apache.
spark
.sql.SparkSessionLevel.ERROR) val sc = new SparkContext("local[*]", "savingCSV") val
spark
= SparkS
浏览 15
提问于2021-08-12
得票数 0
2
回答
RDD
到Dataframe
Spark
Couchbase
、
、
、
我已经从NOSQL数据库创建了
RDD
,我想将
RDD
转
换为
数据帧。我已经尝试了许多选项,但都会导致错误。
将
RDD
转
换为
Dataframe的最佳方法是什么?<and> (
rdd
浏览 1
提问于2016-11-28
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
将秒数转换为时间免费API接口教程
Spark SQL,DataFrames 以及 Datasets 编程指南
Spark SQL DataFrame与RDD交互
PySpark,大数据处理的Python加速器!
怎样将mp4转换为flv?mp4转flv用它很方便!
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券