腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
如果
我
不能
使用
SparkContext
,
如何
创建
DataFrame
?
、
String]("Type","Month","Dept","Size","IsHoliday")val label = model.linear.predict(Vectors.dense(features))
我
正在尝试将Seq转换为
Dat
浏览 9
提问于2018-08-24
得票数 3
回答已采纳
1
回答
registerTempTable在从RDD
创建
的
DataFrame
上失败
我
在找个解决办法。
我
有一个函数,它从一个
DataFrame
的底层RDD
创建
一个
DataFrame
: sqlContext.createDataFrame(df.rdd, df.schema)现在,
我
<
浏览 3
提问于2017-11-14
得票数 1
回答已采纳
2
回答
如何
在Spark Streaming中将RDD转换为
DataFrame
、
、
、
如何
在Spark Streaming中将RDD转换为
DataFrame
,而不仅仅是在Spark中rdd.toDF() 在
我
的例子中,
我
使用
StreamingContext。然后
我
应该在foreach中
创建
SparkContext
吗?它看起来太疯狂了..。那么,
如何
处理这个问题呢?
我
的最终目标(
如果
它可能有用
浏览 0
提问于2016-10-12
得票数 6
回答已采纳
1
回答
在
dataframe
中映射每一行并应用返回
dataframe
的UDF
、
、
、
我
有一个有几行数行的
dataframe
。
我
可以
使用
以下代码循环这个
dataframe
:但这是行不通的,对吧?因此,
我
想要的是映射每一行并将其传递给UDF,并根据行中的值返回另一个新的
dataframe
(从DB)。、操作或转换引用
SparkContext
。
SparkContext
只能在驱动程序上
使用
,而
不能
在它在工作人员上运行的代码中<em
浏览 5
提问于2019-12-24
得票数 0
2
回答
火花2至火花1.6
、
我
正在尝试转换下面的代码来运行星星之火1.6,但是,在这一点上,
我
面临着某些问题。同时将闪烁会话转换为上下文。object TestData { spark.createDataFrame( StructType(List(StructField(&q
浏览 7
提问于2017-08-08
得票数 1
回答已采纳
1
回答
参数太多
、
String], filesCountFirstBatch: Int, sparkDf:
DataFrame
, operationType: String, partitionColumn: Option[String] = None,这些对象
使用
其中的一些参数,例如,
我
有一个DeltaWriterConfig对象: DeltaWriterCon
浏览 11
提问于2020-11-21
得票数 0
5
回答
SparkContext
、JavaSparkContext、SQLContext和SparkSession之间的区别是什么?
、
、
、
、
SparkContext
, JavaSparkContext, SQLContext和SparkSession? 是否有任何方法可以
使用
SparkSession?
我
是否可以
使用
单个条目完全替换所有上下文SparkSession? 中的所有函数SQLContext,
SparkContext
,以及JavaSparkContext也在SparkSession?一些函数,比如parallelize在中有不同的行为
SparkContext
和JavaSparkContext。它们在
如何</e
浏览 216
提问于2017-05-05
得票数 39
回答已采纳
1
回答
如何
使用
同一个case类
创建
多个数据帧
、
、
如何
使用
同一个case类
创建
多个数据帧?假设
我
想
创建
多个数据帧,一个有5列,另一个有3列,
我
如何
使用
一个case类来实现这个目标?
浏览 2
提问于2019-05-14
得票数 1
1
回答
如何
用火花数据框架计算星火数据流对象
、
、
我
正在编写一个星星之火应用程序,在这个应用程序中,
我
需要根据位于sql server数据库中的历史数据对流数据进行评估。现在
我
得到的流数据是from pyspark import
SparkContext
sc =
SparkContext
("local[2]&quo
浏览 4
提问于2016-05-11
得票数 5
2
回答
AttributeError:'NoneType‘对象没有属性'sc’
、
不好意思me.Today
我
想运行一个关于
如何
在Pyspark.The结果中
使用
sqlContext
创建
DataFrame
的程序是AttributeError,它是“AttributeError:'NoneType‘对象没有属性'sc'”,
我
的计算机是win7,Spark的版本是1.6.0,API是python3 .I有过几次google并阅读了Spark文档,并且无法解决
我
寻求帮助的problems.So问题。
我
的代码是:
浏览 3
提问于2016-11-28
得票数 6
1
回答
Scala Spark :
如何
从字符串列表
创建
RDD并转换为
DataFrame
、
、
、
、
我
想从与现有模式匹配的字符串列表中
创建
一个
DataFrame
。这是
我
的代码。fails val newRow = sqlContext.
sparkContext
.parallelize(Seq(rowValueTuple)).toDF(df.
浏览 0
提问于2016-04-21
得票数 8
回答已采纳
2
回答
如何
在星火中的AWS Glue created
Dataframe
上运行SQL SELECT?
、
、
、
我
在AWS中有以下工作,它基本上是从一个表中读取数据并在S3中将其提取为一个csv文件,但是
我
想在这个表上运行一个查询(A Select、SUM和GROUPBY),并希望将该输出获得给CSV,
我
如何
在AWS
我
是星火的新手,所以请帮忙glueContext = GlueContext
浏览 1
提问于2019-05-21
得票数 1
回答已采纳
2
回答
从
DataFrame
列的操作
创建
新列会产生错误“列不可迭代”。
、
、
、
我
有一个PySpark
DataFrame
,
我
尝试过许多示例,演示
如何
使用
现有列
创建
一个基于操作的新列,但它们似乎都不起作用。1-为什么这段代码
不能
工作?as F sqlContext = SQLContext(sc) a = sqlContext.createDataFrame([(5, 5, 3)], [
我
必须
使用
本
浏览 0
提问于2017-06-08
得票数 0
回答已采纳
2
回答
星星之火-
如何
在类中
使用
SparkContext
?
、
、
我
正在Spark中构建一个应用程序,并且希望在类中的方法中
使用
SparkContext
和/或SQLContext,主要用于从文件或SQL查询中提取/生成数据集。例如,
我
想
创建
一个T2P对象,它包含收集数据的方法(在本例中需要访问
SparkContext
): class T2P (mid: Int, sc:
SparkContext
, sqlContext: SQLContext作为参数传递给T2P类不起作用,因为
SparkContext</e
浏览 1
提问于2015-07-27
得票数 2
1
回答
无法在Spark中在RecordsWritten中获取OutputMetrics
、
我
正在
创建
一个自定义火花监听器,并将其添加到运行的recordsWritten中,但是即使在运行
sparkContext
之后,
如果
执行
DataFrame
操作,在从OutputMetrics获取
DataFrame
当我在下面运行时(非
DataFrame
): println("Records Written: &
浏览 0
提问于2018-08-03
得票数 3
回答已采纳
1
回答
在同一个主程序下在Java和R应用程序之间共享
SparkContext
、
、
、
、
目前,
我
有两个星火应用程序初始化。
我
需要在它们之间传递数据(最好是通过共享的闪烁上下文/sqlcontext,这样
我
就可以查询临时表)。
我
目前
使用
Parquet文件进行数据传输,但是否可能有其他方式?SQLContext sqlContext = new SQLContext(parentContext.sc());df.registerTem
浏览 3
提问于2016-02-12
得票数 3
回答已采纳
2
回答
将吡火花数据转换为动态数据
、
、
我
有一张火花放电数据。
我
能够通过persons.toDF()将动态数据转换为触发数据。
我
想把火花数据再一次转换回pyspark.I中的
dataframe
,
我
想将我的列转换为Time戳,然后再将它转换为
dataframe
到resolveChoices。请帮帮我
浏览 2
提问于2019-09-24
得票数 2
4
回答
使用
Java
创建
一个简单的1行星火
DataFrame
、
、
在Scala中,
我
可以从内存中的字符串
创建
一个单行
DataFrame
,如下所示:val df = sqlContext.
sparkContext
.parallelize(jsonValues).toDF("fizz")当df.show()运行时,它会输出:| fizz|| buzz|--现在
我
正试图在
我
试过:
浏览 0
提问于2016-10-10
得票数 9
回答已采纳
1
回答
类型不匹配Spark Scala
、
我
正在尝试
创建
一个空的数据帧,并在函数上
使用
它,但我一直都有以下错误: Required:
DataFrame
.emptyRDD[Row], schema) //orvar df1 = s
浏览 24
提问于2021-11-11
得票数 0
2
回答
ScalaTestFailureLocation StructField(value1,ArrayType(StringType,真),false)实际StructField(val2,ArrayType(真),真)
、
、
、
、
我
正在试着做一些测试。即在2个数据流上。ArrayType(StringType,true),false)一个df是从一个列表
创建
的val etalon= spark.
sparkContext
.parallelize(data).toDF() 另一个是从一些输入文件中计算出来的。
如果
value2是字符串或其他类似类型,
我<
浏览 1
提问于2018-09-07
得票数 0
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
实时音视频
即时通信 IM
云直播
活动推荐
运营活动
广告
关闭
领券