腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(1513)
视频
沙龙
1
回答
将RDD转
换为
Dataframe
Spark
、
、
、
如
何在
scala
中将
具有以下结构
的
RDD转
换为
dataframe这里,RDD
的
每一行都包含一个索引Long和一个向量org.apache.
spark
.mllib.linalg.Vector。我希望将org.apache.
spark
浏览 2
提问于2017-02-26
得票数 2
2
回答
如
何在
spark
scala
中将
映射
转
换为
单独
的
列
?
、
、
我有一个带有如下值
的
spark
数据帧,我正在努力寻找在输入数据帧中转
换为
单独
列
的
方法,
如
Id,Fld1,Fld2。感谢任何帮助或指向相关文档
的
指针?
浏览 59
提问于2021-01-18
得票数 0
1
回答
在
scala
dataframe
中将
字符串列转
换为
十进制
、
、
我有一个dataframe (
scala
) --我在笔记本中同时使用了pyspark和
scala
。#pysparkimport org.apache.
spark
.sql.functions._ val df =
spark
.sql(&quo
浏览 2
提问于2020-10-27
得票数 0
回答已采纳
2
回答
将行值制表为
列
值
、
在SQL Server
中将
行值转
换为
列
值我需要在SQL Server
中将
example Table1
转
换为
Table2。其他解决方案为每个服务器值显示
单独
的
列
,导致每个服务器A、B、C和D分别有
单独
的
列
。相反,如果B是唯一
的
服务器,我需要它显示在
列
Server1中,而不是
列
ServerB中,
如
建议
的</
浏览 1
提问于2016-12-17
得票数 1
1
回答
Spark
dataframe中ListType、MapType、StructType字段
的
通用处理
、
、
如
何在
Scala
中对
Spark
StructType执行通用处理,如按名称选择字段、遍历
映射
/列表字段等?在
spark
dataframe中,我有类型为"ArrayType“
的
列
"instances”,其模式如下: instances[ArrayType]: 0 [ StructType:instances“转
换为
类型为"totalExperience”
的
列
deriv
浏览 117
提问于2020-07-10
得票数 0
1
回答
PySpark -当值为"t“和"f”时,如何使用模式读取BooleanType
、
、
、
我使用StructType定义了一个模式,用于读取Redsfhit中
的
数据帧。该表具有350+
列
,其中许多
列
被配置为布尔值。at
scala
.collection.immutable.StringOps.toBoolean(StringOps.
scala
:30) a
浏览 1
提问于2017-11-22
得票数 3
1
回答
如何将数据框中
的
两
列
转
换为
scala
中
的
地图(col1,col2)?
、
、
如
何在
scala
中将
数据框中
的
rwo
列
转
换为
Map(col1,col2)?case Row(a:String, b: String) => Map(a.asInstanceOf[String] ->b.asInstanceOf[String] )但是我无法从这个
映射
中获得值
浏览 3
提问于2016-09-27
得票数 1
1
回答
影响preservesPartitioning RDD真/假给出了相同
的
mapPartitions结果
、
、
不错
的
散文,但它真正意味着什么呢?这里是一个人为
的
琐碎例子,不管我是否将true或false传递给mapPartitions,对于新
的
RDD,每个分区
的
数据分区仍然是相同
的
,即使我改变了K,V
的
K值,那么,意义是什么呢?一定是我错过了一些基本
的
东西。import org.apache.
spark
.HashPartitionerdef myfunc(iter: Iterator[
浏览 0
提问于2020-01-02
得票数 2
回答已采纳
2
回答
如何将列表中
的
元素传递给concat函数?
、
、
、
、
我目前正在使用以下方法来连接dataframe中
的
列
: val Finalraw = raw.withColumn("primarykey", concat($"prod_id",$"frequency",$"fee_type_code")) 但问题是,我不想硬编码
列
,因为
列
数每次都在变化。我有一个由列名组成
的
列表: columnNames: List[String] = List("prod_id", &
浏览 31
提问于2019-01-23
得票数 0
回答已采纳
1
回答
如何将字符串数组改为双精度数组?
、
、
error: missing parameter type for expanded function ((x$1) => r.getAs(x$1).toDouble(70).toArray) 如何将字符串
的
r.getAs(_).toDouble(70).toArray和r.getAs(_).toDouble(76).toArray数组更改为double
的
array (可以在Vectors.dense函数中使用)?
浏览 0
提问于2017-06-28
得票数 1
1
回答
使用
Spark
Scala
将SqlServer数据类型转
换为
Hive数据类型
、
、
Spark
用于从SQL server DB中获取表
的
模式。由于数据类型不匹配,我在使用此模式创建配置单元表时遇到问题。如
何在
Spark
Scala
中将
SQL Server数据类型转
换为
Hive数据类型。
浏览 48
提问于2019-07-19
得票数 1
5
回答
当其他
列
(行)中出现火花
列
“子字符串”时替换
、
、
在
Scala
中,
Spark
需要有效地将{0}从Description
列
替
换为
State
列
中可用
的
值,
如
输出所示。输入: 输出:
浏览 0
提问于2020-06-06
得票数 1
回答已采纳
1
回答
Spark
HiveContext获取与配置单元客户端选择相同
的
格式
、
当配置单元表有像
映射
或数组这样
的
值时,如果你在配置单元客户端选择它,它们会显示为JSON,例如:{"a":1,"b":1}或[1,2,2]。在
Spark
中选择这些对象时,它们是DataFrame中
的
贴图/数组对象。当我使用
Spark
的
HiveContext时,我想使用与Hive客户端相同
的
格式。 我该怎么做呢?
浏览 1
提问于2018-07-20
得票数 0
1
回答
使用
列
比例列表进行
Spark
选择
、
我正在尝试找到一种使用List[ column,我正在分解一个
列
,而不是用我
的
分解列传回所有我感兴趣
的
列
]来进行
spark
select
的
好方法。var columns = getColumns(x) // Returns a List[Column]试图找到一种好
的
方法
浏览 0
提问于2016-10-07
得票数 9
回答已采纳
1
回答
DataFrame na()填充方法和不明确引用
的
问题
、
我使用
的
是
Spark
1.3.1,其中连接两个数据帧会重复连接
的
列
。我在外部连接两个数据帧,希望将结果数据帧发送到na().fill()方法,以便根据
列
的
数据类型将空值转
换为
已知值。我构建了一个"table.column“-> "value”
的
映射
,并将其传递给fill方法。但我得到
的
是异常而不是成功:(。我有什么选择?我看到有一个dataFrame.withColumnRenamed方法,
浏览 4
提问于2016-02-28
得票数 3
1
回答
随着数据集和
列
数
的
增加,
Spark
作业
的
执行时间呈指数级增长
、
、
我已经在
spark
中创建了一个固定宽度
的
文件导入解析器,并在各种数据集上执行了一些执行测试。它可以很好地工作到1000
列
,但随着
列
数和固定宽度长度
的
增加,
Spark
作业性能会迅速下降。对于20k
列
和固定宽度长度超过10万
的
列
,执行时间很长。我发现
的
类似问题之一:
浏览 1
提问于2018-09-15
得票数 1
2
回答
[
Scala
][
Spark
]:转换数据帧中
的
列
,保留其他
列
,使用withColumn和map [错误:缺少参数类型]
、
、
、
、
, C++]| CA||Robert,,Williams| [CSharp,|CA ||Michael,Rose, |
Spark
|NJ | .toDF("Name&qu
浏览 11
提问于2021-10-11
得票数 2
2
回答
将拼花文件存储到PostgreSQL数据库中
、
、
、
、
我正在使用
Spark
并编写文件,我使用
的
是
Spark
的
write.jdbc函数。对于长、十进制或文本这样
的
拼花
列
类型,一切都可以正常工作。问题在于像Map这样
的
复杂类型。我想将Map作为json存储在我
的
PostgreSQL中。因为我知道PostgreSQL可以自动将文本数据类型转
换为
json (使用强制转换操作),所以我将
映射
转
储到json字符串。但是星火程序抱怨说,我们试图将“字符变化”数据类型
浏览 1
提问于2018-04-20
得票数 2
回答已采纳
1
回答
如何获得使用concat_ws生成
的
结果
的
大小?
、
、
我正在COL1上执行COL1,并使用concat_ws获取COL2
的
级联列表。我如何才能在这个列表中得到值
的
计数?这是我
的
密码: .concat_ws(",",org.apache.
spark
.sql.functions.collect_list
浏览 3
提问于2017-11-27
得票数 2
回答已采纳
1
回答
用Java将Seq<String>转
换为
Seq<Column>
的
更好方法
、
、
在Java中使用
Spark
时,我们通常必须依赖
Scala
类型。特别是,我发现我经常需要从Strings
的
Scala
转
换为
列
的
Scala
。在
Scala
中,这很容易。我一直依赖于从
Scala
到java
的
转换,执行
映射
,然后再转换回
Scala
,如下所示: Seq<Column> seqOfColumns = asScalaBuffer(seqAsJavaLi
浏览 3
提问于2021-07-23
得票数 1
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
实时音视频
对象存储
云直播
活动推荐
运营活动
广告
关闭
领券