腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
Pyspark
将
DF
类型
从
Double
更
改为
Int
、
、
= crossval.fit(trainingSetDF).bestModel java.lang.ClassCastException: java.lang.
Double
浏览 4
提问于2016-09-08
得票数 0
回答已采纳
3
回答
将
数据抛出错误转换为列字符串
我有两个数据
类型
为+----+----------------++100| 8606738 || 130| 8602984 |我希望使用
pyspark
命令
将
列区域转换为str,但我得到的错误如下所示 str (
df</e
浏览 1
提问于2019-05-17
得票数 0
回答已采纳
2
回答
更改数据
类型
,但为Dataframe返回空值
、
、
、
我刚开始使用Pysmack3.0,我有一个家庭作业,需要将字符串(geolocation)更
改为
元组数字数据
类型
(geolocation1)。这是我的代码:from
pyspark
.sql.types import *
df
=
df
2.withColumn('geolocation1', col('geolocation').cast('
double</
浏览 3
提问于2021-03-26
得票数 2
回答已采纳
2
回答
我如何在
PySpark
中做到这一点?
、
、
我试图
从
原始的Dataframe "User_
df
“中获取每个列的列名和数据
类型
,到它们自己的列中,其中列的值分别是列名和数据
类型
。|
double
||
double
||
int
||
double
| |
浏览 36
提问于2022-08-16
得票数 0
回答已采纳
1
回答
在
pyspark
中创建具有特定数据
类型
的dataframe时遇到问题
、
SampleCSV2.csv的数据如下:BBB|28|Comp|100.5from
pyspark
fieldName = c[:c.find(":")] if fieldType == "
int
executing below part cols = ['Name:str
浏览 6
提问于2017-09-04
得票数 1
回答已采纳
1
回答
Pyspark
变量有十进制数据
类型
(6,-12)。
df
.dtypes和
df
.columns给出了错误ValueError:无法解析数据
类型
:十进制(6,-12)
、
、
、
当我执行ValueError或
df
.columns时,我有一个火花数据文件,因为有一个数据
类型
为十进制(6,-12),所以我得到错误的数据
类型
: decimal(6,-12)。884 tpe = json_value["type"] ValueError: Could not parse datatype: decimal(6,-12) 如果
将
列
类型
更
改为
double
或string,则可以继续进行。
df</e
浏览 3
提问于2022-01-19
得票数 2
2
回答
基于列条件的星火DataFrame更改数据
类型
、
、
我有一个火花DataFrame
df
1的大约1000列,所有的字符串
类型
的列。现在,我想根据列名的条件
将
df
1 1的列
类型
从
字符串转换为其他
类型
,如
double
、
int
等。例如,让我们假设
df
1只有三列字符串
类型
col2_term2: String 更改列
类型<
浏览 5
提问于2017-11-30
得票数 4
回答已采纳
5
回答
如何在
pyspark
中获取dataframe列的名称?
、
例如,调用程序有一个spark数据帧: spark_
df
['admit', 'gre', 'gpa', 'rank']如果是pandas数据帧,我们可以在my_function内部使用 >>> pandas_
df
[
浏览 1
提问于2016-09-28
得票数 55
5
回答
Java
将
数组
类型
从
Int
更
改为
Double
、
、
我的回答是该方法没有考虑到
double
类型
。然后,我们将在测试方法的末尾编写一个符合初始更改的断言。我似乎想不通这件事。初始代码:
int
sum = 0;}public static
浏览 0
提问于2018-01-27
得票数 0
1
回答
将
mongodb字段
类型
从
int
更
改为
double
我使用mongoimport
将
csv导入到mongodb。由于csv我不能指定字段
类型
,0将被视为一个
int
,但我需要它是一个双。因此,我尝试编写一个JavaScript文件来完成转换:2016-04-12T17:08:15.286+0800 E QUERY [thr
浏览 2
提问于2016-04-12
得票数 0
1
回答
如何去掉火花数据的开始和结束列值中的引号?
、
、
我
将
数据格式导出为csv格式。它的一些列数据
类型
从
向量更
改为
字符串。列值
从
0.350562388776,0.203056015074,-0.313145598397更
改为
'0.350562388776,0.203056015074,-0.313145598397'。我试着把它转换成我用过的向量-from
pyspark
.sql.fun
浏览 4
提问于2017-05-04
得票数 0
1
回答
spark中的数据
类型
转换
、
、
、
我有一个列id,它的
类型
是
int
,但后来更
改为
bigint。它具有这两种
类型
的值。from
pyspark
.sql.functions import *
df
=
df
.select("id", "code")
df
浏览 107
提问于2021-01-11
得票数 0
3
回答
如何
将
数组(即列表)列转换为向量
、
、
、
、
我想将这些浮点列表转换为MLlib
类型
的Vector,我希望这种转换使用基本的DataFrame API来表示,而不是通过RDDs (这是低效的,因为它将所有数据
从
DataFrame发送到Python,我希望
将
列的
类型
从一种
类型
转换为另一种
类型
,因此我应该使用强制转换。作为一点背景,让我提醒您将其转换为另一种
类型
的正常方式:
df
_with_strings =
df<
浏览 9
提问于2017-02-09
得票数 75
回答已采纳
1
回答
CrossValidator.fit() - IllegalArgumentException:列预测的
类型
必须等于.[array<
double
>,array<
double
>],但
类型
为
double
、
、
、
下面是我为Python3.9和Spark3.1.1使用的包:from
pyspark
.ml.feature import VectorAssembleimport LogisticRegression我正在尝试
将
一个矢量化的对象与
df
_vec相匹配会引发一个异常: cv_model = cross_val
浏览 1
提问于2021-04-25
得票数 0
1
回答
在
PySpark
中“空”而不是空值
、
、
、
、
我有一个dataframe,但是由于它的3列(通常应该是"
double
“)有"NULL”这样的值,所以自动
类型
被强制转换为string。73454 NULL 4756.0000000我想改变这一点,我的尝试是:
df
_1 =
df</em
浏览 3
提问于2022-11-04
得票数 0
回答已采纳
2
回答
Pyspark
:在groupby之后计算min和avg的错误结果
、
、
"id"]funs = [min, mean]
df
=
df
.groupby(*groupBy_id).agg(*exprs)
df
=
df
.groupby("id").agg(min("price").alias("min(norm_price
浏览 17
提问于2021-03-10
得票数 0
回答已采纳
1
回答
熊猫数据写入DataBricks数据库表
、
、
我有我的熊猫数据(
df
_allfeatures),我想把它附加到我的数据库中def write_to_delta(
df
_name, db_name, table_name,output_all_ incompatible’:
df
_allfeatures =
df
_allfeatures.asty
浏览 9
提问于2021-09-15
得票数 1
6
回答
如何在
PySpark
中将dataframe列
从
字符串
类型
更
改为
双重
类型
?
、
、
、
、
我希望在
PySpark
中将列
类型
更
改为
双重
类型
。
浏览 11
提问于2015-08-29
得票数 147
回答已采纳
1
回答
更新
Pyspark
中映射
类型
列的结构化值
、
、
、
、
我试图修改Map
类型
的Dataframe列,其值依次为Struct
类型
: |-- name: string (nullable = true) | |-- key: string | | |-- field1:
double
(nullable = true) | | |-- field2:
double
(nulla
浏览 3
提问于2021-01-04
得票数 3
回答已采纳
1
回答
如何
将
spark dataframe中的String
类型
列转换为Pandas dataframe中的String
类型
列
、
、
我有一个
从
熊猫数据帧创建的样本spark数据帧-from= spark.createDataFrame(pdf) # this is spark
df
df
.printSchema() |-- input1: long(nullable = true) |-- input2: string (nulla
浏览 3
提问于2020-09-09
得票数 0
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
实时音视频
活动推荐
运营活动
广告
关闭
领券