腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
SparkR
:
为
有条件
的
列
赋值
、
、
我想用某个条件替换
列
的
值。R数据帧示例:我想将value
列
中
的
值"c“和"d”替换为在R中,可以这样做 df[df$value %in% c("c","d"),]$value &
浏览 0
提问于2017-02-17
得票数 1
1
回答
SparkR
中
的
赋值
列
、
、
、
我正在尝试将代码从PySpark迁移到
SparkR
。为了修改一些
列
,我在PySpark中使用了“withColumn”。但是,在
SparkR
中,它会生成一个新
列
。在这种情况下,不幸
的
是,它不起作用:我意识到,在执行以下操作时,它确实有效:我肯定需要使用[[<-或其他方式进行数据交换
浏览 0
提问于2016-08-12
得票数 1
1
回答
一次将一个函数应用于SparkDataFrame
的
多个
列
、
、
、
在basic中,我使用data.table将一个函数同时应用于多个
列
:d[, (Cols) := lapply(.SD, function(x) x * 100), .SDcols = Cols] 但是现在,我正在尝试在SparkDataFrame上复制
SparkR
的
Azure。我看了一下dapply, ...和spark.lapply,但是我不知道如何将相同
的<
浏览 4
提问于2022-01-17
得票数 0
回答已采纳
1
回答
使用
sparkR
列
、
SparkR
列
提供了一长串有用方法
的
列表,例如'isNull‘,但是在
sparkR
中,我在使用它们时遇到了问题。我在R中像这样运行
sparkR
例如,当我键入这个u=c() isNull(u)时,我在(function (classes
浏览 2
提问于2015-07-28
得票数 0
回答已采纳
1
回答
sparkR
与卡桑德拉
、
、
我想读一个来自卡桑德拉密钥空间和column_family
的
数据文件。在运行
sparkR
时,我将调用相应
的
火花- cassandra连接器包,并将conf设置
为
本地
sparkR
主机。= "table_name")Error in writeJobj(con, object) : invalid jobj 1 我是否必须将conf传递给sparkContext
赋值
(sc),以及如何在
sparkR
中传递?下面是我
的
星
浏览 3
提问于2015-10-17
得票数 1
1
回答
如何在带有SparkDataFrame
的
SparkR
中使用未定义
的
变量列表作为列名?
、
、
、
我在
SparkR
的
世界里一直在进步,我现在面临着一个我无法解决
的
问题。agg1 <- agg(groupBy(sdf, "CODE"), "SV_6" = sum(sdf$V_6), "SV_7" = sum(sdf$V_7)) ,我
的
问题是:当
浏览 4
提问于2022-01-19
得票数 0
回答已采纳
2
回答
在extjs网格中仅为一行添加组合框
、
、
、
、
我有一个extjs网格,它显示来自商店
的
数据。最后一
列
总是空
的
,除了store where中
的
条目,标志
为
is_deleted=0(只有一个条目将具有is_deleted=0)。我必须
为
这个条目显示一个组合框,其值
为
edit和delete。我目前
的
网格代码如下所示:ext
浏览 2
提问于2014-08-23
得票数 0
2
回答
SparkR
df作为一
列
读取
、
、
txt,4
列
除以t。当我以这种方式阅读它时:
SparkR
将其全部读取
为
一
列
a\tb\tc\td 如何将\t更改为, in
sparkR
?
浏览 3
提问于2016-02-12
得票数 1
回答已采纳
1
回答
SparkR
:如何使“索引匹配/ VLOOKUP”
、
SPARKR
中
的
索引匹配/ VLOOKUP但我收到了这样
的
信息: Error
浏览 1
提问于2020-11-09
得票数 0
回答已采纳
2
回答
R和
sparkR
中
的
'abs‘函数有什么不同
、
、
在
sparkR
API中,有一些函数
的
名称与R中
的
相同。其中一些示例是abs,cosine函数。 R中
的
abs函数和
sparkR
中
的
abs函数有什么区别。abs函数在spark中什么时候执行?
sparkR
abs函数
的
文档
浏览 0
提问于2015-09-21
得票数 0
1
回答
如何在
SparkR
中对数据帧
的
每一行执行第三方计算
、
、
RDD有多个
列
,用于计算新
列
。我需要通过AmericanOption调用RQuantLib R包
的
SparkR
函数,并将返回
的
值更新
为
同一数据帧
的
新
列
。通常,我们可以在其他编程语言中使用foreach来实现这一点,但是我们不知道如何在
SparkR
中这样做,因为map函数也缺少文档化
的
。
浏览 4
提问于2016-01-04
得票数 1
回答已采纳
1
回答
SparkR
。将UTC转换为所有观测
的
本地时间,多个时区
、
、
我是
SparkR
的
新手,我正在学习,在2.2.0版本
的
快照中学习。我有一个SparkDataFrame,它有一
列
UTC时间戳,一
列
时区。::createDataFrame(dfr) 我想做
的
是
为
我
的
数据集中
的
每个观察创建一
列
本地时间。我看到from_utc_timestamp()函数接受一
列
时间戳和一个字符串表示所需
的
时区转换。我
的
问题是我有两个专栏。目前,我已经
浏览 2
提问于2017-04-14
得票数 1
回答已采纳
2
回答
追加一
列
NA值: lit()和withColumn()给出错误
、
、
、
、
我正在尝试使用以下代码将一
列
空值附加到
SparkR
DataFrame:z <- rbind("a", "b", "c", "d", "e"我以前使用过lit操作来生成一
列
空值,但是我不确定为什么这次它不能工作。 此外,这之前已经在SE上讨论过了,参见。我完全不知道为什么我
的
表达式会产生这个错误。作为参考,我使用
SparkR
1.6.
浏览 19
提问于2016-07-16
得票数 1
回答已采纳
2
回答
为什么
SparkR
列上
的
countDistinct/n_distinct不工作?
、
、
、
我想计算
SparkR
列
的
不同元素(
SparkR
数据):126不同要素: 1,2,5,6> countDistinct我试过了,但失败了,因为它似乎不适用于
列
。
浏览 3
提问于2016-08-05
得票数 0
回答已采纳
1
回答
使用
SparkR
向Spark dataframes添加包含函数值
的
列
、
、
、
我正在使用
SparkR
来处理一些在其技术堆栈中包含R和spark
的
项目。sdf1$result <- sdf1$value == sdf2$value 问题是当我必须比较两个不同长度
的
数据帧时。使用函数操作sdf1和sdf2数据帧并将值赋给sdf1
的
新
列
的
最佳方式是什么?假设我想生成一个长度介于sdf1和sdf2之间
的
浏览 3
提问于2017-05-18
得票数 0
1
回答
有条件
地
为
Pandas
列
赋值
、
我需要根据A
列
中
的
值在B
列
中设置一个变量,如下所示:PQR -PQR -PQR -我需要为所有这些剩余值设置'1‘。PS -有很多条目,所以我不能硬编码像‘所有ABC集B列到1’这样
的
硬编码值#
浏览 0
提问于2019-03-25
得票数 2
回答已采纳
1
回答
在
列
-
SparkR
中舍入值
、
、
在dataframe
的
列
中有以下值 376.0 802.0801.0 800.0 0.0我在
SparkR
找到了能做这项工作
的
腹肌和圆圈。但不幸
的
是,
浏览 2
提问于2016-04-06
得票数 3
回答已采纳
1
回答
SparkR
,将嵌套JSON字符串
的
列
拆分为
列
、
、
、
、
我来自R,是
SparkR
的
新手,我试图将JSON字符串
的
SparkDataFrame
列
拆分为各自
的
列
。星火DataFrame中
的
列
是具有如下模式
的
数组:root | |--我
的
问题 如何提取这些信息并将其放入平面数据框中?理想情况下,我希望
为
嵌套数组
列</
浏览 0
提问于2017-03-30
得票数 2
1
回答
如何卸载数据并从
SparkR
中
的
数组中获取第一个元素?
、
、
、
我对
SparkR
很陌生,尝试数据preparation.The数据集
的
第一步就是这种情况。我试图对重要
列
进行子集和选择。我
的
问题是如何从数组元素中选择
列
。我正在尝试这样
的
方法,它允许我通过不嵌套
的
数据来选择
列
,但是不能打开和平放数组来获得它
的
第一个元素。有用
的
select.col <-
SparkR
::select(data,c("parsed.nid","pa
浏览 2
提问于2018-07-03
得票数 1
回答已采纳
1
回答
在withColumn中应用正则表达式模式
的
SparkR
函数:重新格式化DataFrame中
的
字符串列
、
、
、
、
Background/overview:dat <- read.df(sqlContext, "filepath我想将它转换为
SparkR
中
的
日期类型对象。但是,我可以告诉您
的
是,cast和as.Date在
SparkR
中
的
函数只能将字符串日期转换为日期类型对象,如果它
的
格式是MM-DD-YYYY。在尝试将我
的</
浏览 3
提问于2016-06-23
得票数 2
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
如何设置某一列的值为默认值且不可更改
科列技术:BMS产品云端大数据,为客户车辆的实时标定更新,提供性能保障
C语言编程新手基础学习快速入门——逻辑运算
在df的一列中 有None和Nan 我想把这些空值都填充为-1 应该怎么操作呢
代码实践:如何用C、Java和Python中的回溯求解数独问题?
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券