腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(4419)
视频
沙龙
1
回答
加速
R
/
sparkR
中大
数据
的
udf
r
、
apache-spark
、
udf
在
UDF
阶段,我有一个包含两个字符串
的
SparkDataFrame。我应用了一个
UDF
,它只是一个表格查找,将一个列(单元格)替换为相应
的
“除法”(整数): ## convert dataframe我
的
问题是应用
UDF
的
代码: structType(structField("msisdn", "strin
浏览 10
提问于2017-03-16
得票数 0
1
回答
将
R
中
的
ddply转换为
sparkR
函数
r
、
plyr
、
lapply
、
sparkr
我有一个有上百万行
的
数据
框df。我使用带有用户定义函数
udf
的
ddply。res <- ddply(df, c("id"),function(x){
udf
(x)} 这工作得很好,但它非常慢(大约需要4个小时),我猜是因为
udf
。它检查了很多案例。我想在
sparkR
中运行相同
的
函数。Spark集成在
R
环境中。我可以在
sparkR
中做基本
的
操作,但是找不到一个可以替代ddpl
浏览 0
提问于2016-07-20
得票数 1
2
回答
并行化不工作
的
sparkR
r
、
apache-spark
、
sparkr
), function(x) list(a = x, b = as.character(x))) : 但是,我可以创建
数据
框:library(
SparkR
)Sys.setenv(SPARK_HOME="C:\\Apache\\spark-1.6.0-bin-hadoop2.6") .libPaths(c(file.path(Sys.getenv("SPAR
浏览 1
提问于2016-01-08
得票数 2
2
回答
na.locf在
sparkR
中
的
等价性
r
、
apache-spark-sql
、
sparkr
、
locf
我是新
的
R
试图重写一个
R
代码在
sparkR
。data.table上
的
一个名为costTbl
的
操作(它有另外5个列)是costTbl[,cost:=na.locf(cost,na.rm=FALSE, fromLast=TRUE),by=product_id] 我无法在
sparkR
中找到相应
的
操作。我认为可以通过对product_id上
浏览 0
提问于2020-11-02
得票数 3
回答已采纳
1
回答
SparkR
::dapply库未被识别
apache-spark
、
databricks
、
azure-databricks
、
sparkr
Introduction 我使用install.packages在9.1LTS上安装了一些
数据
库集群上
的
软件包,我想使用
R
& Spark (
SparkR
或sparklyr)运行一个
UDF
。我
的
用例是使用Spark (
SparkR
或sparklyr)批量获取一些
数据
。我目前选择了
SparkR
::dapply。主要问题是,安装
的
包在使用
SparkR
::dapply
的
工作人员上
浏览 4
提问于2021-12-01
得票数 1
3
回答
在同一个大规模
数据
集上对数百个模型进行评分
的
最佳实践?
scoring
我有预测各种事物
的
500+模型,以及一个由400m+个人和大约5,000个可能
的
自变量组成
的
大型
数据
库。目前,我
的
评分过程大约需要5天,操作方法是将400m+记录分块成10万人
的
片段,并旋转n个线程,每个线程都有一个特定
的
500+模型子集,并以这种方式运行,直到所有模型
的
所有记录都得分为止。每个线程都是一个Python进程,它提交
R
代码(即加载一个
R
.rds模型和相关
的
数据
集转换
浏览 0
提问于2020-01-21
得票数 2
1
回答
如何在
SparkR
中从
数据
帧创建表
sql
、
r
、
data-science
、
databricks
我正在尝试找到一种方法,将一个
数据
帧转换为一个表,以便在另一个Databricks笔记本中使用。我找不到任何关于在
R
中执行此操作
的
文档。
浏览 0
提问于2020-08-12
得票数 0
1
回答
如何将
SparkR
转换为sparklyr?
r
、
apache-spark-sql
、
sparkr
、
sparklyr
如何将
SparkR
中
的
SparkDataFrame转换为sparklyr中
的
tbl_spark有什么建议可以解决这个问题吗? 谢谢!
浏览 6
提问于2020-11-06
得票数 2
1
回答
如何在Scala中加载.rds
R
文件作为Spark
数据
帧
r
、
scala
、
apache-spark-sql
我正在尝试为一个模型创建一个生产
数据
管道。作为此管道
的
一部分,我以.rds文件
的
形式保存了一个在
R
环境中运行
的
模型。我在Spark上下文中
的
最终结果应该如下所示-org.apache.spark.sql.DataFrame (Intercept) x
浏览 11
提问于2018-07-31
得票数 2
1
回答
如何在
sparkR
中访问每一行
数据
帧
sparkr
我使用
sparkR
在spark上运行
R
。我已经创建了csv file.Now
的
数据
帧,我需要访问该row.Is中
的
每一行以及
数据
,有什么方法可以做到这一点吗?
浏览 1
提问于2016-01-29
得票数 0
1
回答
运行
R
脚本与Rscript对火花-提交
r
、
apache-spark
、
sparkr
我不明白使用Rscript运行
R
文件与使用火花提交之间
的
区别。在创建星火会话之
浏览 3
提问于2017-12-10
得票数 1
回答已采纳
1
回答
SparkR
前馈回路
r
、
lapply
、
sparkr
在Spark
的
Java/Scala/Python实现中,可以简单地调用RDD或DataFrame类型
的
DataFrame方法,以便并行化
数据
集上
的
迭代。我只能找到gapply和dapply函数,但是我不想计算新
的
列值,我只是想通过从列表中并行地获取一个元素来做一些事情。Lost task 1.0 in stage 5.0 (TID 207, l
浏览 0
提问于2017-01-23
得票数 2
1
回答
使用
SparkR
运行
R
模型
r
、
apache-spark-mllib
、
sparkr
提前感谢您
的
投入。我是ML
的
新手。我已经开发了一个
R
模型(在本地使用
R
),并希望部署在安装了
R
的
hadoop集群上。我想使用
SparkR
来利用高性能
的
计算。我只想在这里了解
SparkR
的
角色.
SparkR
是否允许
R
模型在Hadoop集群上
的
SparkR
中运行该算法?
SparkR
是否只启用
数据
处理,而ML算
浏览 2
提问于2017-11-14
得票数 5
1
回答
如何将
Sparkr
Dataframe调用到
R
代码中?
r
、
spark-dataframe
我在Apache服务器上用
SparkR
创建了一个
数据
帧。我需要在
R
代码中调用它来处理
数据
并从中提取特征。谁能告诉我如何将
SparkR
df读入
R
?
SparkR
df:myframe <- filter(read.df(sqlContext, source= "org.apache.spark.sql.cassandra", key
浏览 0
提问于2017-10-27
得票数 1
2
回答
如何使用
SparkR
访问使用PySpark创建
的
DataFrame?
pyspark
、
sparkr
、
apache-spark-dataset
.option("header", first_row_is_header) \ .load(file_location)%
r
df1Error in eval(parse(text
浏览 1
提问于2018-10-05
得票数 0
1
回答
为什么
SparkR
(在databricks上)在使用时不显示摘要函数输出?
r
、
databricks
、
sparkr
在databricks上,从一个
R
数据
R
开始:现在,
SparkR
摘要函数提供了很好
的
输出: n:1000.0接下来,我将把
R
数据
转换为星星之火
数据
: y <-
SparkR
::createData
浏览 8
提问于2020-09-09
得票数 2
回答已采纳
1
回答
如何解除
sparkR
数据
透视?
apache-spark-sql
、
spark-dataframe
、
unpivot
、
sparkr
我正试图在
SparkR
中转换/取消
数据
传输。我在
SparkR
包中找不到任何直接
的
方法来完成
数据
透视。即使在使用了
SparkR
方法之后,我也不能在includePackage
数据
文件上使用
R
包。如果有人能让我知道是否有直接
的
方式使用
SparkR
或其他替代方法,比如Hive,那将是很有帮助
的
。
浏览 2
提问于2016-06-24
得票数 0
3
回答
如何将星火
R
数据
转换为
R
列表
r
、
csv
、
dataframe
、
rstudio
、
sparkr
这是我第一次在Databricks上尝试使用Spark来完成与RStudio相同
的
工作。但遇到了一些奇怪
的
问题。看起来Spark确实支持像ggplot2、plyr这样
的
软件包,但是
数据
必须是
R
列表格式
的
。当我使用train <- read.csv("
R
_basics_train.csv")时,我可以在
R
中生成这种类型
的
列表,在这里,变量train是使用typeof(train)时
的
列表。然而
浏览 4
提问于2016-04-21
得票数 0
回答已采纳
3
回答
如何在
sparkR
中读取csv并转换为RDD
apache-spark
、
rdd
因为我是一个
R
程序员,所以我想使用
R
作为spark
的
接口,我在
R
中安装了
sparkR
的
sparkR
包。sc <-
sparkR
.init(master="local") # created spark content data <- r
浏览 4
提问于2015-03-23
得票数 0
2
回答
在DataBricks中是否存在将
R
数据
文件转换为Spark
的
大小限制?
r
、
apache-spark
、
apache-spark-sql
、
databricks
、
sparkr
我
的
问题是:我可以将
R
数据
的
子集转换为星火
数据
,但不能转换整个
数据
。类似但不相同
的
问题包括:和library(
SparkR
)
sparkR
.version() dim(df)) : Error in handleErrors(returnStatus
浏览 5
提问于2020-01-03
得票数 2
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
对象存储
云点播
即时通信 IM
活动推荐
运营活动
广告
关闭
领券