腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
sparklyr
pivot
数据
帧
、
、
、
目前
sparklyr
(0.5.1)还没有针对Spark的
pivot
实现。到目前为止,我已经到了这里。copy_to(sc, iris) invoke("groupBy", "Species", list()) %>% invoke("
pivot
浏览 2
提问于2017-01-25
得票数 2
1
回答
如何将SparkR转换为
sparklyr
?
、
、
、
如何将SparkR中的SparkDataFrame转换为
sparklyr
中的tbl_spark 这里提出了一个类似的问题:。
浏览 6
提问于2020-11-06
得票数 2
1
回答
如何使用
数据
库让dplyr::summarize_all在sparkdataframe上工作?
、
、
、
SparkDataFrame" 和 class(x) 返回:1 "SparkDataFrame“attr(,"package") 1 "SparkR” Mastering Spark with R这本书中有一个加载小型r
数据
帧
并在其上运行<dbl> <dbl> 1 20.1 6.19 231. 147. 3.60 3.22 17.8 0.438 0.406 3.69 2.81 这本书让我相信我可以在巨大的spark
数据
帧
上使用这个和
浏览 17
提问于2020-09-24
得票数 2
回答已采纳
1
回答
使用SparkR创建的
数据
帧
和使用
Sparklyr
创建的
数据
帧
有什么区别?
、
、
、
、
我正在Azure databricks中读取一个拼图文件:使用SparkR > read.parquet()使用
Sparklyr
> spark_read_parquet()这两个
数据
帧
是不同的,有没有办法将SparkR
数据
帧
转换为
sparklyr
数据
帧
,反之亦然?
浏览 11
提问于2020-08-18
得票数 0
回答已采纳
1
回答
如何在
sparklyr
和串联字符串中使用sdf_
pivot
()?
、
我正在尝试使用sdf_
pivot
()函数(
sparklyr
)将长格式的
数据
帧
“收集”为宽格式。变量的值是我想连接的字符串。y=c("This", "That", "The", "Other", "End", "End"))sdf_
pivot
浏览 3
提问于2017-05-19
得票数 2
回答已采纳
1
回答
基于
sparklyr
和标准评估(SE)的函数
、
、
、
、
我正在尝试编写一个函数来执行并创建一个sdf_
pivot
() DataFrame,它的列名包含原始变量或列的名称。::sdf_
pivot
(formula = id ~ newvar1, fun.aggregate = "count") %>% 5 2 0 0 1 0 0 在我
浏览 5
提问于2018-02-13
得票数 1
回答已采纳
1
回答
如何在R中用
sparklyr
做整数除法(mod)?
、
、
在R中,整数除法运算符是%/%;但是,这在
sparklyr
创建的spark
数据
帧
中不能正常工作。例如,以某种方式将20141025转换为201410.2。在小插曲中,
sparklyr
并没有说它支持%/%。那么应该如何使用
sparklyr
来完成整数除法呢 目前我正在做floor(a / b),但我想知道是否有一个简单的运算符。
浏览 0
提问于2018-06-05
得票数 1
1
回答
数据
库上的sql
sparklyr
sparkr
数据
帧
转换
、
、
、
SparkR)data_r_df <- as.data.frame(data_spark) 但我不知道我应该如何将这些
数据
帧
转换为
sparklyr
数据
帧
来利用
sparklyr
的并行化?
浏览 10
提问于2018-07-25
得票数 3
2
回答
函数将R类型转换为星点类型。
、
、
、
、
我有一个R
数据
框架,我想把它转换成远程集群上的星火
数据
帧
。我已经决定将我的
数据
框架写到一个中间的csv文件中,然后使用
sparklyr
::spark_read_csv()读取该文件。我这样做是因为
数据
帧
太大,不能直接使用
sparklyr
::sdf_copy_to()发送(我认为这是由于Livy中的限制)。我想通过编写一个函数来编程地将
数据
帧
中使用的R列类型传递到新的spark
数据
框架,该函数返回一个
浏览 0
提问于2019-03-28
得票数 0
回答已采纳
1
回答
使用
sparklyr
将Spark
数据
帧
转换为R中的术语文档矩阵
、
、
、
、
我在R中有一个代码,它需要缩放以使用大
数据
。我使用Spark来做这件事,似乎最方便的包是
sparklyr
。但是,我无法从Spark
数据
帧
创建TermDocument矩阵。任何帮助都是最好的。input_key是具有以下模式的
数据
帧
。 1 A,B,C 3 P,O,L 我在R中的代码如下。
浏览 12
提问于2017-02-17
得票数 2
1
回答
dplyr::copy_to和
sparklyr
::sdf_copy_to有什么区别?
、
、
我正在使用
sparklyr
库与“spark”进行交互。存在用于将
数据
帧
放入spark上下文中的函数。这样的函数是'dplyr::copy_to‘和'
sparklyr
::sdf_copy_to’。
浏览 53
提问于2019-05-15
得票数 5
2
回答
在Databricks中使用
sparklyr
收集表
、
、
、
在使用
sparklyr
进行所有操作之后,它被简化为1,880,573 rows和629 columns。The average row size was 5.0 KB 对于
sparklyr
来说,1,880,573 rows x 629 columns是否太大而无法收集?
浏览 4
提问于2020-09-30
得票数 0
2
回答
R DBI
Sparklyr
DBWritetable正在运行,但没有结果
、
、
、
、
我已经使用spark和R包
sparklyr
进行了连接,并且可以使用带有spark连接的R包DBI连接到我们的配置单元集群,并将
数据
提取到R
数据
帧
中:dbWriteTable(conn = sc, name = "sampledb.rsparktest3", value = result3)sun.reflect.DelegatingMethodAcc
浏览 1
提问于2017-09-01
得票数 1
3
回答
sparklyr
将
数据
写入hdfs或配置单元
我尝试使用
sparklyr
将
数据
写入hdfs或hive,但无法找到方法。是否有可能使用
sparklyr
将R
数据
帧
写入hdfs或hive?
浏览 16
提问于2017-06-28
得票数 6
1
回答
如何使用'
sparklyr
::replace.na()‘替换一列上的NaN?
、
、
我正在使用
sparklyr
与spark进行交互。我正在尝试仅替换一列中的NaN值。 是否可以使用
sparklyr
函数replace.na(),但仅将其应用于一列?我检查了文档,但它对我没有帮助。此类似,但答案更改了整个
数据
帧
中的所有NaN值。
浏览 0
提问于2019-05-15
得票数 0
2
回答
Sparklyr
用字符串填充
、
我想在
sparklyr
数据
帧
上填充值(用以前的值替换NAs ),该字段保存字符串。我想改变这一点: ID, String2 NaN4 NaN 要这样做: ID, String2 a4 b 有没有办法在
sparklyr
浏览 29
提问于2019-01-18
得票数 2
3
回答
齐聚一堂
、
、
、
我正在使用
sparklyr
来操纵一些
数据
。upper_bound = rep(c(80, 130), each =10),我想使用“收集”来操作
数据
,比如: gather(key = type_data, value = value_data, -c(id:attribute1)) 但是,
sparklyr
上没有“聚集我见过一些人使用sdf_
pivot
来模仿“聚集
浏览 7
提问于2018-05-22
得票数 3
回答已采纳
1
回答
在
sparklyr
中,sdf_
pivot
可以使用什么聚合函数?
、
、
尝试将sdf_
pivot
与
sparklyr
的开发版本结合使用。唯一起作用的聚合函数是count。org.apache.spark.sql.RelationalGroupedDataset.sum的异常iris_tbl <- copy_to(sc, iris)iris_tbl %>% sdf_
pivot
(Species ~ Sepal_Width, "
浏览 3
提问于2017-06-18
得票数 3
回答已采纳
1
回答
星火DataFrame中的最后一行(使用
sparklyr
& dplyr)
、
、
、
、
希望使用类似于逐行范围的tail function来打印下面
数据
的最后50行,使用
sparklyr
,没有arrange或collect --我的一些
帧
很大,没有连续的列。library(
sparklyr
)library(Lahman) sc <- spark_connect
浏览 3
提问于2016-12-12
得票数 1
回答已采纳
1
回答
facebook Prophet可以通过spark_apply应用于
sparklyr
吗
、
我正在尝试测试是否可以运行prophet和
sparklyr
来对集群中的
数据
进行预测。但是当我使用spark_apply时,程序就卡住了。在连接到带有spark 2.2.0的纱线客户端的edgenode上运行
sparklyr
。
数据
是过去4年按地点划分的销售额。我们的计划是创建一个包含所有
数据
的
数据
帧
,并按位置对
数据
进行分区,然后在每个位置调用prophet,并获得未来7天的预测。在这里,我试图拉取一个位置的
数据
并应用prophet,但<
浏览 14
提问于2019-05-09
得票数 1
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
云直播
腾讯会议
实时音视频
活动推荐
运营活动
广告
关闭
领券