腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
如何使用
数据库
让dplyr::summarize_all在sparkdataframe上工作?
、
、
、
问题 我有一个巨大
的
Spark Dataframe,叫做x。我正在使用databricks。X有数十亿条记录,太大了,不能收集到一台机器
上
。我要怎么做才能让它正常工作?” Mastering Spark with R这本书中有一个加载小型r
数据
帧
并在其
上
运行summarize_all
的
示例: cars <- copy_to(sc, mtcars) summarize_all(cars, mean) 注意:上面的代码在我
的
databricks集群
上
浏览 17
提问于2020-09-24
得票数 2
回答已采纳
1
回答
数据库
上
的
sql
sparklyr
sparkr
数据
帧
转换
、
、
、
我使用以下代码在databricks
上
创建了
sql
表CREATE TABLE data OPTIONS (header "true", inferSchema "true") 下面的代码将该表分别
转换
为
sparkr
和r dataframe:library(
SparkR
) data_spark <-
sql</
浏览 10
提问于2018-07-25
得票数 3
1
回答
如何将
SparkR
转换
为
sparklyr
?
、
、
、
如何将
SparkR
中
的
SparkDataFrame
转换
为
sparklyr
中
的
tbl_spark有什么建议可以解决这个问题吗? 谢谢!
浏览 6
提问于2020-11-06
得票数 2
1
回答
使用
SparkR
创建
的
数据
帧
和使用
Sparklyr
创建
的
数据
帧
有什么区别?
、
、
、
、
我正在Azure databricks中读取一个拼图文件:使用
SparkR
> read.parquet()使用
Sparklyr
> spark_read_parquet()这两个
数据
帧
是不同
的
,有没有办法将
SparkR
数据
帧
转换
为
sparklyr
数据
帧
,反之亦然?
浏览 11
提问于2020-08-18
得票数 0
回答已采纳
1
回答
如何使用
sparklyr
访问
数据库
、
、
、
在Azure环境中,我发现了包
SparkR
和
sparklyr
。在使用
SparkR
的
笔记本中,我设法连接到一个
数据库
:DW <-
sql
("select * from mydb.sometable")library(
sparklyr
浏览 5
提问于2022-01-11
得票数 0
回答已采纳
1
回答
将
SparkR
DataFrame序列化为jobj
、
、
、
、
我希望能够在
SparkR
SparkDataFrame
上
使用Java方法向Cassandra写入
数据
。然而,对于我
的
用例,我希望能够使用
SparkR
::spark.lapply,这样我就可以在本地收集我
的
Cassandra表
的
子集,在它们
上
运行脚本并写回
数据
。我尝试使用
sparklyr
的
每个方法都是单线程
的
,所以实际
上
根本没有使用spark。使用
Spark
浏览 7
提问于2017-01-22
得票数 0
回答已采纳
1
回答
Sparklyr
未连接到
数据库
、
、
、
、
我正在尝试使用
sparklyr
或
SparkR
连接到
数据库
。install.packages("
sparklyr
") Error i get is: Error in value[[3L]](cond) :
浏览 0
提问于2018-11-27
得票数 1
2
回答
将
SparkR
DataFrame
转换
为H2O
帧
、
、
使用
SparkR
,我想知道是否有可能将星火DataFrame
转换
成H2O框架?
浏览 4
提问于2017-10-18
得票数 2
回答已采纳
1
回答
如何使用
SparkR
::read.jdbc()或
sparklyr
::spark_read_jdbc()来获取
SQL
查询
的
结果而不是整个表?
、
、
、
我已经阅读了
SparkR
::read.jdbc()和
sparklyr
::spark_read_jdbc()
的
文档,但它们似乎从
数据库
中提取整个表,而不仅仅是查询
的
结果,这对我来说并不合适,因为我永远不需要提取整个表我找不到使用jdbc连接器执行以下操作
的
方法:和 (B)将结果存储为R
数据
帧
或可以非常容易地
转换
为R
浏览 13
提问于2020-03-03
得票数 1
7
回答
SparkR
vs
sparklyr
、
、
、
有没有人概述一下
SparkR
和
sparklyr
的
优缺点?谷歌没有产生任何令人满意
的
结果,两者似乎相当相似。尝试这两种方式,
SparkR
看起来要麻烦得多,而
sparklyr
非常简单(既要安装,也要使用,特别是在使用dplyr输入时)。
sparklyr
只能用于并行运行dplyr函数,还是“普通”
的
R-Code? 最好
的
浏览 0
提问于2016-09-14
得票数 53
1
回答
R在
sparkR
中等效
的
快速虚拟函数
、
、
Name") mutate(categories=explode(df_2$categories)) %>%
SparkR
::collect() dummy_r = dummy
浏览 23
提问于2020-03-23
得票数 2
2
回答
为什么
SparkR
中
的
collect速度如此之慢?
、
、
我使用
的
是spark 2.0.0和Spark (RStudio和R 3.3.1)中
的
SparkR
包,它们都运行在具有4核和8 8gb内存
的
本地机器
上
。为了便于构建我可以在R中处理
的
数据
集,我使用collect()方法将spark DataFrame引入R中。这样做需要大约3分钟,这比使用data.table包读取相同大小
的
CSV文件要长得多。诚然,拼图文件是压缩
的
,解压所需
的
时间可能是问题
的
一部分,
浏览 9
提问于2016-09-19
得票数 8
1
回答
如何在
SparkR
中从
数据
帧
创建表
、
、
、
我正在尝试找到一种方法,将一个
数据
帧
转换
为一个表,以便在另一个Databricks笔记本中使用。我找不到任何关于在R中执行此操作
的
文档。
浏览 0
提问于2020-08-12
得票数 0
3
回答
使用regex
的
逐列
sparkr
数据
滤波器
、
我有一个名为Tweets
的
sparkR
数据
格式,它有一个名为bodyText
的
列。到目前为止,我尝试
的
是: subset(twitter_df, grepl("(?<=\\b)rally", twitter_df$bodyText, ignore.case = TRUE))
浏览 1
提问于2016-09-26
得票数 2
回答已采纳
0
回答
Sparklyr
将
数据库
表读取到分布式DF
、
、
、
、
嗨,我正在尝试弄清楚是否有一种方法可以直接将DB表读取到
sparkR
数据
帧
中。我在一个EMR集群
上
安装了rstudio,该集群上有我
的
hive metastore。我知道我可以做到以下几点:library(dplyr)library(DBI)result <- dbGetQuery(
浏览 0
提问于2017-12-01
得票数 0
回答已采纳
1
回答
如何在Scala中加载.rds R文件作为Spark
数据
帧
、
、
我正在尝试为一个模型创建一个生产
数据
管道。作为此管道
的
一部分,我以.rds文件
的
形式保存了一个在R环境中运行
的
模型。我在Spark上下文中
的
最终结果应该如下所示-org.apache.spark.
sql
.DataFrame (Intercept) x
浏览 11
提问于2018-07-31
得票数 2
1
回答
如何在R中用
sparklyr
做整数除法(mod)?
、
、
在R中,整数除法运算符是%/%;但是,这在
sparklyr
创建
的
spark
数据
帧
中不能正常工作。例如,以某种方式将20141025
转换
为201410.2。在小插曲中,
sparklyr
并没有说它支持%/%。那么应该如何使用
sparklyr
来完成整数除法呢 目前我正在做floor(a / b),但我想知道是否有一个简单
的
运算符。
浏览 0
提问于2018-06-05
得票数 1
0
回答
如何将
SparkR
数据
帧
转换
为本地R
数据
表?
、
、
我正在将本地R脚本更改为
sparkR
。输入是hive table,我使用如下代码读取该表:>results <-
sql
("SELECT * FROM temp.temp_ceshi limit 3")我希望将
sparkR
数据
帧
转换
为data.table并使用本地R脚本。怎么做呢?
浏览 4
提问于2017-12-07
得票数 1
2
回答
Sparklyr
中
的
缺失值
、
、
、
我试图在斯帕克里尔
的
DataFrame中计算某个特定库仑
的
缺失值,如下所示Source: query[1 x 1] <dbl>但是返回
的
结果是dataframe中
的
行总数。
浏览 11
提问于2016-12-30
得票数 1
回答已采纳
1
回答
如何最好地处理将大型本地
数据
帧
转换
为
SparkR
数据
帧
?
、
如何有效地将大型本地
数据
帧
转换
为
SparkR
数据
帧
?在我
的
本地开发机器
上
,当我尝试将~ 650MB
的
本地
数据
帧
转换
为
SparkR
数据
帧
时,它很快就会超出可用
的
内存,而我
的
开发机器上有40 of
的
Ram。= c('year', 'storm
浏览 0
提问于2016-09-08
得票数 3
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
主流数据库的 SQL 语法差异(上)
数据库性能优化之SQL语句优化(上)
远程连接不上SQL数据库怎么找原因?
创建数据库的sql语句
Oracle 数据库和Sql Server数据库的区别
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券