腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
如何
从
Spark
中
读取
/
写入
dynamodb
?
、
、
、
我想知道
从
Spark
读/写
dynamodb
最好的方法是什么。 我尝试过使用
dynamodb
的官方API,还有emr连接器(hadoop和hive)等。
浏览 28
提问于2018-01-24
得票数 1
1
回答
Spark
:
写入
DynamoDB
,
写入
容量有限
、
、
我的用例是
从
Spark
应用程序
写入
DynamoDB
。由于我对
DynamoDB
的
写入
容量有限,并且不想因为成本问题而增加它,我
如何
将
Spark
应用程序限制为以规定的速度
写入
?编辑:当
Spark
应用程序在多节点EMR集群上运行时,需要实现这一点。
浏览 1
提问于2018-05-18
得票数 2
2
回答
Spark
2.2.0-
如何
将DataFrame写/读到
DynamoDB
、
、
、
我希望我的
Spark
应用程序
从
DynamoDB
读取
一个表,做一些事情,然后用
DynamoDB
编写结果。将表读入DataFrame 现在,我可以将表
从
DynamoDB
作为hadoopRDD读入
Spark
,并将其转换为DataFrame。但是,我必须使用正则表达式
从
AttributeValue中提取值。在AWS API
中
找不到任何东西。这些资源都没有实际演示
如何
向
DynamoDB
<em
浏览 6
提问于2017-12-08
得票数 9
2
回答
如何
在pyspark
中
设置分割器和减速器的数量
、
、
、
我正尝试在amazon EMR实例上运行pyspark以
从
dynamodb
读取
数据,我想知道
如何
在我的代码
中
设置拆分和工作的数量?我按照下面两篇文档
中
的说明使用了下面的代码,该代码当前连接到
dynamoDB
并
读取
数据。": "
dynamodb
", "
dynamodb
.input.tableName": "Table1", "
浏览 2
提问于2017-12-03
得票数 0
3
回答
如何
将PySpark数据
写入
DynamoDB
表?
、
如何
将PySpark数据
写入
DynamoDB
表?没有找到多少这方面的信息。根据我的要求,我必须将PySpark数据
写入
Dynamo表。总的来说,我需要从我的PySpark代码
中
读写发电机。
浏览 1
提问于2018-10-29
得票数 3
回答已采纳
1
回答
从
apache
读取
/
写入
发电机db
、
我想知道是否有任何java库支持
从
apache (Mesos)
读取
/写到dynamo db (AWS),我知道在本文中有一些库支持EMR。 谢谢普拉迪普
浏览 0
提问于2017-10-17
得票数 5
1
回答
DynamoDB
是为表的读/写容量输入设置收费,还是只对使用收取费用?
、
DynamoDB
是为表设置的读/写容量输入收费,还是只在使用时收费?
浏览 4
提问于2017-08-08
得票数 3
回答已采纳
1
回答
如何
在星火流应用程序
中
处理
DynamoDB
流
、
、
我想从星火流应用程序中使用
DynamoDB
流。但是,是否有可能将这个库插入火花呢?我正在使用
Spark
2.1.0。谢谢
浏览 3
提问于2017-04-16
得票数 5
回答已采纳
1
回答
如何
将发电机数据库表
中
的数据读入dataframe?
、
、
、
下面是我试图
从
发电机数据库
中
读取
数据并将其加载到数据帧
中
的代码。 使用scanamo也可以做到这一点吗?---+---------+------+|[5548]|[Romance]| [3.5]| +------+---------+------+
如何
将此编辑-1 现在我可以使用下面的代码创建dataframe,并且能够
从
dynamodb
表
中
读取
数据(如果它不包含null )。j
浏览 25
提问于2019-12-17
得票数 1
回答已采纳
1
回答
从
Spark
写入
DynamoDB
、
、
、
我正在尝试使用
spark
从
亚马逊s3获取一个文件(以DataFrame或RDD的形式),执行一些简单的转换,然后将文件发送到
DynamoDB
上的一个表
中
。在阅读了其他一些论坛帖子后,我开始了解到读/写
DynamoDB
需要使用hadoopRDD -这与
spark
中
的RDD不同-也不同于我检索s3文件的方式。我该
如何
将DataFrame/RDD
从
s3
中
的文件更改为hadoopRDD,这样我才能将其发送
浏览 0
提问于2016-05-26
得票数 7
1
回答
将
dynamodb
表复制到配置单元的pyspark代码问题:不允许操作
、
、
、
我正在尝试使用pyspark代码
从
aws emr上的
Dynamodb
创建一个外部配置单元表。当我在hive提示符上执行该查询时,它工作得很好,但当我将它作为pyspark作业执行时,它就失败了。代码如下:from pyspark.sql import SparkSession
spark
.sql('u
浏览 2
提问于2019-05-10
得票数 2
1
回答
火花
DynamoDB
连通性问题
、
需求:使用Scala
从
本地机器
读取
DynamoDB
(不是本地的,而是在AWS上)的数据。当我们使用电子病历集群时,可以使用emr-hadoop-
dynamodb
.jar
读取
Understanding:数据。可以使用emr-
dynamodb
-hadoop.jar?EMR集群
从
DynamoDB
(云上而不是本地)
读取
数据,而不是使用集群。", "org.apache.
spark
"
浏览 0
提问于2020-11-19
得票数 2
2
回答
从
Spark
程序连接
DynamoDB
以使用Python从一个表中加载所有项目?
、
、
我已经写了一个程序来写项目到
DynamoDB
表
中
。现在,我想使用PySpark
从
DynamoDB
表
中
读取
所有项。在
Spark
中有没有可以做到这一点的库?
浏览 0
提问于2016-02-05
得票数 8
1
回答
将
dynamodb
流拆分为多个分片所需的
写入
活动?
、
我正在以每秒350次
写入
的速度
写入
DynamoDB
表。我已经在它上面启用了流,并配置了多个使用者来
读取
每个分片。每个使用者只能处理100条记录/秒,这意味着我至少需要4个使用者来处理流。问题是,当
写入
/秒增加时,
DynamoDB
不会创建多个分片。想知道
DynamoDB
在什么时候开始创建多个分片(
写入
/秒的值) 我尝试在每秒100到350次
写入
之间向表
中
写入
数据
浏览 18
提问于2019-09-11
得票数 0
回答已采纳
1
回答
在没有EMR的情况下运行本地
DynamoDB
spark
作业
、
、
我想在不使用EMR集群的情况下运行本地
Dynamodb
spark
作业,该作业从一些表
中
读取
数据并将其
写入
到parquet / CSV文件
中
。(RDD.scala:1162) at com.data.
spark
.
dynamodb
.copyDynamoTable$.delayedEndpoint$com$riskified$data$
spark
$
dynamodb
$copyDynamoTable$1(c
浏览 37
提问于2018-09-05
得票数 0
回答已采纳
1
回答
尝试通过Java SDK将记录
从
Spark
DataFrame
写入
Dynamodb
时,任务不可序列化
、
、
、
、
(new AWSStaticCredentialsProvider(new BasicAWSCredentials("access_key", "secret_key"))).build()val table =
dynamoDB
.getTable("tbl_name") def putItem(email: String, name: Stringrdd.repartition(40).map(row =&
浏览 4
提问于2017-08-01
得票数 1
1
回答
如何
使用Google电子表格执行
Spark
Streaming?
、
、
、
、
此外,需要将代码的实时输出写回其相邻列
中
的电子表格。 也请帮帮我。 谢谢
浏览 17
提问于2020-11-05
得票数 0
4
回答
如何
在
Spark
sql
中
访问HIVE ACID表?
、
、
、
如何
在
Spark
sql
中
访问HIVE ACID表?
浏览 2
提问于2018-11-08
得票数 1
1
回答
spark
如何
从
Hive
读取
和
写入
数据?
、
val
spark
= SparkSession .appName("
Spark
Hive Example") .enableHiveSupport()当我使用
spark
-shell执行
spark
-sql
从
Hive查询表时,<em
浏览 1
提问于2017-11-10
得票数 1
1
回答
集成测试使用不一致
读取
的
DynamoDB
客户端?
、
情况: 如果我试图在使用GetItem withConsistenRead=true编写之后立即验证数据,它只保证数据已经
写入
大多数DB副本,而不是全部,因此,正在测试的服务在下一步仍然有机会从未更新的副本
中
<e
浏览 2
提问于2017-02-10
得票数 1
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券