腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(110)
视频
沙龙
0
回答
如何将
数据
从
SAP
BW
迁
移到
S3
/
Redshift
/
BigQuery
/...(
云
存储
/
数据库
)
、
、
、
、
尝试将
SAP
BW
迁
移到
AWS/Azure/GCP Cloud (
云
存储
或
云
数据库
/DWHs)时,有哪些可能性? 免责声明:我从未使用过
SAP
BW
,只使用过
云
服务。
浏览 10
提问于2018-07-09
得票数 0
7
回答
将
数据
从
导出到亚马逊
S3
、
、
我希望将
数据
从
BigQuery
中的表传输到
Redshift
中的另一个表中。我计划的
数据
流如下:我知道谷歌
云
存储
传输服务,但我不确定它是否能帮助我。来自Google文档: 此页面描述
云
存储
传输服务,您可以使用该服务快速将联机
数据
浏览 13
提问于2016-09-05
得票数 41
回答已采纳
2
回答
2 TB+表的
Bigquery
红移迁移
我正在尝试将
Redshift
迁
移到
BigQuery
。表的大小是2TB+,我正在使用
bigquery
红移
数据
传输服务。但是迁移已经运行了5个多小时。还可以看到在
Redshift
端执行的查询将
数据
卸载到50MB的区块中。由于无法在红移传输作业中配置块大小参数。将2TB的
数据
从
redshfit传输到
BigQuery
需要这么多时间,或者可以做一些事情来改进这项工作。 有一些像雪花一样的系统,
从
红
移到
浏览 39
提问于2019-07-22
得票数 0
2
回答
亚马逊红移有自己的
存储
后端吗?
、
、
我刚接触过
Redshift
,并对
Redshift
的运作方式做了一些澄清: Amazon是否有自己的后端
存储
平台,还是依赖
S3
将
数据
存储
为对象,
Redshift
仅用于查询、处理和转换,并有临时
存储
从
S3
中提取特定的片段并进行处理从这个意义上说,
redshift
是否有自己的后端
云
空间,如oracle或Microsoft,它们都有自己的物理服务器
存储
数据</em
浏览 5
提问于2020-05-07
得票数 6
回答已采纳
3
回答
从
Amazon DMS到
S3
再到
Redshift
的ETL
数据
、
、
、
、
我目前正在
S3
中构建一个
数据
湖,并且已经成功地使用DMS将
数据
从
mysql迁
移到
S3
。在DMS中,我选择了“迁移现有
数据
并复制正在进行的更改”选项。我将
数据
转换为csv,但将来可能会选择拼花。此方法创建一个初始csv文件,其中包含来自
数据库
表的所有原始
数据
。然后,它创建具有插入、删除和更新功能的后续csv文件。 现在我正在寻找一种将
数据
从
S3
复制到
Reds
浏览 1
提问于2017-11-12
得票数 0
1
回答
将
BigQuery
GA
数据
加载到红移
、
、
你能帮助我提供如何在
biGQuery
中加载我的谷歌分析
数据
到
Redshift
的方法吗?
云
函数能做到这一点吗?或者,我如何
从
python端触发它,而不是使用
bigquery
脚本来调用
BigQuery
端?
浏览 0
提问于2019-11-28
得票数 1
1
回答
如何利用AWS
S3
谱对查询的
RedShift
存储
进行建模
、
、
、
、
users
数据库
中有一个MySQL表。
s3
:/
浏览 0
提问于2019-06-13
得票数 1
5
回答
使用Airflow在
数据库
之间移动和转换
数据
使用airflow,我
从
MySQL
数据库
中提取
数据
,使用python进行转换,并将其加载到
Redshift
集群中。编辑:这是一个关于气流的问题,是选择任务粒度以及如何在它们之间传递
数据
的最佳实践。这不是一个关于
数据
迁移或ETL的一般性问题。在本问题中,ETL仅用作气流任务的工作负载示例。
浏览 36
提问于2017-01-10
得票数 13
1
回答
我们可以将
数据
从
BigQuery
导入到Google Sheets中吗?
我只看到
如何将
数据
加载到我的
bigquery
数据库
,但我没有看到任何wiki或帖子来帮助我回答我的问题:是否可以将
数据
从
bigquery
数据库
加载到像google sheet这样的外部源(这可以通过
云
存储
平台实现
浏览 20
提问于2019-11-15
得票数 0
回答已采纳
3
回答
如何
从
云
数据
存储
迁
移到
云
Spanner?
、
、
、
我正在查看
数据
流,以尝试将
数据
从
Datastore导出到Spanner。扳手似乎只接受通过
数据
流连接器的avro文件。我能找到的唯一
数据
流模板是
从
数据
存储
到文本文件。并且
数据
存储
区导出服务仅导出为levelDB格式。任何线索都会很有帮助,谢谢!
浏览 59
提问于2019-05-03
得票数 0
回答已采纳
1
回答
将集合
从
云
存储
导入到防火墙
、
、
、
我将
数据
从
项目A的防火墙
数据库
导出到projects的
云
存储
桶,然后导入到项目的B
云
存储
桶中。我
如何将
数据
从
项目的B
云
存储
桶转
移到
它的防火墙
数据库
中?
从
官方文档中,我只能找到
如何将
()
数据
导入
云
存储
桶,而不是
如何将
数据
<e
浏览 4
提问于2020-10-26
得票数 2
回答已采纳
1
回答
每次运行COPY命令时都应该创建表吗?
、
、
、
、
我的任务是将MySQL
数据库
移到
amazon。目前,我正试图通过2)将它们
存储
在
S3
中4)使用COPY命令将
数据
从
S3
传输到
redshift
我正在使用Python来尝试自动化这个过程,并在进入
S3
的过程中使用
S3
加密
数据
。但是,按照我现在的流程,我必须在
Redshift
中为
S3
中的每个csv手动创建一个表。因为我最终
浏览 0
提问于2018-06-12
得票数 2
2
回答
如何快速将
数据
从
Google
bigquery
迁
移到
Snowflake?
、
我刚刚在一个
云
数据库
项目中工作,涉及一些大
数据
处理,需要快速地将
数据
直接
从
bigquery
迁
移到
snowflake。我在想,是否有任何直接的方法可以将
数据
从
bigquery
推送到snowflake,而不需要任何中间
存储
。 请让我知道有一个实用程序或api或任何其他方式,
bigquery
提供推送
数据
到雪花。
浏览 22
提问于2020-05-15
得票数 2
2
回答
亚马逊网络服务MySQL到GCP
BigQuery
的
数据
迁移
、
、
、
、
我正在计划
从
AWS MySQL实例到GCP
BigQuery
的
数据
迁移。我不想迁移每个MySQL
数据库
,因为最后我想使用
BigQuery
创建一个
数据
仓库。将AWS MySQL DB作为csv/json/avro导出到
S3
存储
桶,然后传输到GCP
存储
桶是一个好的选择吗?此
数据
管道的最佳实践是什么?
浏览 37
提问于2019-03-10
得票数 0
回答已采纳
1
回答
如何在向
bigquery
迁移的红移中执行回填?
、
我使用
bigquery
数据
传输服务将所有
数据
从
红移迁
移到
BigQuery
。 在此之后,如果缺少任何
数据
,我希望在特定的时间内执行回填。但我看不出在调换工作中有什么回填选择。我如何在
bigquery
中实现这一点?
浏览 4
提问于2020-09-23
得票数 0
回答已采纳
1
回答
Redshift
的COPY命令可以复制多个表吗?
、
、
、
、
我希望将一些MySQL
数据库
移到
Amazon的
云
上。目前,我正在创建一个Python脚本,将表转换为CSV,对它们进行加密,将它们放入
S3
中,然后将
数据
复制到
Redshift
中。我已经读过,您可以将
数据
分割成多个文件并并行上传,但是我相信这仍然仅用于将
数据
加载到一个表中。有办法一次在多个表上使用副本吗?
从
每个表中逐个复制
数据
似乎效率很低。
浏览 0
提问于2018-06-21
得票数 1
4
回答
我应该迁
移到
Redshift
吗?
、
、
、
我目前正在努力查询
存储
在分区表中的
数据
块(每个日期的分区)date, product_id, orders2019-11-01, 2, 200现在,例如,如果我想要查询产品id 1和2在2周内的总订单,并按日期分组(在每个日期的图形中显示),
数据库
必须转到2周的分区并获取它们的
数据
。我读到过AWS
Redshift
适用于这类任务。我正在考虑将我的分区表(每天的聚合分析)转
移到
该技术上,但我不知道这是否真的是
浏览 8
提问于2019-11-21
得票数 4
2
回答
如何在亚马逊
S3
上
存储
bacula (社区版)备份?
、
、
、
、
我使用的是centOS-7机器,bacula社区-版本 11.0.5和PostgreSql
数据库
我按照下面的文档链接将备份
存储
在亚马逊的
S3
桶上。如上面的链接所示,我配置了
存储
守护进程,在备份之后,备份就成功了,并备份了
存储
在给定路径/mnt/v磁带/磁带中的文件,但是备份文件并没有
从
/mnt/v磁带/磁带转
移到
AWS
s3
桶。在上面提到的文档中,我们需
浏览 5
提问于2021-08-16
得票数 0
3
回答
每天更新云中20-30亿行
数据
集中的1亿行
、
企业希望获取数十亿行(20-30亿),将它们
从
Oracle流式传输到
云
(在我们的案例中是AWS)。到目前一切尚好。然后他们想要在云中处理它们,在这里仍然可以。然后,他们希望每天更新大约5%(称为1.25亿)的行的子集,并再次处理
数据
。 我不是说这是不合理的,我只是不确定解决这个问题的最有效的方法。对于一些背景,我是一名高级全栈开发人员,有丰富的AWS和巨型
数据
集工作经验,但绝不是大
数据
专家。此外,如今云中的大
数据
选择如此之多,很难知道
从
哪里开始。像Glue这样的东西之所
浏览 13
提问于2021-10-22
得票数 0
2
回答
如何修复AWS Glue ETL Job中调用HeadObject操作时出现的错误:禁止
、
、
、
、
我正在我的AWS Dashboard中设置一个简单的AWS Glue ETL作业,它将位于AWS
S3
存储
桶中的拼图文件中的
数据
映射到
Redshift
数据库
中。如果我将
Redshift
JDBC连接设置为我的ETL作业的要求,它将立即失败,并显示以下消息:“调用HeadObject操作时出现错误(403):禁止”,如果我将其
从
作业的要求中删除,它将在一段时间后面临连接超时我已经尝试过检查
S3
区域和红移区域是否相同。(虽然
S3
存
浏览 26
提问于2018-12-24
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
数据湖和SQL并不矛盾
云端数据仓库的模式选型与建设
云原生数据库设计新思路
SAP HANA多租户管理
Data Analytics与SAP BW完美集成,DataHunter让数据分析和展示更便捷、更美观
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券