腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(1114)
视频
沙龙
1
回答
通过
JDBC
使用
Petnatho
数据
集成
批量
加
载到
Snowflake
的
速度
很慢
、
、
、
、
我们有几个本地
数据
库,到目前为止,我们
的
数据
仓库也是本地
的
。现在,迁移到云和
数据
仓库将在
Snowflake
进行。但我们仍然拥有比云中更多
的
预设源系统,因此希望坚持
使用
我们
的
预置ETL解决方案。因此,我们遇到
的
问题是,
使用
Snowflake
JDBC
驱动程序
的
PDI表输出步骤对于
批量
加
载到
Snowflak
浏览 12
提问于2020-02-26
得票数 0
回答已采纳
1
回答
通过
JDBC
与COPY_INTO + GET
批量
卸载雪花
数据
、
我对从
Snowflake
连续
批量
卸载
数据
到本地存储感兴趣。
使用
JDBC
直接发出SELECT查询,然后
使用
COPY_INTO复制到
Snowflake
内部阶段,然后
使用
GET命令从内部阶段()下载,从
Snowflake
批量
卸载有什么缺点吗?
通过
JDBC
进行select查询似乎更直接,而不必
使用
中间内部阶段
的
Snowflake
存储容量
浏览 3
提问于2021-08-25
得票数 0
2
回答
如何
使用
Oracle中
的
数据
更新
snowflake
中
的
表?
我需要
通过
从oracle
数据
库中获取
数据
来更新
snowflake
中
的
表。有没有办法从
snowflake
连接到oracle
数据
库?如果答案是否定
的
,我如何
使用
oracle中
的
数据
更新
snowflake
中
的
表。
浏览 34
提问于2020-04-10
得票数 0
回答已采纳
1
回答
将谷歌BigQuery表中
的
GCP
数据
加
载到
Snowflake
、
我在谷歌BigQuery表/视图中有
数据
,在谷歌云存储存储桶中。我已经为这个存储桶创建了一个
集成
和外部阶段,并且可以在
Snowflake
中查看存储桶中
的
文件。现在如何将
数据
从谷歌BigQuery表加
载到
Snowflake
表中?
浏览 13
提问于2020-05-02
得票数 0
3
回答
使用
Python将
数据
写入雪花
、
我们是否可以直接将
数据
写入雪花表,而无需
使用
Python? 首先编写阶段,然后将其转换,然后加
载到
表中,这似乎是一项辅助任务。它能否一步完成,就像RDBMS中
的
JDBC
连接一样。
浏览 10
提问于2020-08-27
得票数 4
回答已采纳
1
回答
timeseries插入性能
我尝试将一堆
数据
从我
的
SCADA系统加
载到
CrateDB (4年,多个CSV文件,大约87 of,大约数十亿个
数据
点/行)。在我
的
系统中,我只能每秒钟加载大约1500值(8GB内存、4GB
浏览 0
提问于2017-07-30
得票数 0
1
回答
雪花
的
异步外部函数与HttpStatus 429无关
、
、
、
我已经实现了一个符合
的
API。如果记录
的
数量较少,我们可以丰富表格。如果我们试图丰富300万条记录,那么在特定
的
时间之后,我们
的
TAPI开始发送HTTP 429。这是一个指示器,它告诉我们
的
lambda函数减慢
Snow
浏览 2
提问于2021-10-08
得票数 4
1
回答
仅
使用
REST和SQL命令
批量
插入到
Snowflake
我
使用
的
是雪花
数据
库和HiQ FRENDS
集成
平台。据我所知,FRENDS没有
Snowflake
插件。我在运行Frends服务器
的
Windows平台上安装了sbnowflake ODBC驱动程序。我正在寻找一种方法,使
批量
上传从FRENDS到雪花。我知道我应该将我
的
数据
文件上传到
Snowflake
中
的
stage区域,然后
使用
COPY命令将其附加到DB中。但是我还没有找到
通过
浏览 24
提问于2021-02-13
得票数 3
1
回答
将
数据
从
Snowflake
on GCP卸载/写入到AWS S3
我对
Snowflake
是个新手,真的找不到答案--从托管在GCP上
的
Snowflake
卸载
数据
到亚马逊网络服务S3存储桶
的
正确/推荐方法是什么?这是否与从已经托管在亚马逊网络服务上
的
雪花卸
载到
S3
的
过程相同,如突出显示
的
?是否有任何额外
的
安全问题或需要授予
的
权限? 在这种情况下,您如何协调不同云提供商之间
的
出口/入口?您是否可以
使用
sn
浏览 3
提问于2020-06-30
得票数 0
1
回答
复制到运行正常但不加载
数据
的
gzip文件
、
我正在
使用
talend bulk execution将
数据
从s3加
载到
snowflake
。Talend tFileArchive将文件转换为gzip格式,file.csv.gz并上传到s3存储桶。
通过
talend
批量
组件执行
的
副本如下所示。它不会抛出错误或其他东西,但也不会加载
数据
。如果我尝试在没有zip
的
情况下加载csv文件,它可以正常工作。即使我
通过
snowflake
UI执行上面的命令,它也会
浏览 3
提问于2020-07-31
得票数 0
2
回答
使用
Talend将CSV
数据
直接上传到Amazon Redshift
、
、
可以不
通过
亚马逊S3 (
使用
Talend)直接将
数据
上传到亚马逊Redshift吗?
浏览 0
提问于2018-02-16
得票数 0
2
回答
可以快速插入300,000条记录
的
.NET
数据
提供程序?
、
我正在制作一个应用程序,能够显示日志文件和
通过
它们搜索,在C#中。我需要
数据
提供程序,可以插入30万条记录真的很快。有人有什么建议吗?我目前
使用
的
是Microsoft Compact server3.5,运行
速度
非常慢。我尝试了sqlite,但它
的
执行
速度
很慢
,因为我不能进行
批量
插入。
浏览 0
提问于2009-07-15
得票数 2
3
回答
我们可以在
snowflake
中
使用
存储
的
proc将文件从文件位置加
载到
指定
的
内部阶段吗?
、
我们可以在
snowflake
中
使用
存储
的
proc将文件从文件位置加
载到
internalstage吗?我知道我们这里不能
使用
put命令。热心
的
帮助
浏览 0
提问于2021-07-09
得票数 0
1
回答
是否有从阵列到MonetDBe
的
批量
加载选项
、
、
我在我
的
服务器中将MonetDBe实现为一个
集成
的
DB。我希望能够将
批量
数据
加
载到
数据
库中。查看MonetDB文档,有一个csv命令,它允许从CopyInto文件加载
批量
数据
。由于MonetDBe嵌入到我
的
应用程序中,理想情况下,我希望将
数据
从内部
数据
数组
批量
加
载到
MonetDB中。 我
的
数据
通常来自我
浏览 4
提问于2021-02-28
得票数 0
3
回答
如何用PDI(水壶)提高从芒果到绿梅
的
插入
数据
的
性能?
、
、
、
、
我
使用
PDI(水壶)从mongodb提取
数据
到greenplum。我测试了是否将
数据
从mongodb提取到文件中,
速度
更快,每秒大约10000行。但是,如果提取到绿梅,它只有大约130每秒。我修改了格林梅
的
下列参数,但没有明显
的
改善。gpconfig -c log_statement -v none如果我想要添加输出表
的
数量。它似乎被挂断了,而且很长一段时间内不会
浏览 17
提问于2022-04-16
得票数 0
2
回答
如何根据
数据
文件测试/验证
jdbc
加载
的
数据
库表?
、
嗨,我正在
使用
模式文件创建表,并
通过
jdbc
从
数据
文件加载表。我正在
使用
PreparedStatement和executeBatch进行
批量
上传。
数据
文件内容类似于以下结构:X 11:40 1 A现在,我能够成功地在
数据
库中加载表但是,我想测试/验证加
载到
数据
库中
的
同一
浏览 3
提问于2013-08-05
得票数 0
回答已采纳
3
回答
我们必须
使用
PySpark进行复杂
的
查询还是
使用
简单
的
查询,并
使用
.filter / .select?
、
、
、
假设我在存储
数据
的
服务器上运行python脚本。有什么更快
的
方式在我
的
数据
之间有火花
数据
:谢谢
浏览 4
提问于2020-06-30
得票数 4
1
回答
通过
azure
数据
工厂将
数据
从预置
数据
湖加
载到
天蓝色
数据
湖存储
、
、
、
、
我想将
数据
从on(
数据
湖)存储加
载到
蔚蓝
数据
湖存储gen2。我
浏览 6
提问于2022-02-21
得票数 1
1
回答
AWS无法运行雪花python连接,例如https://www.
snowflake
.com/blog/how-to-use-aws-glue-with-
snowflake
/
(提交以下线程以帮助其他雪花用户了解AWS Glue将
使用
什么) spark-
snowflake
_2.12-2.5.2-spark_2.4
snowflake
-
jdbc
-3.9.1Glue版本-Spark2.4,Python3 (Glue Version 1.0)py4j.protocol.Py4JJavaError$init$(Lscala/Product;)V at
浏览 5
提问于2019-10-15
得票数 0
回答已采纳
1
回答
即使在批处理执行模式下,Netezza批处理插入也非常慢
、
根据文章,如果我们
使用
executeBatch方法,那么插入将会更快( Netezza
JDBC
驱动程序可能会检测到
批量
插入,并且在幕后将其转换为外部表加载,外部表加载将会更快)。我不得不执行数百万条insert语句,而且每个连接
的
最大
速度
仅为每分钟500条记录。有没有更好
的
方法
通过
jdbc
连接更快地将
数据
加
载到
netezza?我
使用
spark和
jdbc
连接
通过
加
浏览 19
提问于2017-07-21
得票数 1
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券