腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(6582)
视频
沙龙
2
回答
triggering_frequency
只
能与
写入
BigQuery
的
FILE_LOADS
方法
一起
使用
、
、
、
无法为数据流作业设置
triggering_frequency
。beam.io.BigQueryDisposition.CREATE_IF_NEEDED, method=
bigquery
.WriteToBigQuery.Method.FILE_LOADS, ) Error:
triggeri
浏览 29
提问于2019-08-30
得票数 1
回答已采纳
1
回答
Google Dataflow -关于数据有限
的
流式管道
的
定价
的
澄清
、
、
我对一些围绕流媒体
的
数据流定价感到有点困惑:现在,如果我启用了--s
浏览 6
提问于2022-08-16
得票数 0
回答已采纳
1
回答
使用
Dataflow (Python)
的
Pub/Sub到
BigQuery
(批处理)
、
、
、
、
我打算这样做: create_disposition从Pub/Sub流,每60秒,它将批处理插入到
BigQuery
。我故意将max_files_per_bundle设置为1,以
浏览 1
提问于2021-07-28
得票数 0
1
回答
Apache横梁
使用
多个表时
的
写入
次数
、
、
、
我正在
使用
Apache Beam从PubSub读取消息,并将它们
写入
BigQuery
。我正在尝试做
的
是根据输入中
的
信息
写入
多个表。为了减少写操作,我对来自PubSub
的
输入
使用
了窗口。"Table Destination");我在文档中找不到任何东西,但我想知道每个窗口有多少次
写入
如果是多个表,是否对窗口中所有元素
的</em
浏览 0
提问于2019-12-21
得票数 0
2
回答
对于数据流,BigqueryIO.write()和
bigquery
.insertAll()
方法
哪个更好
、
、
、
我正在开发java代码,以便从GCS读取记录并插入到BQ表中,从成本和性能
的
角度来看,哪个BigqueryIO.write()或
bigquery
.insertAll()
方法
更好。
浏览 0
提问于2019-03-05
得票数 1
1
回答
Google存储
写入
API apache波束触发频率
、
我尝试
使用
新
的
谷歌
BigQuery
存储
写入
API在一个数据流作业中
使用
Beam。BigQueryIO.Write.Method.STORAGE_WRITE_API)When writing an unbounded PCollection via
FILE_LOADS
or STORAGE_API_WRITES, triggering frequency must be specified 然而,用于
的
beam文档( trigge
浏览 10
提问于2022-02-10
得票数 0
1
回答
在流管道中
使用
WriteToBigQuery
FILE_LOADS
只会创建大量临时表(python SDK)
、
、
我有一个流管道,它从发布/订阅中获取消息,解析它们,并将它们
写入
BigQuery
。挑战在于,每条消息都会根据消息中
的
event属性转到不同
的
事件表,并且它们是没有排序
的
。这意味着(我相信) WriteToBigQuery
方法
不能有效地批量
写入
,我看到它基本上一次
写入
一条消息,因此它运行得太慢了。我还尝试添加了一个60秒
的
窗口,并添加了一个GroupByKey/FlatMap来尝试对它们进行重新排序,但在加快速度方面
浏览 17
提问于2020-10-26
得票数 3
回答已采纳
1
回答
数据流作业-
写入
BigQuery
时出错
、
、
、
通过
使用
'
FILE_LOADS
‘技术
的
Apache光束数据流作业
写入
BigQuery
时遇到错误。流插入(else块)工作正常,正如预期
的
那样。'GCS存储桶上
的
临时文件是有效
的
JSON对象。import CreateDisposition, WriteDisposition from apache_beam.io.gcp.
bigquery
_tools import RetryStrategydataset=c[&q
浏览 0
提问于2020-08-13
得票数 1
3
回答
将堆栈驱动程序跟踪导出到
BigQuery
、
、
我想知道是否有一种很好
的
方法
来导出从Google到
BigQuery
的
跨范围
的
跟踪,以便更好地分析跟踪? 我目前看到
的
唯一可能
的
解决方案是单独编写跟踪和
BigQuery
API或临时编写。第一个不是很好,因为它需要对应用程序代码进行相当大
的
更改(我目前
只
使用
OpenCensus与StackdrierEx静物
一起
透明地向Stackdriver
写入
跟踪)。第二个不是很好
浏览 0
提问于2019-08-14
得票数 0
回答已采纳
1
回答
Apache光束-将延迟添加到管道中
、
、
、
我有一个简单
的
管道,可以从Pub Sub主题读取并
写入
BigQuery
。我想在从主题中读取消息和将消息
写入
BQ之间引入5分钟
的
延迟。我想我可以
使用
触发器来做这件事,类似于下面的内容,但是消息仍然没有延迟地直接传递。.withAllowedLateness(Duration.standardMinutes(1))有没有可能
使用
触发器创建这样
的
延迟
浏览 0
提问于2020-03-28
得票数 0
1
回答
Apache beam :从多个订阅读取
、
、
我想创建一个侦听多个订阅并
写入
BigQuery
的
数据流。根据谷歌
的
,我可以读取多个PCollection对象并将它们组合在
一起
。然而,看看PubsubIO.Read
的
javadoc ,subscription
方法
似乎
只
接受一个String,那么,我们需要链接subscription
方法
才能从多个订阅中读取数据吗?
浏览 0
提问于2017-11-07
得票数 1
1
回答
在GKE上插入
BigQuery
流失败
、
、
、
我们有一个拥有3x n2-highcpu-8节点
的
GKE集群,用GO编写
的
web应用程序可以扩展到3个实例(每个节点1个),将所有请求都
使用
流传输到
BigQuery
,我注意到了非常奇怪
的
行为: 在高应用程序
使用
率期间,应用程序启动
的
3个实例中有2个在流式
写入
时100%失败,错误是仅
写入
“超过上下文截止日期”,而当我删除这2个pod时,它们又开始接收流量,旧
的
1开始失败,出现“上下文截止日期超过”,而新
的</e
浏览 19
提问于2020-12-04
得票数 0
回答已采纳
1
回答
bigquery
.tabledata().insertAll
方法
(
Bigquery
Java API)仅插入部分行
、
、
我正在
使用
Java (
Bigquery
API)中
的
bigquery
.tabledata().insertAll
方法
将数据插入到
BigQuery
中,但是它
只
在表中
写入
了部分行,并且没有给出任何错误。其余行
的
去向是什么?
浏览 0
提问于2016-12-05
得票数 1
1
回答
如何在Apache Beam中用
BigQuery
IO写
BigQuery
?
、
、
、
、
我正在尝试建立一个Apache Beam管道,它从Kafka读取数据,并
使用
Apache Beam向
BigQuery
写入
数据。我在这里
使用
逻辑来过滤掉一些坐标:https://www.talend.com/blog/2018/08/07/developing-data-processing-job-using-apache-beam-streaming-pipeline/ TLDR:主题中
的
消息
的
格式是id,
浏览 32
提问于2020-06-23
得票数 0
1
回答
如何连接到VPC项目
、
我是
BigQuery
的
新手,我正在努力了解VPC如何为
BigQuery
项目工作。我有一个
BigQuery
项目,它从其他几个
BigQuery
项目中导入数据(没有VPC,而是同一个组织)。我还需要连接到VPC网络中
的
一个项目(仍然是同一个组织)。我阅读这个VPC项目的唯一
方法
是 我希望能够在我自己
的
项目中读写VPC项目的查询我希望能够安
浏览 2
提问于2020-05-27
得票数 0
1
回答
使用
数据流避免
BigQuery
存储API
的
会话关闭
、
、
我正在实现一个ETL作业,它将非分区
的
BigQuery
表迁移到分区
的
表。为此,我
使用
了来自
BigQuery
的
Storage。这将创建许多要从其中提取数据
的
会话。为了将
BigQuery
写入
路由到正确
的
分区,我
使用
了File
方法
。由于30天
的
限制,流插入是不可行
的
。存储写API似乎是有限
的
,识别分区。 通过驻留到File
方法
浏览 4
提问于2022-09-12
得票数 1
1
回答
BigQuery
AEAD函数密钥集管理
的
最佳实践
、
、
、
我
的
目标是构建一个基于
BigQuery
的
安全解决方案。我
使用
由CMEK保护
的
BigQuery
表。另外,我有一个数据流作业,它可以在表中
写入
数据。它用一个AEAD函数加密一些值。我用Tableau从
BigQuery
读取数据。并
使用
AEAD函数解密一些值。 我需要一种安全可靠
的
方法
,用于与AEAD
一起
使用
的
密钥集管理。加密期间,应该为数据流提供密钥集
浏览 0
提问于2020-10-17
得票数 0
回答已采纳
2
回答
在Apache /Dataflow
的
WriteToBigQuery转换中,如何
使用
Method.FILE_LOADS和Avro temp_file_format启用死信模式
、
、
、
、
在这个中,Apache建议在
写入
BigQuery
时
使用
死信模式。此模式允许您用'FailedRows'标记从转换输出中获取未能
写入
的
行。然而,当我尝试
使用
它时: table=self.
bigquery
_table_name, method=WriteToBigQu
浏览 34
提问于2022-09-03
得票数 0
回答已采纳
2
回答
使用
多字符分隔符将存储在谷歌云存储上
的
数据加载到
BigQuery
、
、
、
我想将带有多个字符分隔符
的
数据加载到
BigQuery
。BQ load命令当前不支持多个字符分隔符。它
只
支持单个字符分隔符,如'|‘、'$’、'~‘等 我知道有一种数据流
方法
,它将从这些文件中读取数据并
写入
BigQuery
。但是我有大量
的
小文件(每个文件400MB),它们必须
写入
一个单独
的
表分区(分区编号在700左右)。这种
方法
在处理数据流时速度很慢,因为我当前必须启动一个不同
的<
浏览 22
提问于2016-08-11
得票数 3
回答已采纳
1
回答
为什么光束io需要beam.AddFixedKey+beam.GroupByKey才能正常工作?
、
、
、
我正在为Golang
的
Elasticsearch开发一个光束IO,目前我有一个正在工作
的
草案版本,但我只是通过做一些我不清楚为什么需要它
的
事情来设法让它工作。基本上,我查看了现有的IO,发现只有在添加以下内容时,
写入
才能正常工作:y := beam.GroupByKey(s, x) 在中有一个完整
的
示例我也检查了BEAM-3860
的
问题,但没有更多
的
细节。
浏览 10
提问于2021-06-02
得票数 0
点击加载更多
相关
资讯
谷歌BigQuery ML正式上岗,只会用SQL也能玩转机器学习!
使用Kafka,如何成功迁移SQL数据库中超过20亿条记录?
谷歌推出Bigtable联邦查询,实现零ETL数据分析
从Lambda到无Lambda,领英吸取到的教训
分析GitHub:最流行的许可证是什么?
热门
标签
更多标签
云服务器
ICP备案
实时音视频
即时通信 IM
对象存储
活动推荐
运营活动
广告
关闭
领券