腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
在
GKE
上
插入
BigQuery
流
失败
、
、
、
我们有一个拥有3x n2-highcpu-8节点的
GKE
集群,用GO编写的web应用程序可以扩展到3个实例(每个节点1个),将所有请求都使用流传输到
BigQuery
,我注意到了非常奇怪的行为:
在
高应用程序使用率期间,应用程序启动的3个实例中有2个
在
流式写入时100%
失败
,错误是仅写入“超过上下文截止日期”,而当我删除这2个pod时,它们又开始接收流量,旧的1开始
失败
,出现“上下文截止日期超过”,而新的2中有1个成功地继续写入数据,另一个开始
失败
。是否有任何隐藏的限制,
浏览 19
提问于2020-12-04
得票数 0
回答已采纳
1
回答
当从其他谷歌云服务流式传输数据时,有可能修复到
BigQuery
的
失败
插入
吗?
BigQuery
提供insertIds并执行一些重复数据消除,以帮助解决通过API
插入
数据时的故障情况。根据文档,,所以如果
插入
失败
,可以通过API重试
插入
,而不用担心可能的(
插入
的)数据重复。问题是,
在
谷歌云
上
,有大量承诺将数据
插入
BigQuery
的服务。例如,对于从许多来源获取数据到
BigQuery
的推荐堆栈,DataFlow / Apache Beam是其中的一部分。那么,当使用任意
浏览 1
提问于2018-06-12
得票数 0
1
回答
运行dbt时
BigQuery
“超过最大重试次数”
、
当运行dbt时,我们随机地有一些模型
失败
,并出现以下错误:Max retriesexceeded with url: /
bigquery
/v2/projects/xxxx/jobs (Caused by NewConnectionError(‘<urllib3.connection.HTTPSConnection我们
在
GKE</e
浏览 0
提问于2020-12-04
得票数 1
1
回答
BigQuery
数据
流
LoadJob获得
失败
行,并在任何记录
失败
时跳过抛出错误
、
、
如何用LoadJob
在
Dataform中正确处理保存的公共消息?try: source_format=
bigquery
.SourceFormat.NEWLINE_DELIMITED_JSON,
bigquery
.SchemaUpdateOption.ALLOW_FIELD_ADDITION,
bigquery
.SchemaUpdateOption.A
浏览 11
提问于2022-10-29
得票数 0
1
回答
数据
流
因
BigQuery
而
失败
、
数据
流
因
BigQuery
而
失败
在
日志中,"1行
插入
失败
“ 就这样。
浏览 10
提问于2018-07-27
得票数 0
1
回答
如何在写入apache中的自定义接收器之前缓冲记录
、
、
我对Flink相当陌生,
在
技术用例方面需要一些帮助。我有一个
在
GKE
上
运行的flink应用程序,并使用自定义接收器将记录(从Kafka源)写入
BigQuery
。我可以将记录写入
BigQuery
,而不会出现任何问题。目前,记录被一个接一个地写入接收器中,因此每个kafka消息都会得到自己对
BigQuery
的
插入
api调用,这并不理想,因为我们需要执行批量
插入
,并且单独
插入
每个记录将非常昂贵。为此,我使用了
浏览 5
提问于2022-10-18
得票数 2
回答已采纳
1
回答
数据流到
BigQuery
配额
、
对于这个问题,我找到了几个相关的问题,但谷歌小组没有给出明确的答案: 云DataFlow的作业,写信给
BigQuery
,是否仅限于每秒100 K行的
BigQuery
配额(即BQ
流
限制)?但我不确定这是否是
在
插入
表中的节流,因为作业运行时比简单的计算慢了大约2倍(500‘m行/180 k行/秒= 45分钟,实际花费了将近2小时)。
浏览 0
提问于2015-11-19
得票数 4
回答已采纳
1
回答
在数据
流
中使用
BigQuery
beam api向Streaming_insert
插入
记录时请求大小错误
、
、
、
、
我创建了一个google
流
作业,从PubSub读取并
插入
到
BigQuery
中。我使用JSON将STREAMING_INSERT数据
插入
到BiqQuery表中。我正面临
插入
问题,说明请求的大小超过了10 Mb的允许限制。数据
流
错误如下所示。根据我的理解,每个记录的大小是1-2Mb,根据我的理解,数据
流
作业将
流
数据
插入
到微批处理中,这导致了这一错误。
BigQuery
支持高达10 is的请求大小,这一行太大了。您可以更改重
浏览 6
提问于2022-10-13
得票数 0
回答已采纳
1
回答
在
Google数据流管道中保留
失败
记录的推荐方法是什么?
、
我希望将
失败
的记录保留在Google Dataflow管道中,以便以后可以搜索/重试。保存
失败
记录的最佳组件是什么?记录需要按客户和日期存储(每天)。发布/订阅、
Bigquery
或数据存储是否适用于此场景?
浏览 41
提问于2019-04-03
得票数 0
1
回答
Springboot到
BigQuery
的低成本
、
、
、
我们有一个
在
GKE
上
运行的spring启动应用程序,但我很快就会把它移到cloud run
上
。此应用程序连接到云SQL postgress数据库。我有两个副本
在
加拿大和美国运行。由于法律要求,我们必须将原始用户数据存储
在
不同的数据区域中。 我们要做的是将每个地区的未识别数据导出到单个
BigQuery
实例中,这样我们就可以运行分析并开始创建一些ML模型。它最初是如何设置的,我们让发布/订阅导出到
BigQuery
。为简单起见,我将每个表导出到<e
浏览 2
提问于2021-05-05
得票数 1
1
回答
数据
流
批处理或
流
插入
到
BigQuery
澄清
、
、
考虑到
流
插入
到
BigQuery
涉及到的成本,从
BigQuery
的角度来看,使用Dataflow从有界集合(或批处理模式)读取是否会产生成本?我相信只有当从无界集合(
在
流
模式下)读取并写入
BigQuery
时,才被认为是对
BigQuery
的
流
插入
。
浏览 0
提问于2018-12-31
得票数 2
回答已采纳
1
回答
BigQuery
流
丢失了
流
数据,但未报告错误
、
{ Log::error('Streaming to
BigQuery
基本
上
,它的作用是。如果
流
成功,我将返回true,如果流
失败
,我将返回false。我发现
bigq
浏览 1
提问于2018-03-27
得票数 0
1
回答
使用本机Insert查询将数据
插入
到
BigQuery
中
、
、
我使用
BigQuery
的InsertAll方法将行
插入
到InsertAll中。一切都很顺利。
上
的DML语句将影响
流
缓冲区中的行,这是不支持的。我使用INSERT查询
插入
一行,然后立即更新同一行的。效果很好。 当我阅读
BIGQUERY
的文章时,他们提到了来自JAVA的InsertAll和使用
流
缓冲区从控制台
插入
查询。如果有人建议使用从Java
插入
的原生insert查询,而不是使用InsertAll到
BigQuery
,
浏览 2
提问于2020-09-30
得票数 0
回答已采纳
3
回答
谷歌数据
流
每项作业是否有BT写原子?
也许我是个糟糕的探索者,但我
在
文档中找不到答案,所以我只想在这里试试运气。我知道写GCS似乎不是原子的,
在
作业运行的过程中会产生部分输出分区。但是,我已经尝试过通过数据
流
将数据转储到BQ中,并且
在
作业声称成功之前,输出表似乎不会公开给用户。
浏览 6
提问于2016-08-05
得票数 1
回答已采纳
1
回答
将IAM服务帐户限制为特定的Google Stackdriver日志
、
、
我计划在
GKE
中使用我的应用程序的几个实例,并考虑使用Google Stackdriver进行审计日志记录。但是,根据我
在
访问控制文档()中所看到的,logWriter角色适用于整个项目。我的计划是将日志从Stackdriver发送到
BigQuery
。一种可能是直接发送到
BigQuery
,但似乎不可能将帐户限制为只能
插入
。另一个是每个应用程序都有一个单独的项目(
GKE
命名空间)-但这似乎过于复杂,不推荐使用这种方式。 谢谢!
浏览 2
提问于2018-10-19
得票数 1
1
回答
切换到时间戳分区表
、
、
但是,当我翻转开关并将数据
流
重定向到新的时间戳分区表时,它会中断。要注意的事情: 中止行动。处理
在<
浏览 0
提问于2019-02-07
得票数 0
回答已采纳
1
回答
Google
插入
查询联邦Google表的
bigquery
作业
、
、
我正在使用工作
流
编写ELT。到目前为止还不错。但是,我的一个表是基于Google工作表的,而该作业
在
"Access Denied:
BigQuery
BigQuery
: Permission denied while getting Drive credentials
上
失败
了。我的逻辑是我应该添加驱
浏览 1
提问于2021-11-13
得票数 0
回答已采纳
1
回答
Argo工作流在成功完成后自动删除
、
、
、
、
我的Argo设置
在
GKE
上
。 我观察到的是,
在
一个工作
流
成功完成后,它会被自动删除。但是,如果工作流
失败
,则工作
流
和所有节点pods仍保留在集群中。 我找不到任何关于这方面的文档。请注意,这仅在
GKE
集群
上
发生。
在
minikube
上
运行它不会重现这种行为。
浏览 102
提问于2021-11-11
得票数 1
回答已采纳
1
回答
BigQuery
与
GKE
托管的PostgreSQL的集成
、
、
、
、
下面是这样的: 我很难相信Google不支持将
GKE
数据库与Big连接起来。如果没有,我是否可以使用其他解决方案让
BigQuery
查询我的k8s数据库?
浏览 4
提问于2021-10-15
得票数 1
2
回答
对于数据
流
,BigqueryIO.write()和
bigquery
.insertAll()方法哪个更好
、
、
、
我正在开发java代码,以便从GCS读取记录并
插入
到BQ表中,从成本和性能的角度来看,哪个BigqueryIO.write()或
bigquery
.insertAll()方法更好。
浏览 0
提问于2019-03-05
得票数 1
点击加载更多
相关
资讯
Spotify开源Terraform:用于在GKE上运行Kubeflow
为什么在以太坊上构建项目注定会失败!
信息流FYI:反对在Facebook上通过诱导参与互动
“让中国技术在国际一流项目上大放光彩”
网恋失败错在游戏?当玩家不再相信爱情,它却成为了网易顶流月老
热门
标签
更多标签
云服务器
ICP备案
实时音视频
对象存储
云直播
活动推荐
运营活动
广告
关闭
领券