我有几个计划每天从S3加载数据的BigQuery传输作业。我们使用web UI对它们进行设置。它们在UTC时间今天凌晨3点运行得很好,但现在它们被卡住了,无论是手动触发还是预定时间。查看用户界面中的日志,它停留在第一步:Dispatched run to data source with id ***** 我们已经尝试创建一个新的传输到另一个S3存储桶,但它有相同的问题。任何想法都
我每天在BigQuery上运行一个日程转移,基本上没有任何问题。传输从亚马逊网络服务S3存储桶中读取.csv文件,并将信息附加到BigQuery表中。最近出现了一个问题,即传输既不会导致作业成功,也不会导致作业失败。 transfer logs 结果是没有导入条目,也没有触发警报;我不得不从报告的用户那里听到出了问题。问:当successful jobs = 0发生时,有没有办法在BigQuery<
我在S3存储桶里放了一堆CSV压缩文件,我想把它们导入到BigQuery中。从文档中看,BQ可以从不同的来源导入gzipped数据。然而,当我配置数据传输作业时,它只允许CSV、JSON、AVRO、PARQUET、ORC文件格式。将传输作业配置为CSV文件格式并运行后,它会记录以下内容:
Moving data from Amazon S3 to Google Cloud complete: Moved 64 object(s)有没有