我正在考虑从远程服务器将CSV加载到Big Query中,即使压缩,它们也将大于10MB。我的理解是,要将远程文件直接加载到Big Query中,从技术上讲,这将遵循“从本地文件加载数据”的过程,该过程在数据所在的远程服务器上的脚本中实现。 根据大型查询文档,这被限制为10MB/文件。我是否需要将文件加载到GCS中,然后使用BQ Data Transfer Service来执行此任务?将巨大的CSV分解成一堆10MB的CSV是一个实际的选择吗?这需要是可伸缩的。
注意:在codesandbox.io中运行这个
试图将文件上载到Firebase存储,但获得一个错误对象对象。我能够成功地将事情写到FireStore,并且确认selectedFile是类型文件。
import React, { useState, useEffect } from 'react';
import firebase from "./firebase"
function AddImage() {
// Get a reference to the storage service, which is used to create