我有一个相当小的数据集(5~gb,150万行),目前存储在Bigtable中,并通过HBase API (Scala)进行访问,以便使用Spark (dataproc)进行数据分析。但是,我的预算也很紧张,而且Bigtable的成本相当高(2~美元/小时),所以我最终要做的是在需要时删除和重新创建Bigtable集群。明显的缺点是,由于数据的</
我有一个拥有100多万条记录的MySQL数据库。我不是数据库的所有者,并且没有对它的写/修改权限。我有一个名为MyDB的小目标数据库,它从巨大的视图中获取一些字段。现在,这些是我在MysqlWorkbench上处理巨大的百万记录表时所面临的问题。
--gview(over a million records.name-St