我必须将数以百万计的记录加载到redshift DB中(这是必须的),这样做的最有效/最快的方法是什么?现在,我正在创建一个字典,在其中存储行块,这些行被抛到字符串中,这样我就可以将它们放在查询字符串中,然后使用Pandas这样的方法: with conn.cursor() as c:
for chunk in df_chunks.keys()
我已经在一个私有子网中建立了一个红移群集。我可以成功地连接到红移群集,并通过DBeaver执行基本的SQL查询。我还需要从s3上传一些文件到redshift,因此我在私有子网中设置了一个s3网关,并更新了专用子网的路由表,以添加所需的路由,如下所示:0.0.0.0/0 nat-0a73ba7659e887232 active No
但是,