我正在尝试从雪花表中提取数据到一个文件中。默认情况下,解压文件的大小限制为100MB。
由于文件大小的限制,文件的最后一条记录被拆分,一些列将转到下一个文件。
有没有办法根据文件中的记录数而不是文件大小来限制数据提取?
发布于 2019-11-27 13:22:30
如果使用COPY语句,则可以使用MAX_FILE_SIZE选项将文件大小增加到最大5 5GB。(通过将其设置为5000000000)
示例:
copy into @mystage/myfile.csv.gz from mytable
file_format = (type=csv compression='gzip')
single = true
max_file_size=4900000000
我不认为有一种方法可以在copy语法中指定每个文件的行数,尽管您可以在查询中使用过滤器或limit/fetch子句来控制记录的数量。
https://stackoverflow.com/questions/59066097
复制相似问题