腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
用于
在
python
中
压缩
CSV
文件
的
函数
、
、
、
我正在尝试制作一个
函数
,它使用源路径、源
文件
、目标路径、目标
文件
作为参数,并以这种方式将
CSV
文件
转换为zip。我对
python
和这个网站都是新手,所以如果你能帮我的话。
浏览 34
提问于2021-07-27
得票数 0
回答已采纳
1
回答
AWS Lambda -
Python
-读取S3
中
的
csv
文件
-上传
的
压缩
函数
、
、
我
在
Python
3.6
中
有一个lambda
函数
,我将其
压缩
成
压缩
文件
上传到S3 (总
函数
文件
夹大小为180MB,这就是为什么)。
在
压缩
包
中
,我有一个
csv
文件
('example.
csv
'),我想在lambda处理
函数
中
读取它。 如何读取此
文件
?(filep
浏览 0
提问于2019-01-21
得票数 0
2
回答
有没有办法合并多个
CSV
文件
上传到亚马逊网络服务S3存储桶使用
Python
?
、
、
我需要设置一个AWS Lambda
函数
,该
函数
在
新
的
CSV
文件
上传到S3存储桶时触发,以将
CSV
文件
合并为一个主
文件
(它们将具有相同
的
列数和列名),然后将新
的
主
文件
上传到另一个S3存储桶。我使用
Python
实现Lambda
函数
。我用我
的
Lambda
函数
和我使用
的
依赖项(Pandas和Numpy
浏览 1
提问于2019-07-02
得票数 1
2
回答
用Azure ML
Python
脚本读取多个
CSV
文件
、
、
、
我有4个
csv
文件
,它们是azure ML
中
python
脚本
的
输入,但是小部件只有2个数据输入,第三个输入
用于
zip
文件
。我试图将
csv
文件
放在
压缩
的
文件
夹
中
,并将其连接到脚本
的
第三个输入,但这也不起作用: 我想知道如何在
python
脚本
中
读取多个
csv
文件
。
浏览 5
提问于2017-07-12
得票数 1
回答已采纳
1
回答
从服务器链接下载
压缩
的
csv
文件
并读入pandas
、
、
、
我一直
在
尝试使用requests库从服务器主机URL下载
压缩
的
csv
。 当我从同一服务器下载一个不需要
压缩
的
小
文件
时,它在
CSV
中
读取没有问题,但对于这个
文件
,我返回了编码错误。我尝试了多种编码方式,以pandas
csv
格式读入,以zip
文件
格式读入,然后打开(此时我得到
的
错误消息是,
文件
不是zip
文件
)。我还尝试了使用这里建
浏览 21
提问于2021-02-09
得票数 0
1
回答
使用
Python
将数据导入到SQL
、
、
我需要将30k行
的
数据从
CSV
文件
导入到Vertica数据库
中
。我尝试使用
的
代码需要一个多小时才能完成。我想知道有没有更快
的
方法?我尝试使用
csv
导入,也尝试通过循环数据帧来插入,但速度不够快。
浏览 25
提问于2019-01-29
得票数 0
回答已采纳
2
回答
如何在Azure
函数
中
从存储容器
中
读取多个
文件
、
、
、
我有一个Azure
函数
应用程序(
Python
),我必须读取存储
在
Azure Storage帐户(StorageV2)
中
的
多个
CSV
文件
来验证它们。但是,此
文件
夹
中
的
CSV
文件
的
文件
名和数量会随着时间
的
推移而变化。该应用程序是使用HTTP绑定触发
的
,最好是动态检查
文件
夹
的
内容,
浏览 39
提问于2021-11-15
得票数 0
1
回答
基于
压缩
文件
中
文件
的
不同管道
、
、
我
在
google云存储桶中有一个
压缩
文件
。该
文件
包含一个大
csv
文件
和一个基于xml
的
小元数据
文件
。我想提取这两个
文件
,确定元数据并处理
csv
文件
。我正在使用
Python
,管道
在
某个时候将在上运行。当前
的
解决方案是使用Google
函数
提取两个
文件
,并使用从xml
文件
中
解析<e
浏览 0
提问于2018-05-13
得票数 0
回答已采纳
3
回答
对于
在
django中将
CSV
文件
转换为ZIP
文件
感到困惑
、
、
我有一个视图,它从我
的
网站获取数据,然后将其
压缩
成
压缩
的
csv
文件
。以下是我
的
工作代码sans zip: response = HttpResponse(mimetype='text/
csv
') response['Content-Disposition'] = 'attachment; filename
浏览 2
提问于2009-09-10
得票数 2
回答已采纳
2
回答
R直接将数据保存为zip
文件
、
、
我找到了zip和RCompression包,但它们能做到:正如您对write.
csv
所做
的
那样 我也知道gzfile。
浏览 1
提问于2013-07-09
得票数 16
回答已采纳
2
回答
如何等待
python
脚本完成运行,然后用PHP下载生成
的
文件
?
、
、
我有一个
python
脚本(
在
Windows上),它通过API请求信息,将数据下载到几个
csv
中
,最后将它们“
压缩
”到一个.zip
文件
中
。其想法是使用PHP通过URL访问这个zip
文件
。但是这里
的
主要问题是PHP使zip可用,甚至
在
文件
还没有被完全
压缩
之前。 使用‘睡眠’
函数
,我相信会停止PHP
的
执行,甚至
Python
脚本,对吗?
浏览 3
提问于2022-02-11
得票数 0
1
回答
如何使用
python
脚本快速
压缩
文件
、
、
我正在尝试使用
python
脚本和
python
-snappy模块以snappy格式
压缩
csv
文件
。这是我到目前为止
的
代码:d = snappy.compress("C:\\Users\\my_user\\Desktop\\Test\\Test_file.
csv
") with,但是创建
的
snappy
文件
只包含一个字符串:"C:\Users\my_user\Desktop\Test
浏览 20
提问于2017-08-16
得票数 1
回答已采纳
1
回答
压缩
后将
CSV
文件
更改为字节数组
、
、
、
、
所以我从前端收到一个
CSV
文件
,我需要
压缩
它并将其存储到MySql DB
中
。问题是,
在
我解
压缩
回
文件
后,它被修改了,并且不再具有
CSV
结构(我使用ZIP
压缩
,但我也尝试过gzip)。这是解压后
的
文件
header1,header2,header3,header4,header5val1,val2,val3,val4,val5val6,val7,val8.val9.val10 我需要将解
压缩<
浏览 18
提问于2020-04-16
得票数 0
回答已采纳
1
回答
创建一个带有2个
CSV
的
Zip
、
、
、
我将2个数据帧导出为
csv
,如下所示: data1 = {'isin':['isin1','isin2','isin3'],'ticker_QF':['ticker1','ticker3','ticker3'],'ticker_BBG':['ticker1','ticker3','ticker4','ticker5']}
浏览 3
提问于2017-02-01
得票数 3
回答已采纳
1
回答
如何在
python
中
以dataframe格式同时打开位于不同子
文件
夹
中
的
多个
压缩
excel
文件
(.gz
文件
)?
、
、
、
、
我是
python
的
新手,所以有一个问题。我
在
不同
的
子
文件
夹中有多个
压缩
的
(.gz)excel
文件
,我试图使用os.listdir
函数
在
python
中
读取数据帧格式
的
所有
压缩
的
excel
文件
,但它只显示名称。我面临
的
问题是读取那些
压缩
的
DataFrame格式<
浏览 33
提问于2020-07-09
得票数 0
1
回答
在
python
中
压缩
csv
文件
、
、
、
我尝试使用gzip
压缩
csv
文件
,但返回给变量
的
路径为空。
浏览 12
提问于2020-03-06
得票数 0
1
回答
在
python
中
压缩
文件
、
我试图
在
python
中
压缩
一个
文件
,我
的
代码是:f = zipfile.ZipFile('/home/tom/Desktop/test.
csv
.zip','w',zipfile.ZIP_DEFLATED)f
浏览 3
提问于2014-12-01
得票数 0
回答已采纳
3
回答
在
函数
中
读取3个
csv
文件
的
Pythonic方法?
、
、
、
def production(csvfile): print csvfile 我想传递3个
csv
文件
,程序应该给出it.currently
的
输出,我已经给出了一个
csv
文件
。
浏览 1
提问于2016-12-05
得票数 0
回答已采纳
2
回答
PySpark解
压缩
文件
:这是一种很好
的
方法来解
压缩
文件
并将
文件
存储到Delta
中
?
、
、
、
、
我有存储
在
s3
中
的
压缩
文件
,然后我有一个["s3://mybucket/file1.zip", ..., "s3://mybucket/fileN.zip"]列表,我需要使用Spark集群解
压缩
所有这些
文件
,并将所有的
CSV
文件
存储到一个增量格式表
中
。我想知道一种比我目前
的
方法更快
的
浏览 0
提问于2019-10-30
得票数 6
2
回答
仅解
压缩
Azure数据工厂
中
的
.
csv
文件
、
我有一个备份
压缩
文件
,其中有数百个
文件
。解
压缩
所有
文件
需要一个多小时
的
时间来处理。 有办法只解
压缩
Azure
中
的
.
csv
文件
吗?
浏览 5
提问于2022-10-20
得票数 0
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
云直播
腾讯会议
实时音视频
活动推荐
运营活动
广告
关闭
领券