首页
学习
活动
专区
工具
TVP
发布

datartisan

专栏作者
152
文章
297744
阅读量
29
订阅数
利用Sql处理MR栅格数据
要处理成这个样子(栅格内主服务小区CGI中可能包含50多个CGI,只提取前15个)
披头
2020-07-22
1K0
利用Python进行MR栅格数据处理
df 中RSRP<=-110占比字段为 str ,需要先转换为 float 再除以100,最后用1-该值得到RSRP覆盖率
披头
2020-07-22
9680
PowerQuery套路01:批量导入文件
日常工作中有时会遇到批量导入文件的场景,比如:excel,csv,json,手工合并是一种比较简单的方法,就是效率太低,PowerQuery最适合做这种事了,PowerQuery默认就有导入文件夹的选择,可以轻松实现批量导入。(格式要一致)
披头
2020-06-03
2.9K0
Linux常用命令1
tar -zcvf /home/abc/a.tar.gz /home/abc/a.txt
披头
2020-04-26
4980
利用Python进行CSV文件编码检测
csv文件编码格式多种多样,批量处理时容易出现问题,今天偶然看到有人提问:如何处理PowerBI批量导入csv文件时,文件编码不一致的问题?因为我之前处理过单个csv文件编码检测的问题,初步认为是可以利用Python解决的,今天正好是周末,便研究了一下实现方法。目标是实现csv文件编码格式批量获取,并且按照编码格式在当前目录下创建子目录,最后将同一种编码格式的csv文件移动至对应的子目录下,最终效果如下图:
披头
2020-04-26
2.6K0
Python小工具:CSV文件分割神器2.0
工作中需要处理一个700多W行的csv文件,要求将csv文件按照100W行进行分割,以便可以用excel打开,找了几个脚本,处理小文件都差不多,但是当我尝试处理这个大文件时,代码效率就凸显出来了,有的程序半个小时都处理不完,有的只要十几秒,今天把这个高效的代码分享给大家。
披头
2020-03-12
3.5K6
利用Python批量合并csv
前几天遇到一个工作,需要将几个分别包含几十万行的csv文件的某3列合并成1个csv文件,当时是手工合并的: 1、csv另存为excel; 2、删除不需要的列,仅保留想要的列 3、excel另存为csv 4、最后,手工合并处理好的csv 不得不说,这样操作效率真的很低,尤其是操作几十万行的文件,当时就想利用python代码肯定可以实现,今天利用周末的时间好好研究了一下,终于实现了,操作几十万行的文件只需要一两分钟,比手工高效多了。 实现思路如下: 1、利用os模块获取文件下所有csv文件(表结构相同) 2、用pandas打开第一个文件; 3、循环打开剩下的文件; 4、利用pd.concat拼接不同的df,该方法可以自动去除多余的标题行; 5、挑选需要的列,去重; 6、将结果输出文csv文件; 完整代码如下:
披头
2020-02-26
5.4K0
Python实践 | 亿级经纬度距离计算工具V2
计算经纬度的代码网上一搜一大把,通常是单点距离的计算,无法实现批量计算,本文将利用pandas实现亿级经纬度距离代码的实现。 最短距离计算建议参考下文,mapinfo能够很好的实现。 MAPINFO 最小站间距统计
披头
2020-02-26
2.4K3
10分钟入门Pandas-系列(3)
pandas入门系列本期就完结了,该系列一共三期,学习后可以初步掌握经典库pandas使用方法,前文回顾 10分钟入门Pandas-系列(1) 10分钟入门Pandas-系列(2)
披头
2019-12-26
5320
Python实践 | 亿级经纬度距离计算代码实现
计算经纬度的代码网上一搜一大把,通常是单点距离的计算,无法实现批量计算,本文将利用pandas实现亿级经纬度距离代码的实现。 最短距离计算建议参考下文,mapinfo能够很好的实现。 MAPINFO 最小站间距统计
披头
2019-12-26
4K0
MAPINFO 最小站间距统计
站间距统计是优化过程中的常规操作,而我见过的宏工具计算少量站点的站间距还行,多了就不行了,运行效率普遍较低,今天分享一个可用的操作教程,教你快速的完成最小站间距的统计。 假定有两张表: 新开站点new_site 300行 全网站点all_site 14238行
披头
2019-12-26
1.8K0
Python工具开发实践-csv2excel
Python学习有一段时间了,今天来尝试编写一个程序来实现csv文件转换为excel文件的功能。
披头
2019-12-26
1.6K0
Python工具开发实践-csv文件分割
今天工作中需要处理一个700多W行的csv文件,要求将csv文件按照100W行进行分割,以便可以用excel打开,找了几个脚本,处理小文件都差不多,但是当我尝试处理这个大文件时,代码效率就凸显出来了,有的程序半个小时都处理不完,有的只要十几秒,今天把这个高效的代码分享给大家。
披头
2019-12-26
1.2K0
没有更多了
社区活动
腾讯技术创作狂欢月
“码”上创作 21 天,分 10000 元奖品池!
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档