前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Python面试简历分享。

Python面试简历分享。

作者头像
不断折腾
发布2019-09-23 11:30:19
3K0
发布2019-09-23 11:30:19
举报

在学习过程中存在迷茫的,不知道该如何学习的,可以根据下面在工作中用到的技术点针对性的学习。

分享前一段我的python面试简历,自我介绍这些根据你自己的来写就行,这里着重分享下我的项目经验、公司职责情况(时间倒序),不一定对每个人适用,但是有适合你的点可以借鉴

我的真实经验:(14年毕业,化工专业)

14.7 -- 15.1 卖保险

15.3 -- 15.11 进厂

16.2 -- 17.7 UI设计(UI培训班学习+UI工作)

17.8 -- 19.4 Python数据分析(Python培训班学习+Python工作)

我去培训班去过两次,先UI培训了4个月,出来在深圳UI行业混了1年,工资万把块,后来还是不想干了,因为当时室友几乎打听出来公司每个人的工资福利年终奖,比着公司后端开发的高工资,高年终奖,同样是干一天活,UI的整体待遇及后期增长幅度还是差些(主要是自己太菜鸡),刚好17年7月公司倒闭,就想换个工资高的后端,考虑过Java,不过没去上,咨询别人建议我学Python,就回培训班重造,又学了半年Python,毕业后一直做到现在,算下来,从17年8月开始培训,到现在,接触Python整整2年,也深深的被这门语言的强大所折服,期间也运营了这个公众号,记录一些平时自己的学习笔记,经验心得

2018.1-2019.4 AAAAA公司

项目一介绍:智能数据分析平台

开发一个软件质量评测项目,项目属于web项目,主要负责后台方法编写、部署,前端略有参与,项目分多个阶段,着重介绍2个阶段:

第一阶段:(着重后端方法编写)

缺陷自动分类功能实现,根据缺陷(bug)的标题、描述等相关特征信息,对缺陷严重程度等级(1-6)级进行分类,用到相关技术:

1、常用的建模/数据分析方法编写,处理缺失值、数据离散化、归一化、one-hot编码、字符串索引、降维、算法模型构建/模型保存与加载等常用功能编写通用方法,直接调用

2、结巴分词对描述信息文本分词,并去除停用词、构造自定义词典处理数据

3、 运用pandas对数据进行处理,缺失值、异常值、重复数据处理、特征向量化等 4、通过TF-IDF将数据向量化,在建模阶段对数据进行28比例切分,最后通过Sklearn SVM/朴素贝叶斯/决策树构造模型,对比验证各种模型的效果

第二阶段:(前后端配合)

该阶段是本项目重点阶段,采用django搭建后台,前端通过拖拽数据处理功能的操作,将数据/数据处理流程/建模方法等数据传到后端,后端根据传过来的参数,结合第一阶段编写好的方法对数据进行处理建模,并将结果返回前端进行相关图表展示,前端框架涉及jsplumb(流程图)、datatable.js(表格)、echarts.js(图表)、d3.js(架构图),后端相关技术主要有django框架、Pandas、numpy、sklearn常见数据处理与分析库

第三阶段:(仿真测试缺陷预测)

根据公司内部测试数据,研究性预测每个项目仿真测试缺陷数,数据特征比较多,挑选了一些影响关系大的因子,开发人员经验、开发时间、项目类别等,并对离散型特征通过one-hot和分箱转化成数值参与模型运算,在建模过程中,考虑到不同特征下预测结果不一样,编写随机算法选择特征与手动选择特征进行结果比较,也通过在相同特征下选择不同的算法模型进行预测,得出结果进行比较,这样充分考虑各种情况,得出一份更具有参考性的结果

职责:

1、独立配服务器环境,Django+Linux+Uwsgi+Nginx部署项目,实现访问

2、前后端代码编写(后端数据处理、数据交互、前端页面)

3、数据爬取,缺陷数据有限,部分数据来源于网上爬取,用于建模测试

4、数据库用到MySQL、Oracle

5、预测软件可靠性,运用G-O、G-M模型等,建立软件缺陷与时间关系模型方程

6、研究NLP中一些相似度算法

2016.1--2018.1 BBBBB公司

项目二介绍:爬虫与数据分析项目

1、根据需要爬取的数据进行需求分析,分析目标网站的网站结构和一些反爬手段,通过requests、scrapy、scrapy-redis、xpath等技术手段编写爬虫程序进行内容抓取 2、对抓取到的数据进行清洗过滤,结构化存到数据库,根据爬取过程中遇到的一些反爬手段,优化自己的程序

3、对爬取到的数据,通过matplotlib生成直方图、条形图、散点图、饼图、词云等,多维度展示分析数据,并撰写数据分析报告,供需求方对数据有直观的了解

职责:python工程师

编写爬虫程序,想出反反爬策略,数据清洗可视化

项目概况: 1、需要爬取的数据经过分析,考虑到数据量较多,采用scrapy-redis进行爬取,因为该框架实现url和数据去重、持久化、分布式比较方便,同时应用RedisSpider构建分布式爬虫,爬取更快 2、数据提取,对提取中的异常情况充分考虑,完善优化代码,增加代码强壮型 3、考虑网站能否打开和打开时间问题,一般需要加异常判断、超时、retry等减少报错 4、爬取的数据通过redis集合、sha1加密,等技术手段,实现新提取的数据保存,已爬过的数据更新的断点续爬功能

5、对爬取到的数据,通过matplotlib生成直方图、条形图、散点图、饼图、词云等,多维度展示分析数据,并撰写数据分析报告,供需求方对数据有直观的了解

独立完成网站数据爬取,和常见数据处理方式

2014.7--2015.12 CCCCC公司

项目三:网站开发

1、开发网页,根据需求和产品、程序沟通一些功能需求的实现和对界面的改善 2、根据阶段性需求,做些页面,编写HTML、CSS、JavaScript代码

3、织梦、Discuz建站、域名解析、SEO优化等均有做过

岗位职责:前端工程师

一些问题

问:前端如何学的?

答:上大学有选修课网页设计,当时接触的Dreamweaver,感觉能做个网页跳转,展示页面挺有趣的,就慢慢被吸引了,选修课学了一年,也经常看些网上的教程,就慢慢会了

问:python如何学的?

答:自学的,当时在公司做前端,刚好公司有个后端开发是做Python的,因为这对python有所了解,刚开始入门是从爬虫入手的,爬虫比较简单,而且也有趣,会从网上爬点数据、视频什么的,后来慢慢熟悉了,也网上买了课,开始接触python其他方面的功能,最后逐渐熟悉,因为有前端编程基础了,感觉再学也不那么难。

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2019-07-18,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 python入门到放弃 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
Discuz!
Discuz! 是全球领先的论坛社区应用系统,自2001年6月面世以来,服务超过300多万网站用户案例。现在,借助 Discuz! ,您不仅可以使用搭建传统的社区论坛,更可轻易的构建面向移动互联网时代的私域流量和社交圈子类的应用,并快速启动业务。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档