Python面试简历分享。

在学习过程中存在迷茫的,不知道该如何学习的,可以根据下面在工作中用到的技术点针对性的学习。

分享前一段我的python面试简历,自我介绍这些根据你自己的来写就行,这里着重分享下我的项目经验、公司职责情况(时间倒序),不一定对每个人适用,但是有适合你的点可以借鉴

我的真实经验:(14年毕业,化工专业)

14.7 -- 15.1 卖保险

15.3 -- 15.11 进厂

16.2 -- 17.7 UI设计(UI培训班学习+UI工作)

17.8 -- 19.4 Python数据分析(Python培训班学习+Python工作)

我去培训班去过两次,先UI培训了4个月,出来在深圳UI行业混了1年,工资万把块,后来还是不想干了,因为当时室友几乎打听出来公司每个人的工资福利年终奖,比着公司后端开发的高工资,高年终奖,同样是干一天活,UI的整体待遇及后期增长幅度还是差些(主要是自己太菜鸡),刚好17年7月公司倒闭,就想换个工资高的后端,考虑过Java,不过没去上,咨询别人建议我学Python,就回培训班重造,又学了半年Python,毕业后一直做到现在,算下来,从17年8月开始培训,到现在,接触Python整整2年,也深深的被这门语言的强大所折服,期间也运营了这个公众号,记录一些平时自己的学习笔记,经验心得

2018.1-2019.4 AAAAA公司

项目一介绍:智能数据分析平台

开发一个软件质量评测项目,项目属于web项目,主要负责后台方法编写、部署,前端略有参与,项目分多个阶段,着重介绍2个阶段:

第一阶段:(着重后端方法编写)

缺陷自动分类功能实现,根据缺陷(bug)的标题、描述等相关特征信息,对缺陷严重程度等级(1-6)级进行分类,用到相关技术:

1、常用的建模/数据分析方法编写,处理缺失值、数据离散化、归一化、one-hot编码、字符串索引、降维、算法模型构建/模型保存与加载等常用功能编写通用方法,直接调用

2、结巴分词对描述信息文本分词,并去除停用词、构造自定义词典处理数据

3、 运用pandas对数据进行处理,缺失值、异常值、重复数据处理、特征向量化等 4、通过TF-IDF将数据向量化,在建模阶段对数据进行28比例切分,最后通过Sklearn SVM/朴素贝叶斯/决策树构造模型,对比验证各种模型的效果

第二阶段:(前后端配合)

该阶段是本项目重点阶段,采用django搭建后台,前端通过拖拽数据处理功能的操作,将数据/数据处理流程/建模方法等数据传到后端,后端根据传过来的参数,结合第一阶段编写好的方法对数据进行处理建模,并将结果返回前端进行相关图表展示,前端框架涉及jsplumb(流程图)、datatable.js(表格)、echarts.js(图表)、d3.js(架构图),后端相关技术主要有django框架、Pandas、numpy、sklearn常见数据处理与分析库

第三阶段:(仿真测试缺陷预测)

根据公司内部测试数据,研究性预测每个项目仿真测试缺陷数,数据特征比较多,挑选了一些影响关系大的因子,开发人员经验、开发时间、项目类别等,并对离散型特征通过one-hot和分箱转化成数值参与模型运算,在建模过程中,考虑到不同特征下预测结果不一样,编写随机算法选择特征与手动选择特征进行结果比较,也通过在相同特征下选择不同的算法模型进行预测,得出结果进行比较,这样充分考虑各种情况,得出一份更具有参考性的结果

职责:

1、独立配服务器环境,Django+Linux+Uwsgi+Nginx部署项目,实现访问

2、前后端代码编写(后端数据处理、数据交互、前端页面)

3、数据爬取,缺陷数据有限,部分数据来源于网上爬取,用于建模测试

4、数据库用到MySQL、Oracle

5、预测软件可靠性,运用G-O、G-M模型等,建立软件缺陷与时间关系模型方程

6、研究NLP中一些相似度算法

2016.1--2018.1 BBBBB公司

项目二介绍:爬虫与数据分析项目

1、根据需要爬取的数据进行需求分析,分析目标网站的网站结构和一些反爬手段,通过requests、scrapy、scrapy-redis、xpath等技术手段编写爬虫程序进行内容抓取 2、对抓取到的数据进行清洗过滤,结构化存到数据库,根据爬取过程中遇到的一些反爬手段,优化自己的程序

3、对爬取到的数据,通过matplotlib生成直方图、条形图、散点图、饼图、词云等,多维度展示分析数据,并撰写数据分析报告,供需求方对数据有直观的了解

职责:python工程师

编写爬虫程序,想出反反爬策略,数据清洗可视化

项目概况: 1、需要爬取的数据经过分析,考虑到数据量较多,采用scrapy-redis进行爬取,因为该框架实现url和数据去重、持久化、分布式比较方便,同时应用RedisSpider构建分布式爬虫,爬取更快 2、数据提取,对提取中的异常情况充分考虑,完善优化代码,增加代码强壮型 3、考虑网站能否打开和打开时间问题,一般需要加异常判断、超时、retry等减少报错 4、爬取的数据通过redis集合、sha1加密,等技术手段,实现新提取的数据保存,已爬过的数据更新的断点续爬功能

5、对爬取到的数据,通过matplotlib生成直方图、条形图、散点图、饼图、词云等,多维度展示分析数据,并撰写数据分析报告,供需求方对数据有直观的了解

独立完成网站数据爬取,和常见数据处理方式

2014.7--2015.12 CCCCC公司

项目三:网站开发

1、开发网页,根据需求和产品、程序沟通一些功能需求的实现和对界面的改善 2、根据阶段性需求,做些页面,编写HTML、CSS、JavaScript代码

3、织梦、Discuz建站、域名解析、SEO优化等均有做过

岗位职责:前端工程师

一些问题

问:前端如何学的?

答:上大学有选修课网页设计,当时接触的Dreamweaver,感觉能做个网页跳转,展示页面挺有趣的,就慢慢被吸引了,选修课学了一年,也经常看些网上的教程,就慢慢会了

问:python如何学的?

答:自学的,当时在公司做前端,刚好公司有个后端开发是做Python的,因为这对python有所了解,刚开始入门是从爬虫入手的,爬虫比较简单,而且也有趣,会从网上爬点数据、视频什么的,后来慢慢熟悉了,也网上买了课,开始接触python其他方面的功能,最后逐渐熟悉,因为有前端编程基础了,感觉再学也不那么难。

本文分享自微信公众号 - python入门到放弃(python_xuexi)

原文出处及转载信息见文内详细说明,如有侵权,请联系 yunjia_community@tencent.com 删除。

原始发表时间:2019-07-18

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

扫码关注云+社区

领取腾讯云代金券