首页
学习
活动
专区
工具
TVP
发布

git

专栏作者
86
文章
78757
阅读量
14
订阅数
Selenium+python3
from selenium import webdriver from selenium.webdriver import ChromeOptions
用户2337871
2020-04-24
3590
Python3--监控疫情
from pyecharts.charts import Map, Geo
用户2337871
2020-02-18
4530
神箭手js爬取房天下--完整版
一、列表页 var configs = { domains: ["fang.com"], scanUrls: [ "http://office.fang.com/shou/house/", "http://sh.office.fang.com/shou/house/", "http://tj.office.fang.com/shou/house/", "http://cq.office.fang.com/shou/house/", "http://hf.office.fang.com/shou/house/", "http://nb.office.fang.com/shou/house/", "http://hz.office.fang.com/shou/house/", "http://gz.office.fang.com/shou/house/", "http://sz.office.fang.com/shou/house/", "http://dg.office.fang.com/shou/house/", "http://nn.office.fang.com/shou/house/", "http://hn.office.fang.com/shou/house/", "http://zz.office.fang.com/shou/house/", "http://cd.office.fang.com/shou/house/", "http://wuhan.office.fang.com/shou/house/", "http://cs.office.fang.com/shou/house/", "http://sjz.office.fang.com/shou/house/", "http://xian.office.fang.com/shou/house/", "http://nanjing.office.fang.com/shou/house/", "http://suzhou.office.fang.com/shou/house/", "http://wuxi.office.fang.com/shou/house/", "http://cz.office.fang.com/shou/house/", "http://jn.office.fang.com/shou/house/", "http://qd.office.fang.com/shou/house/", "http://nc.office.fang.com/shou/house/", "http://changchun.office.fang.com/shou/house/", "http://dl.office.fang.com/shou/house/" ], // scanUrls: ["https://sh.office.fang.com/shou/house/"],
用户2337871
2019-12-20
5560
MySQ--语句大全
#----综合使用 书写顺序 select distinct * from '表名' where '限制条件' group by '分组依据' having '过滤条件' order by limit '展示条数' 执行顺序 from -- 查询 where -- 限制条件 group by -- 分组 having -- 过滤条件 order by -- 排序 limit -- 展示条数 distinct -- 去重 select -- 查询的结果 正则:select * from emp where name regexp '^j.*(n|y)$'; 集合查询:max 、min 、avg 、sum 、count 、group_concat 。 内连接:inner join 左连接:left join 右连接:right join 全连接: 左连接 union 右连接 replace 替换
用户2337871
2019-12-16
1.7K0
机器视觉与Tesseract介绍
1.可以通过 apt-get 安装:命令:sudo apt-get install tesseract-ocr
用户2337871
2019-07-19
6980
scrapy框架的介绍
Scrapy Engine(引擎): 负责Spider、ItemPipeline、Downloader、Scheduler中间的通讯,信号、数据传递等。
用户2337871
2019-07-19
5110
登录的装饰器
def login_decorator(func): ''' 这个函数是一个登录验证的装饰器,它还包含了对ajax登录的验证 :param func: func是对谁去装饰,这个参数是被装饰的一个函数 :return: 装饰器装饰过后,返回的一个新功能函数 ''' def login_handler(request,*args,**kwargs): if request.user.is_authenticated(): return func(request,*args,**kwargs) else: if request.is_ajax():#这个方法可以判断当前的请求是不是ajax请求 return JsonResponse({'status':'nologin'}) url = request.get_full_path() # request.get_full_path()这个方法可以获取全的路径,包含协议和ip、get请求参数 #request.path它获取的只是路径部分,不包含协议和ip也不包含get请求参数 ret = redirect(reverse('users:user_login')) ret.set_cookie('url',url) return ret
用户2337871
2019-07-19
4560
没有更多了
社区活动
Python精品学习库
代码在线跑,知识轻松学
【玩转EdgeOne】征文进行中
限时免费体验,发文即有奖~
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·干货材料·成员作品·最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档