下面的例子里我们访问了一个不存在的域名: # urllib2_urlerror.py import urllib2 requset = urllib2.Request('http://www.ajkfhafwjqh.com...HTTPError HTTPError是URLError的子类,我们发出一个请求时,服务器上都会对应一个response应答对象,其中它包含一个数字"响应状态码"。...如果urlopen或opener.open不能处理的,会产生一个HTTPError,对应相应的状态码,HTTP状态码表示HTTP协议所返回的响应的状态。...改进版 由于HTTPError的父类是URLError,所以父类的异常应当写到子类异常的后面,所以上述的代码可以这么改写: # urllib2_botherror.py import urllib2...HTTP响应状态码参考: 1xx:信息 100 Continue 服务器仅接收到部分请求,但是一旦服务器并没有拒绝该请求,客户端应该继续发送其余的请求。
#urllib2_urlerror.py import urllib2 request = urllib2.Request("http://www.sdfsdfsf.com") try: urllib2...HTTPError HTTPError是URLError的子类,我们发出一个请求时,服务器都会对应一个response应答对象,其中它包含一个数字"响应状态码" 如果urlopen或opener.open...不能处理,会发出一个HTTPError,对应相应的状态码,HTTP状态码表示HTTP协议所返回的响应的状态。...import urllib2 request = urllib2.Request("http://blog.baidu.com/itcast") try: urllib2.urlopen...HTTP响应状态码参考: 1xx:信息 100 Continue 服务器仅接收到部分请求,但是一旦服务器并没有拒绝该请求,客户端应该继续发送其余的请求。
HTTP 状态代码表示什么意思?...一些常见的状态代码为: 200 - 服务器成功返回网页 404 - 请求的网页不存在 503 - 服务器暂时不可用 下面提供 HTTP 状态代码的完整列表。 点击链接可了解详情。...您也可以访问HTTP状态代码上的 W3C页获取更多信息。 1xx 临时响应 表示临时响应并需要请求者继续执行操作的状态代码。 状态码 代表意义 详解 100 继续 请求者应当继续提出请求。...通常,这只是暂时状态。 504 网关超时 服务器作为网关或代理,但是没有及时从上游服务器收到请求。 505 HTTP版本不受支持 服务器不支持请求中所用的HTTP协议版本。...文章记录资料参考:HTTP 状态代码表示什么意思? 。
大家好,我是架构君,一个会写代码吟诗的架构师。今天说一说urllib与urllib2的学习总结(python2.7.X),希望能够帮助大家进步!!! ...此代码由Java架构师必看网-架构君整理 import urllib2 req = urllib2.Request('http://python.org/') response = urllib2.urlopen...getcode() — 返回响应的HTTP状态代码,运行下面代码可以得到code=200,具体各个code代表的意思请参见文后附录。...,因为HTTPError是URLError的子类,所以应该把捕获HTTPError放在URLError前面,如不然URLError也会捕获一个HTTPError错误,代码参考如下: 1 import...的子类,我们可以把代码改进如下: 1 import urllib2 2 req = urllib2.Request('http://www.python.org/fish.html') 3 try
urllib.request包含了urllib2的大部分功能。 首先,您需要将urllib2导入的代码改为导入urllib.request模块。...在某个实际应用场景中,我们需要使用Python来发送HTTP请求,获取网页内容。在Python 2中,我们可以使用urllib2库来实现这个功能。...请注意,这只是一个简单的示例,实际应用中可能还需要处理异常情况、处理HTTP响应的状态码和头部信息等。...此外,您还可以根据具体需求使用其他第三方库(如requests)来实现更多高级的HTTP请求处理功能。urllib2是Python标准库中的一个模块,用于处理HTTP请求和响应。...urllib2提供了一些异常类,例如URLError和HTTPError。
目录: Python网络爬虫(一)- 入门基础 Python网络爬虫(二)- urllib爬虫案例 Python网络爬虫(三)- 爬虫进阶 Python网络爬虫(四)- XPath Python网络爬虫...urllib2 的异常错误处理 URLError import urllib2 requset = urllib2.Request('http://www.ajkfhafwjqh.com') try...是URLError的子类,我们发出一个请求时,服务器上都会对应一个response应答对象,其中它包含一个数字"响应状态码"。...如果urlopen或opener.open不能处理的,会产生一个HTTPError,对应相应的状态码,HTTP状态码表示HTTP协议所返回的响应的状态。...2.具体代码操作 代码操作(一) 自定义数据请求方式 # -*- coding:utf-8 -*- import urllib2,urllib #创建一个HTPP请求对象 http_handler =
所以我们今天的第一段代码就是展示如何构造这个User-Agent的请求头: import urllib import urllib2 url = 'http://originalix.github.io...,分别对应着错误消息和错误代码。...我们可以用try/except语句来捕获异常,例如: # URLError import urllib2 req = urllib2.Request = ('http://www.lixxxxxxxx.com...HTTPError,每个来自服务器的HTTP应答都会携带着一个包含数值的状态码,例如我们耳熟能详的200、404(页面丢失)、403(请求被禁止)等等。...# 同时处理HTTPError和URLError import urllib2 url = 'http://www.lixxxxxxxx.com' req = urllib2.Request(url
下面继续学习python的web模块 --- urllib2,一个源于urllib又高于urllib的模块。...1 urllib2 简介 urllib2是python自带的一个访问网页及本地文件的库。 ...附代码: >>> import urllib2 >>> res=urllib2.urlopen('http://www.51cto.com') >>>res.read() 。。。。。。...附代码: 1 向网页提交数据: >>> import urllib >>> import urllib2 >>> url='http://www.51cto.com' >>> info={'name.../usr/bin/env python # -*- coding: utf-8 -*- import urllib2 #多写了一个 m (comm) req = urllib2.Request('http
1.URLError 首先解释下URLError可能产生的原因: 网络无连接,即本机无法上网 连接不到特定的服务器 服务器不存在 在代码中,我们需要用try-except语句来包围并捕获相应的异常。...下面是一个例子,先感受下它的风骚 1234567 import urllib2 requset = urllib2.Request('http://www.xxxxx.com')try: urllib2...其他不能处理的,urlopen会产生一个HTTPError,对应相应的状态吗,HTTP状态码表示HTTP协议所返回的响应的状态。下面将状态码归结如下: 100:继续 客户端应当继续发送请求。...处理方式:丢弃 300:该状态码不被HTTP/1.0的应用程序直接使用, 只是作为3XX类型回应的默认解释。存在多个可用的被请求资源。...另外还可以加入 hasattr属性提前对属性进行判断,代码改写如下 123456789101112 import urllib2 req = urllib2.Request('http://blog.csdn.net
因为工作需要,之前用python写了一些批量校验url有效性的小脚本,但并不全面,健壮性较差,现把之整理一下,代码如下: #!.../usr/bin/python # -*- coding:utf-8 -*- import urllib2 from urllib2 import URLError result_url=[] count...print "scanning over,total",count,"; did not response 200:",not_200 f.close() img_not_200.close() 对这段代码解析如下...这个时候,就需要通过返回的错误类型来判断错误到底是url错误还是http错误。上面的程序是通过错误类型所拥有的属性来判断的。...所要注意的是,因为HTTPError是URLError的子类,所以必须在第一个except中指定捕获HTTPError,第二个except中指定捕获URLError,否则的话,你懂的。。
参考链接: 在Python中将文本转换为语音 Python实现文字转语音 前言创建应用获取应用的API Key和Secret Key编写python代码替换API Key和Secret Key生成的音频文件...获取应用的API Key和Secret Key 编写python代码 # coding=utf-8 import sys import json # 保证兼容python2以及python3 IS_PY3... from urllib import quote_plus from urllib2 import urlopen from urllib2 import Request ...from urllib2 import URLError from urllib import urlencode API_KEY = 'nu9r2plGFi3s1ugayDPSM6Mk' SECRET_KEY...API_KEY 和SECRET_KEY,替换成自己应用中的API Key和Secret Key,运行代码。
通过python 的 urllib2 模块,可以轻易的去模拟用户访问网页的行为。 这里将自己的学习过程简单的记录下来。...Raises a URLError (subclass of IOError); for HTTP errors, raises an HTTPError, which can also be...毕竟一个http 的请求首先要有request,然后才能存在response。这样在编程的思路上就比较明了了。代码阅读起来也很清晰。...1、设置代理 import urllib2 proxy_handler = urllib2.ProxyHandler({"http" : 'http://11.11.11.11:8080'}) opener...和 HTTPError HTTPError 是 URLError 的一个子类 URLError HTTPError(URLError, urllib.addinfourl
程序清单:demo01.py # -*- coding:utf-8 -*- # 添加指定编码的注释,表示当前源代码支持中文操作 import urllib2 # 引入需要的模块 response =...()) # 打印展示获取到的数据 运行程序 python2 demo01.py 在控制台中,就可以看到获取到了淘宝网网页的源代码数据 <!...会话跟踪之cookie操作 在很多网站上,都使用了基于cookie的会话跟踪技术,如有道在线翻译的操作过程中就是用cookie进行了状态保持的操作; 在进行爬虫操作的过程中,我们会大量的使用到cookie...爬虫异常行为 在进行目标网址的访问和数据采集过程中,由于目标网址拼写、网络阻塞等等各种问题,可能会导致目标网址访问失败的情况,在python爬虫模块中,主要通过URLError类型来规范定义爬虫访问url...地址出现的问题,同时提供了继承自URLError的HTTPError类型专门针对HTTP请求进行的异常行为的处理 但是切记,一切服务器返回的异常行为,都是服务器内部直接出现错误行为并且返回错误状态码导致的异常行为
附代码: >>> import urllib2 >>> res=urllib2.urlopen('http://www.51cto.com') >>>res.read() 。。。。。。...附代码: 1 向网页提交数据: >>> import urllib >>> import urllib2 >>> url='http://www.51cto.com' >>> info={'name...urllib2.URLError: urllib2.HTTPError: HTTPerror是HTTP URL在特别的情况下被抛出的URLError的一个子类。 ...状态码。...状态码。
源码: import requests import time import sys from playsound import _playsoundWin # 保证兼容python2以及python3...from urllib import quote_plus from urllib2 import urlopen from urllib2 import Request...from urllib2 import URLError from urllib import urlencode def hechng(res): # 替换你的 API_KEY(百度开放平台...as err: print('token http response http code : ' + str(err.code)) result_str...as err: print('http response http code : ' + str(err.code)) result_str = err.read
robots.txt解析模块 相比Python2的变化 在Python2.x中,这个库叫做urllib2,在Python3.x里,urllib2改名为urllib,被分成了三个子模块: urllib.request...urllib.parse urllib.error Python2 import urllib2 response = urllib.urlopen('http://www.baidu.com') python3...) # read()方法是读取响应体的内容 # decode('utf-8') 表示以'utf-8'格式解码 # encoding='utf-8' 表示以'utf-8'格式编码 输出内容为百度首页的源代码...('https://www.python.org') print(response.status) # 输出状态码print(response.getheaders()) print(response.getheader...://httpbin.org/post"} cookie # cookie是用来保存登陆状态的 import http.cookiejar, urllib.request cookie = http.cookiejar.CookieJar
1.1 介绍 通过过滤和分析HTML代码,实现对文件、图片等资源的获取,一般用到: urllib和urllib2模块 正则表达式(re模块) requests模块 Scrapy框架 urllib库:...1)获取web页面 2)在远程http服务器上验证 3)表单提交(GET和POST) 4)异常处理(urllib2.URLError) 5)非http协议通信(ftp) 获取页面信息: urllib2..../usr/bin/env python import urllib,urllib2 import re def getHtml(url): page = urllib2.urlopen(url).../usr/bin/env python #coding:utf-8 import urllib,urllib2 import re def getPage(page_num=1): url =.../usr/bin/env python #coding:utf-8 import urllib,urllib2 import re import sys def getPage(page_num=1)
Urllib是python内置的HTTP请求库包括以下模块 urllib.request 打开和阅读 URLs urllib.error 包含 urllib.request 抛出的异常 urllib.parse...print('TIME OUT') 响应 响应类型、状态码、响应头 import urllib.request response = urllib.request.urlopen('https://www.python.org...://pythonsite.com/1111.html") except error.URLError as e: print(e.reason) 上述代码访问的是一个不存在的页面,通过捕捉异常...HTTP状态码 urlrs.geturl() 返回请求的URL 参考资料: https://www.cnblogs.com/zhangxinqi/p/9170312.html urllib与urllib2...的学习总结(python2.7.X) Python爬虫入门六之Cookie的使用 urllib module doc urllib2 module doc
云豆贴心提醒,本文阅读时间6分钟 先来说一说HTTP的异常处理问题。 当urlopen不能够处理一个response时,产生urlError。...不过通常的Python APIs异常如ValueError,TypeError等也会同时产生。 HTTPError是urlError的子类,通常在特定HTTP URLs中产生。...有时状态码指出服务器无法完成请求。默认的处理器会为你处理一部分这种应答。 例如:假如response是一个"重定向",需要客户端从别的地址获取文档,urllib2将为你处理。...HTTP状态码表示HTTP协议所返回的响应的状态。 比如客户端向服务器发送请求,如果成功地获得请求的资源,则返回的状态码为200,表示响应成功。 如果请求的资源不存在, 则通常返回404错误。...处理方式:丢弃 300:该状态码不被HTTP/1.0的应用程序直接使用, 只是作为3XX类型回应的默认解释。存在多个可用的被请求资源。
Zabbix API是基于前端http协议实现的,也就是可以通过HTTP请求实现的API。API数据传输采用JSON RPC协议。...API基本步骤 A,连接http://x.x.x.x/api_jsonrpc.php,提供用户名密码,并标示HTTP头部Content-Type":"application/json",HTTP方法为post...B.获取SESSIONID C.通过SESSIONID建立后续的连接 D.提交POST数据,格式为json,里面放对应的方法,获取需要的数据 zabbix api use python的例子,在这个例子中...#导入模块,urllib2是一个模拟浏览器HTTP方法的模块 import json import urllib2 import sys from urllib2 import Request, urlopen...print response #显示主机的个数 print "Number Of Hosts: ", len(response['result']) 将以上代码保存运行
领取专属 10元无门槛券
手把手带您无忧上云