我正在尝试为网络爬虫写一段python代码。我想检查我要抓取的页面是否是HTML页面,而不是像.pdf/.doc/.docx等那样的页面。我不想用扩展.html来检查它,因为asp、aspx或像http://bing.com/travel/这样的页面不会显式地.html扩展,但它们是.html页面。在python中有什么好的方法吗?
发布于 2013-09-19 06:18:21
这将仅从服务器获取标头:
import urllib2
url = 'http://www.kernel.org/pub/linux/kernel/v3.0/testing/linux-3.7-rc6.tar.bz2'
req = urllib2.Request(url)
req.get_method = lambda: 'HEAD'
response = urllib2.urlopen(req)
content_type = response.headers.getheader('Content-Type')
print(content_type)
打印
application/x-bzip2
从中你可以得出结论,这不是HTML。你可以使用
'html' in content_type
以编程方式测试内容是否为HTML (或可能是XHTML)。如果您想更确定内容是HTML语言,可以下载内容并尝试使用lxml或BeautifulSoup等HTML语言解析器解析它。
注意不要像这样使用requests.get
:
import requests
r = requests.get(url)
print(r.headers['content-type'])
这需要很长时间,我的网络监视器显示持续的负载,这让我相信这是在下载整个文件,而不仅仅是头文件。
另一方面,
import requests
r = requests.head(url)
print(r.headers['content-type'])
仅获取标头。
发布于 2013-09-19 06:05:04
不要为标准库向您抛出的东西而烦恼,而是尝试requests。
>>> import requests
>>> r = requests.get("http://www.google.com")
>>> r.headers['content-type']
'text/html; charset=ISO-8859-1'
https://stackoverflow.com/questions/18883086
复制相似问题