首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

python 抓网页内容分析

用Python语言写搜索引擎蜘蛛的脚本非常简单、轻松。给大家分享两种抓网页内容的方法 一、用urllib2/sgmllib包,将目标网页的所有URL列出。 import urllib2 from sgmllib import SGMLParser class URLLister(SGMLParser):     def reset(self):                                    SGMLParser.reset(self)         self.urls = []     def start_a(self, attrs):                            href = [v for k, v in attrs if k=='href']         if href:             self.urls.extend(href) f = urllib2.urlopen("http://www.baidu.com/") if f.code == 200:     parser = URLLister()     parser.feed(f.read())     f.close()     for url in parser.urls: print url 二、用python调用IE抓取目标网页(Require win32com, pythoncom)的所有图像的url和大小 import win32com.client, pythoncom import time ie = win32com.client.DispatchEx('InternetExplorer.Application.1') ie.Visible = 1 ie.Navigate("http://news.sina.com.cn") while ie.Busy:     time.sleep(0.05) doc = ie.Document for i in doc.p_w_picpaths:     print i.src, i.width, i.height 这种方法可以利用IE本身的Javascript. DHTML的支持,来做自动提交Form,和处理Javascript。 有关样例可以参考http://win32com.de

01

Python读取PDF内容

1,引言 晚上翻看《Python网络数据采集》这本书,看到读取PDF内容的代码,想起来前几天集搜客刚刚发布了一个抓取网页pdf内容的抓取规则,这个规则能够把pdf内容当成html来做网页抓取。神奇之处要归功于Firefox解析PDF的能力,能够把pdf格式转换成html标签,比如,div之类的标签,从而用GooSeeker网页抓取软件像抓普通网页一样抓取结构化内容。 从而产生了一个问题:用Python爬虫的话,能做到什么程度。下面将讲述一个实验过程和源代码。 2,把pdf转换成文本的Python源代码 下面的python源代码,读取pdf文件内容(互联网上的或是本地的),转换成文本,打印出来。这段代码主要用了一个第三方库PDFMiner3K把PDF读成字符串,然后用StringIO转换成文件对象。(源代码下载地址参看文章末尾的GitHub源)

03
领券