首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >如何在python中并行抓取多个html页面?

如何在python中并行抓取多个html页面?
EN

Stack Overflow用户
提问于 2017-05-29 22:57:51
回答 3查看 2.4K关注 0票数 2

我正在用Django web框架用Python制作一个网络抓取应用程序。我需要用漂亮的汤库抓取多个查询。下面是我写的代码的快照:

代码语言:javascript
运行
复制
for url in websites:
    r = requests.get(url)
    soup = BeautifulSoup(r.content)
    links = soup.find_all("a", {"class":"dev-link"})

实际上,网页的抓取是按顺序进行的,我想以并行的方式运行它。我对Python中的线程化不是很了解。谁能告诉我,我怎样才能并行抓取?任何帮助都将不胜感激。

EN

回答 3

Stack Overflow用户

发布于 2017-05-29 23:08:55

尝试此解决方案。

代码语言:javascript
运行
复制
import threading

def fetch_links(url):
    r = requests.get(url)
    soup = BeautifulSoup(r.content)
    return soup.find_all("a", {"class": "dev-link"})

threads = [threading.Thread(target=fetch_links, args=(url,))
           for url in websites]

for t in thread:
    t.start()

通过requests.get()下载网页内容是一种阻塞操作,Python线程化实际上可以提高性能。

票数 1
EN

Stack Overflow用户

发布于 2017-05-29 23:09:40

如果你想使用多线程,

代码语言:javascript
运行
复制
import threading
import requests
from bs4 import BeautifulSoup

class Scraper(threading.Thread):
    def __init__(self, threadId, name, url):
        threading.Thread.__init__(self)
        self.name = name
        self.id = threadId
        self.url = url

    def run(self):
        r = requests.get(self.url)
        soup = BeautifulSoup(r.content, 'html.parser')
        links = soup.find_all("a")
        return links
#list the websites in below list
websites = []
i = 1
for url in websites:
    thread = Scraper(i, "thread"+str(i), url)
    res = thread.run()
    # print res

这可能会有帮助

票数 1
EN

Stack Overflow用户

发布于 2017-05-29 23:29:53

当涉及到python和scraping时,scrapy可能是最佳选择。

scrapy使用twisted mertix库来实现并行性,因此您不必担心线程和python GIL

如果您必须使用漂亮的must,请查看this library

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/44245451

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档