首页
学习
活动
专区
工具
TVP
发布
社区首页 >问答首页 >python漂亮的汤在div标签之间没有数据检索

python漂亮的汤在div标签之间没有数据检索
EN

Stack Overflow用户
提问于 2018-12-04 23:16:16
回答 2查看 607关注 0票数 2

我一直试图在网站"http://www.jps.go.cr/“上使用Beautifulsoup获取数据,但是当我获取数据时,标签之间的所有信息都丢失了。我可以确认数据在那里,检查网站,但是一旦我运行代码,它就不显示了。

代码如下:

代码语言:javascript
复制
from urllib.request import Request, urlopen
from bs4 import BeautifulSoup
url="http://www.jps.go.cr/productos/loteria-nacional"
req = Request(url,headers={'User-Agent': 'Mozilla/5.0'})
webpage = urlopen(req).read()
soup=BeautifulSoup(c,"html.parser")
all=soup.find_all("div",{"class":"detail_ultimoSorteo loteria"})
print(all)

我将感谢任何帮助,因为我驾驶疯狂,其他网站的工作。

提前谢谢。

EN

回答 2

Stack Overflow用户

回答已采纳

发布于 2018-12-04 23:27:56

页面加载速度很慢,需要使用selenium这样的方法,以便让您的内容有足够的时间可用。

代码语言:javascript
复制
from selenium import webdriver
url = 'http://www.jps.go.cr/'
driver = webdriver.Chrome()
driver.get(url)
print(driver.find_element_by_css_selector('.detail_ultimoSorteo.loteria').text)

输出:

票数 1
EN

Stack Overflow用户

发布于 2018-12-05 03:01:11

这将在你的情况下工作,只是为你张贴(我知道PhantomJS已经被弃用,你可以使用Chrome驱动程序)。

代码语言:javascript
复制
from bs4 import BeautifulSoup
from selenium import webdriver

url="http://www.jps.go.cr/productos/loteria-nacional"

browser = webdriver.PhantomJS()
browser.get(url)
html = browser.page_source

soup = BeautifulSoup(html, 'html.parser')

all=soup.find_all("div",{"class":"detail_ultimoSorteo"})
print(all)

输出输出

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/53616021

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档