这是我的代码 r = requests.get(base_url)soup = bs4.BeautifulSoup(r.text,'html.parser') deet = soup.find('h3', text = headers[iteri]) # Search for div tags of class 'entry-content content'
for para in deet.find_next_si
我正在练习从一个电子商务网页上抓取网页。我已经将容器(包含每个产品的单元)的类名标识为'c3e8SH'。然后,我使用以下代码来抓取该网页中的所有容器。之后,我使用len(containers)检查了网页中容器的数量。from urllib.request import urlopen as uReq
from bs4 im