首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

BeautifulSoup find_all(text=True)不打印任何内容?

BeautifulSoup是一个用于解析HTML和XML文档的Python库。其中的find_all方法用于查找文档中符合指定条件的所有元素,并返回一个包含这些元素的列表。

在给定的问答内容中,使用了BeautifulSoup的find_all方法,并传入了参数text=True。这个参数的作用是指定只查找包含文本内容的元素。

如果使用BeautifulSoup的find_all(text=True)方法没有打印任何内容,可能有以下几个原因:

  1. 没有找到符合条件的元素:可能文档中没有包含符合条件的元素,或者条件设置不正确。可以检查一下文档的结构和内容,确认是否存在符合条件的元素。
  2. 元素的文本内容为空:有些元素可能存在,但是它们的文本内容为空。在使用find_all(text=True)时,只会返回非空的文本内容,所以如果元素的文本内容为空,就不会打印任何内容。
  3. 元素被注释掉了:有时候,文档中的元素可能被注释掉了,注释内容不会被当作文本内容处理。在使用find_all(text=True)时,注释内容也不会被返回,所以可能导致没有打印任何内容。

综上所述,如果使用BeautifulSoup的find_all(text=True)方法没有打印任何内容,可以检查一下文档的结构和内容,确认是否存在符合条件的元素,并且这些元素的文本内容不为空且没有被注释掉。

页面内容是否对你有帮助?
有帮助
没帮助

相关·内容

Python爬虫库-Beautiful Soup的使用

BeautifulSoup 对象初始化 将一段文档传入 BeautifulSoup 的构造方法,就能得到一个文档对象。...也可以通过文件句柄来初始化,可先将HTML的源码保存到本地同级目录 reo.html,然后将文件名作为参数: soup = BeautifulSoup(open('reo.html')) 可以打印 soup...指定名字的属性参数值可以包括:字符串、正则表达式、列表、True/False。 True/False 是否存在指定的属性。...搜索包含 Reeoo 字符串的标签: soup.find_all(string=re.compile("Reeoo")) 打印搜索结果可看到包含3个元素,分别是对应标签里的内容,具体见下图所示 ?...limit 参数 find_all() 返回的是整个文档的搜索结果,如果文档内容较多则搜索过程耗时过长,加上 limit 限制,当结果到达 limit 值时停止搜索并返回结果。

1.6K30

Python爬虫库-BeautifulSoup的使用

BeautifulSoup 对象初始化 将一段文档传入 BeautifulSoup 的构造方法,就能得到一个文档对象。...也可以通过文件句柄来初始化,可先将HTML的源码保存到本地同级目录 reo.html,然后将文件名作为参数: soup = BeautifulSoup(open('reo.html')) 可以打印 soup...指定名字的属性参数值可以包括:字符串、正则表达式、列表、True/False。 True/False 是否存在指定的属性。...搜索包含 Reeoo 字符串的标签: soup.find_all(string=re.compile("Reeoo")) 打印搜索结果可看到包含3个元素,分别是对应标签里的内容,具体见下图所示 ?...limit 参数 find_all() 返回的是整个文档的搜索结果,如果文档内容较多则搜索过程耗时过长,加上 limit 限制,当结果到达 limit 值时停止搜索并返回结果。

1.8K30

Python爬虫库-BeautifulSoup的使用

也可以通过文件句柄来初始化,可先将HTML的源码保存到本地同级目录 reo.html,然后将文件名作为参数: soup = BeautifulSoup(open('reo.html')) 可以打印 soup...指定名字的属性参数值可以包括:字符串、正则表达式、列表、True/False。 True/False 是否存在指定的属性。...搜索包含 Reeoo 字符串的标签: soup.find_all(string=re.compile("Reeoo")) 打印搜索结果可看到包含3个元素,分别是对应标签里的内容,具体见下图所示 ?...limit 参数 find_all() 返回的是整个文档的搜索结果,如果文档内容较多则搜索过程耗时过长,加上 limit 限制,当结果到达 limit 值时停止搜索并返回结果。...*声明:推送内容及图片来源于网络,部分内容会有所改动,版权归原作者所有,如来源信息有误或侵犯权益,请联系我们删除或授权事宜。 - END -

2K00

一文入门BeautifulSoup

提取步骤 使用Beautiful Soup4提取HTML内容,一般要经过以下两步: 处理源代码生成BeautifulSoup对象 使用find_all()或者find()来查找内容 快速入门 使用的是\...主要是有两种方法: find_all() find() 前者用的比较更为广泛 find_all() find_all(name, attrs, recursive, text, **kwargs) find_all...传入True True 可以匹配任何值,下面代码查找到所有的tag,但是不会返回字符串节点 ? 传入方法 如果没有合适过滤器,那么还可以定义一个方法,方法只接受一个元素参数。...text 通过text参数来搜索文档中的字符串内容。与name参数的可选值相同:字符串、正则表达式、列表、True ?...注意点:select 方法返回的都是列表形式的内容,可以遍历获取,通过get_text方法获取具体内容 ?

3.9K00

python爬虫:BeautifulSoup库基础及一般元素提取方法

://python123.io/ws/demo.html' r = requests.get(url) demo = r.text # 服务器返回响应 soup = BeautifulSoup(demo...()) # 使用prettify()格式化显示输出 得到一个BeautifulSoup对象后, 一般通过BeautifulSoup类的基本元素来提取html中的内容 2.提取html中的信息 demo...介绍一下find_all()方法 常用通过find_all()方法来查找标签元素: .find_all(name, attrs, recursive, string, **kwargs) 返回一个列表类型...>…中字符串区域的检索字符串 (1) print('所有a标签的内容:', soup.find_all('a')) # 使用find_all()方法通过标签名称查找a标签,返回的是一个列表类型 print...# 如果给出的标签名称是True,则找到所有标签 print('标签名称:', i.name) # 打印标签名称 (4) print('href属性为http..的a标签元素是:', soup.find_all

76530

数据获取:​网页解析之BeautifulSoup

find_all() 说到搜索,最常使用的肯定是BeautifulSoupfind_all()方法,它会搜索当前 tag 的所有 tag 子孙节点,并判断每个节点是否符合过滤器的条件。...find_all()方法的完整参数为find_all(name, attrs, recursive, text,limit, **kwargs): name:标签名称的过滤,支持正则 attrs:标签的属性条件的过滤...,支持正则; recursive:bool选项,如果为Truefind_all()将遍历所有节点,否则只有子节点,默认为Truetext:标签中的文本过滤,; limit:搜索限制过滤,如果不为空...如果是获取标签的文本,直接使用get_text()方法,可以获取到标签的文本内容。...]) #打印标签文本内容 print(links[0].get_text()) 代码结果: 第一个链接 link1.html 不管是使用lxml还是Beautiful Soup,多数结果都是获取文本内容或者是标签的属性值

17930

Python爬虫学习笔记之爬虫基础库

""" from bs4 import BeautifulSoup soup = BeautifulSoup(html_doc, 'html.parser') 通过这段例子来演示怎样从文档的一段内容找到另一段内容...回到顶部 beautifulsoup的搜索文档树 find_all find_all( name , attrs , recursive , string , **kwargs ) find_all()...True 可以匹配任何值,下面代码查找到所有的tag,但是不会返回字符串节点 for tag in soup.find_all(True): print(tag.name) '''...] text 参数 通过 text 参数可以搜搜文档中的字符串内容.与 name 参数的可选值一样, text 参数接受 字符串 , 正则表达式 , 列表, True import re...回到顶部 beautifulsoup的css选择器 我们在写 CSS 时,标签名不加任何修饰,类名前加点,id名前加 #,在这里我们也可以利用类似的方法来筛选元素,用到的方法是 soup.select(

1.8K20

第一个爬虫——豆瓣新书信息爬取

二、解析数据 #解析数据 soup = BeautifulSoup(data.text, 'lxml') #暂不输出print(soup) 在这里将网页数据data转化为了 BeautifulSoup...一般用find()找到BeautifulSoup对象内任何第一个标签入口。 ''' 最后一句将两个图书信息快,存储到一个列表内,方便后续统一操作。...)方法:用来获取标签里面的文本内容,在括号里面加"strip=True"可以去除文本前后多余的空格 titles.append(title) #print(title) #评价星级...rating = book.find('p',{'class':'rating'}).get_text(strip=True) #rating = rating.replace('\n...仔细分析检查元素中的源代码和对应的网页元素,可轻松找到网页显示内容的一行、两行代码。我们就用 find 和 find_all 去对这一两行进行操作。 ? ? ? ? ? ?

75530

BeautifulSoup使用

通过点取属性的方式只能获得当前名字的第一个tag,如果想要得到所有的标签,或是通过名字得到比一个tag更多的内容的时候,就需要用到 Searching the tree 中描述的方法,比如: find_all...很简单,用 .string 即可,例如print soup.p.string #The Dormouse's story BeautifulSoup BeautifulSoup 对象表示的是一个文档的全部内容...print soup.a.string 搜索文档树 find_all( name , attrs , recursive , text , **kwargs ) find_all() 方法搜索当前...] select 我们在写 CSS 时,标签名不加任何修饰,类名前加点,id名前加 #,在这里我们也可以利用类似的方法来筛选元素,用到的方法是 soup.select(),select 方法返回的结果都是列表形式...,可以遍历形式输出,然后用 get_text() 方法来获取它的内容

94030

四、网页信息存储和 BeautifulSoup之find用法

网页信息存储和 BeautifulSoup之find用法 前言 一、BeautifulSoup之find用法 find find_all 具体使用示例 二、网页信息存储 1.基础知识...---- 一、BeautifulSoup之find用法 BeautifulSoup有find 和find_all的方法。但在使用之前一定要先建立一个beautifulsoup对象。...参数 find_all 返回所有匹配到的结果,区别于find(find只返回查找到的第一个结果) 语法: find_all(name, attrs, recursive, text, limit, *...也就是说,新的内容将会被写入到已有内容之后。如果该文件不存在,创建新文件进行写入。 r+ Read+Write打开一个文件用于读写。文件指针将会放在文件的开头。...(req.text,'lxml')#使用BeautifulSoup的lxml解析网页 description=soup.find('span',class_="absolute").text.strip

40910

二、爬虫基础库

""" from bs4 import BeautifulSoup soup = BeautifulSoup(html_doc, 'html.parser') 通过这段例子来演示怎样从文档的一段内容找到另一段内容...beautifulsoup的搜索文档树 find_all 1 find_all( name , attrs , recursive , string , **kwargs ) find_all() 方法搜索当前...True 可以匹配任何值,下面代码查找到所有的tag,但是不会返回字符串节点 for tag in soup.find_all(True): print(tag.name) '''...] text 参数 通过 text 参数可以搜搜文档中的字符串内容.与 name 参数的可选值一样, text 参数接受 字符串 , 正则表达式 , 列表, True import re...beautifulsoup的css选择器 我们在写 CSS 时,标签名不加任何修饰,类名前加点,id名前加 #,在这里我们也可以利用类似的方法来筛选元素,用到的方法是 soup.select(),返回类型是

1.7K90

爬虫必备Beautiful Soup包使用详解

find_all()——获取所有符合条件的内容 Beautiful Soup提供了一个find_all()方法,该方法可以获取所有符合条件的内容。...语法格式如下: find_all(name = None, attrs = {}, recursive = Truetext = None, limit = None, **kwargs) • 1....(text='零基础学Python'))         # 打印指定字符串所获取的内容 print('指定正则表达式对象所获取的内容如下:') print(soup.find_all(text=re.compile...(text='零基础学Python'))         # 打印指定字符串所获取的内容 print('指定正则表达式对象所获取的内容如下:') print(soup.find_all(text=re.compile...attrs={'value':'4'}))       # 打印第一个value为4的节点内容 print(soup.find(text=re.compile('Python'))) # 打印第一个文本中包含

2.5K10

Python爬虫(三):BeautifulSoup

class="tl"> Hello BeautifulSoup ''' 我们前面看的例子中 tag 中的字符串内容都不是注释内容,现在将字符串内容换成注释内容,我们来看一下效果:...1)find_all() find_all() 方法搜索当前 tag 的所有 tag 子节点,方法详细如下:find_all(name=None, attrs={}, recursive=True, text...参数可以搜搜文档中的字符串内容,它接受字符串、正则表达式、列表、True,示例如下: from bs4 import BeautifulSoup import re soup = BeautifulSoup...=['head','title'])) #True soup.find_all(text=True) limit 参数与 SQL 中的 limit 关键字类似,用来限制搜索的数据,示例如下: soup...'})) 2)find() 方法详细如下:find(name=None, attrs={}, recursive=True, text=None,**kwargs),我们可以看出除了少了 limit 参数

1.5K20
领券