首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

我试着从一个网站上抓取一个表格,但是我一直得到一个IndexError,不能前进

在尝试从网站抓取表格时遇到IndexError通常意味着你在访问列表或数组中的某个元素时,该元素的索引超出了有效范围。以下是一些可能的原因和解决方法:

基础概念

  • IndexError: 这是一个常见的Python异常,当试图访问序列(如列表、元组或字符串)中不存在的索引时会发生。

可能的原因

  1. 数据不一致: 网页上的表格结构可能在不同页面或不同时间点发生变化,导致你的代码在某些情况下找不到预期的元素。
  2. 解析错误: 使用的解析库(如BeautifulSoup)可能没有正确解析网页内容。
  3. 索引错误: 在访问列表或数组元素时,使用了错误的索引。

解决方法

  1. 检查网页结构:
    • 使用浏览器的开发者工具查看网页源代码,确保表格结构与你预期的相符。
    • 注意是否有动态加载的内容,可能需要使用Selenium等工具来模拟浏览器行为。
  • 添加错误处理:
    • 在访问列表元素之前,检查索引是否在有效范围内。
  • 调试代码:
    • 打印出抓取到的数据,查看具体是哪一步出现了问题。

示例代码

以下是一个简单的示例,展示如何使用BeautifulSoup抓取表格并处理可能的IndexError

代码语言:txt
复制
import requests
from bs4 import BeautifulSoup

url = 'http://example.com/page-with-table'
response = requests.get(url)
soup = BeautifulSoup(response.content, 'html.parser')

# 假设表格的id是'my-table'
table = soup.find('table', id='my-table')
if table:
    rows = table.find_all('tr')
    for i, row in enumerate(rows):
        try:
            # 假设每行有三个单元格
            cells = row.find_all('td')
            if len(cells) >= 3:
                cell1 = cells[0].text.strip()
                cell2 = cells[1].text.strip()
                cell3 = cells[2].text.strip()
                print(f"Row {i}: {cell1}, {cell2}, {cell3}")
            else:
                print(f"Row {i} has fewer than 3 cells")
        except IndexError as e:
            print(f"Error processing row {i}: {e}")
else:
    print("Table not found")

应用场景

  • 数据抓取: 从网站抓取数据用于数据分析、报告生成等。
  • 自动化测试: 验证网页内容的正确性和一致性。

优势

  • 自动化: 可以节省大量手动操作的时间。
  • 准确性: 程序可以精确地重复执行相同的任务,减少人为错误。

注意事项

  • 合法性: 确保你的抓取行为符合网站的robots.txt文件和相关法律法规。
  • 频率控制: 避免频繁请求,以免对目标网站造成负担。

通过以上方法,你应该能够更好地理解和解决在抓取网页表格时遇到的IndexError问题。

相关搜索:我一直得到一个无效的语法,但是我找不到它我试着用pygame做一个狂野的西部游戏,但是我不能让射击功能工作。我正在尝试为我的网站运行一个url文件,但是我一直在powershell中得到一个错误我不能使用python网络抓取一个表格的tr标签我试着用漂亮的汤抓取一个表格,结果只有一行表格显示为输出我正在尝试用python制作一个弧形图,但是我不能得到高度均匀的图。我试着训练一个基于MobilenetV2的图像分类器,但是loss不能收敛,我不确定我是否正确使用tensorflow当我尝试通过网络抓取一个表格时,为什么我在矩阵中得到错误?我正在试着做一个计算器,但是我一直收到错误(C3861 'add':没有找到标识符)我得到了一个有效的数组,但是我的代码不能显示多维数组的每一行我试着做了一个密码系统。但是我不能从用户那里获得入口,有人能解释一下为什么吗?我可以通过迭代所有的值来打印出一个数组的每个元素,但是不能得到一个元素[PHP]?我从一个朋友那里得到了一个三重奏输入函数,它正在尝试使用trio.lowleve.FdStream,但是我找不到它我用JavaScript做了一个时钟类,但是它在导入的时候不能正常工作。我只能得到秒数,间隔似乎也不起作用Python stat_env:我一直得到一个TypeError:'decimal.Decimal‘对象不能被解释为整数我正在将一个对象转换成这个数组,但是不能得到预期的数组,它将由数组中的键和值组成,我哪里错了?在刀片模板javaScript拉威尔我有一个图像滑块,在我的网站上工作。但是,当我把确切的代码放在刀片式服务器上时,就不能工作了使用DataTables时,我从一个应用程序接口中获取HTML字符串,但是表格单元格在p标记中显示"<p>Hello</p>“,而不仅仅是"Hello”。做什么?
相关搜索:
页面内容是否对你有帮助?
有帮助
没帮助

相关·内容

程序员必知之SEO

Google 的抓取过程是根据网页网址的列表进行的,该列表是在之前进行的抓取过程中形成的,且随着网站管理员所提供的站点地图数据不断进行扩充。...SEO基础知识 确保网站是可以被索引的 一些常见的页面不能被访问的原因 隐藏在需要提交的表格中的链接 不能解析的JavaScript脚本中的链接 Flash、Java和其他插件中的链接 PowerPoint...那么开始想出一些策略来增加更多的文字和信息来区分你的网页,因为这样重复的内容是决不可能得到好的排名。 ——待续。 保持更新 谷歌对于一个一直在更新的博客来说会有一个好的排名,当然只是相对的。...更多内容可以参考: Google Fresh Factor 网站速度 谷歌曾表示在他们的算法页面加载速度问题,所以一定要确保你已经调整您的网站,都服从最佳做法,以使事情迅速 过去的一个月里,我试着提高自己的网站的速度...这是不间断营销网站的过程 关于链接的内容有太多,而且当前没有一个好的方法获取链接虽然在我的网站已经有了 25791 个外链,但是还在不断的增加中。

1.3K90

要找房,先用Python做个爬虫看看

当一切完成时,我想做到两件事: 从葡萄牙(我居住的地方)一个主要房地产网站上搜集所有的搜索结果,建立一个数据库 使用数据库执行一些EDA,用来寻找估值偏低的房产 我将要抓取的网站是Sapo(葡萄牙历史最悠久...我将使用Sapo网站上一个简单的搜索结果页面,预先指定一些参数(如区域、价格过滤器、房间数量等)来减少任务时间,或者直接在Lisbon查询整个结果列表。 然后,我们需要使用一个命令来从网站上获得响应。...结果将是一些html代码,然后我们将使用这些代码获取我们的表格所需的元素。在决定从每个搜索结果属性中获取什么之后,我们需要一个for循环来打开每个搜索页面并进行抓取。...让我们试着得到上图看到的价格。我将首先定义first变量,它将是我们的第一个房子(从house_containers变量中获得)的结构。...最后这两个字段不是必须的,但是我希望保留房产和图像的链接,因为我正在考虑为特定房产构建预警系统或跟踪器。也许这是一个新的项目,所以我把它留在这里只是为了示例的多样性。

1.4K30
  • Python带你薅羊毛:手把手教你揪出最优惠航班信息

    程序将会把统计结果发到你的邮箱里,我也建议你把生成的 Excel 表格保存到网盘中(比如 Dropbox),这样你就能方便地在任何地方查阅数据。...我目前还没发现这类出错的机票,不过我想我会成功的! 01 又一个爬虫? 当我第一次开始做网络抓取工作的时候,我对这个方面……并不是太感兴趣。没错,这是真心话。...这个简单而无害的问题,常常能得到别人肯定的答复,偶尔还会收获一两个之前的冒险故事。我想大部分人应该都同意,旅行是体验新文化,拓展自己眼界的好办法。但是,如果问题变成“你喜欢订机票的过程吗?”...如果你发现脚本开始一直碰到验证码,你可以试着手动提交验证,然后重启脚本,也可以等上几个小时再让爬虫访问这个网站,那时候验证码应该就消失了。...,放在指定目录中 每隔 X 小时就重复一遍上面的每一步 通常情况下,每一个 Selenium 项目都是从一个网页驱动框架(webdriver)开始的。

    1.3K20

    必应壁纸,我的第一个 400 Star 开源项目

    说来惭愧,我在 GitHub 开源了很多仓库,但是好好维护下来的没有几个,这一个意外有了 400 Star 的开源项目更是无心之举,已经许久没有更新。好在这个项目也不需要经常的更新。...但是每天去网站下载一张壁纸实在过于麻烦,所以打开控制台分析了下必应网站请求壁纸的接口,写了个自动化脚本每日请求抓取一次,然后放到 GitHub 网站上。...开发 爬虫功能完成之后我利用 GitHub 的 Actions 功能,不需要任何费用就可以进行每日的必应壁纸的抓取,本来这样一个必应壁纸抓取功能就已经完成了,当时因为壁纸抓取后只是一个存档,并不能预览图片内容...Star 数一直稳步增长,真的很稳,很稳,平均每天一个 Star 不到 。...由于我部署在 GitHub 上,默认是国外 IP,因此每次抓取的都是国外必应壁纸,所以会有在 GitHub 仓库看到图片和在国内必应网站上看到的图片不同的问题,断断续续有网友问过这个问题,说优化一直没有优化

    66710

    小科普:数据爬虫究竟是在干啥

    设计方法 如果完全不懂代码编程,那么完成上面的任务,就是手动一个个选择各个城市、进入所有城市医院信息的页面,然后将每家医院的信息复制、粘贴到表格中。...用代码将其中所有医院数据提取出来,我们便完成了对一个城市所有医院信息的抓取数据工作。...拿到完整的城市网址数据,便解决了遗漏城市的问题,我们的抓取所有城市医院数据的任务才算圆满完成。 最终把得到的数据写到 Excel 表格中,大致样子如下: ?...在上面的抓取数据过程中,我们用代码编写的程序,像是一个个蜘蛛(爬虫),在网络上去获取我们想要的数据——也因此,抓取数据又被称为爬虫、爬取数据。...以上,便是一个完整抓取爱尔眼科网站上医院数据的流程了,感受如何? 如果有朋友还不知道爬虫、程序员每天都在干啥,也可以给他科普科普了~ 最后,可能有人疑问:我闲着没事,去下载这些医院数据干嘛?

    75240

    爬虫 (四) 必须掌握的基础概念 (一)

    分析已抓取URL队列中的URL,分析其中的其他URL,并且将URL放入待抓取URL队列,从而进入下一个循环.... ? 搜索引擎如何获取一个新网站的URL: 1....在其他网站上设置新网站外链(尽可能处于搜索引擎爬虫爬取范围) 3. 搜索引擎和DNS解析服务商(如DNSPod等)合作,新网站域名将被迅速抓取。...但是搜索引擎蜘蛛的爬行是被输入了一定的规则的,它需要遵从一些命令或文件的内容,如标注为nofollow的链接,或者是Robots协议。...其中的页面数据与用户浏览器得到的HTML是完全一样的 搜索引擎蜘蛛在抓取页面时,也做一定的重复内容检测,一旦遇到访问权重很低的网站上有大量抄袭、采集或者复制的内容,很可能就不再爬行 第三步:预处理 搜索引擎将爬虫抓取回来的页面...万维网数据形式的丰富和网络技术的不断发展,图片、数据库、音频、视频多媒体等不同数据大量出现,通用搜索引擎对这些文件无能为力,不能很好地发现和获取。

    87431

    python基础 -- 异常处理try的使用及一些思考

    第二天下午以及第三天,完成了一个还算简单的爬虫,只是抓取了一个美国的官网。健壮性比较差~~~ 使用xpath抓取时,有些迷茫。原因是网站做的标签有些混乱。...第四天一直到现在,一直在写另外一个爬虫。这个的处理就有些麻烦,因为不只是国内的官网,还有美国,以及欧洲一些国家的官网。...其他国家的相对好些,一般变化不大,但是国内的额官网一般都会和其他国家的官网差距比较大。对于单品的抓取,使用的类方法,由于国家的不同,需要传递region参数。...然后再根据不同情况进行处理~~~ 其实这两天在抓取的数据,代码已经有现成的了。但是有时官网会改版,这样就会导致xpath无法选取到目的数据,只能重新修改。...之前一直在想,代码重要的不就是能正确运行嘛。现在才发现,能运行是程序最基本的东西,其他还有横多重要的部分! 以下只是其中的一个小部分。需要抓取商品的描述(description)。

    38210

    我做了个数据选品工具,帮你们搜寻护发神器

    (DT君注:Influenster是一个针对互联网购物产品的发现、评分和分享的搜索引擎,用于帮助购物者能找到最佳的产品,本文作者的选品工具就是基于抓取到的该网站数据。)...▍第二步:数据收集 为了获取最新的护发产品信息,我决定抓取Influenster网站上的数据,这个网站上有超过1400万条评论和超过200万种产品供用户选择。...为此我专门去查了这7.7万条评论中最常提到的关键词。 开始时我试着基于洗发水、护发素和发油这三类产品的评论,加上总体的全部评论给出4张词云图,然而,我发现从这4张图之间并不能看出显著的区别。...为制作这个工具,我使用了“词频–反向文档频率”(TF-IDF)这种自然语言处理法,用来反映一个词在语料库中的某个文档中的重要性。...换言之,两个词频向量之间的夹角不能大于90度。此外,当余弦值接近1的时候,表示两个向量之间 (产品)有更高的相似性。 余弦相似度的计算公式如下所示: ?

    61500

    独家 | 手把手教你用Python进行Web抓取(附代码)

    使用代码从网站收集数据,当时对我来说是一个完全陌生的概念,但它是最合理、最容易获取的数据来源之一。经过几次尝试,网络抓取已经成为我的第二天性,也是我几乎每天使用的技能之一。...在本教程中,我将介绍一个简单的例子,说明如何抓取一个网站,我将从Fast Track上收集2018年百强公司的数据: Fast Track: http://www.fasttrack.co.uk/ 使用网络爬虫将此过程自动化...由于数据存储在一个表中,因此只需几行代码就可以直接获取数据。如果您想练习抓取网站,这是一个很好的例子,也是一个好的开始,但请记住,它并不总是那么简单!...再看一下html,对于这个列,有一个 元素只包含公司名称。此列中还有一个链接指向网站上的另一个页面,其中包含有关该公司的更多详细信息。我们将在稍后使用它!...尾语 这是我的第一个教程,如果您有任何问题或意见或者不清楚的地方,请告诉我!

    4.8K20

    python爬虫(一)_爬虫原理和数据抓取

    分析已抓取URL队列中的URL,分析其中的其它URL,并且将URL放入待抓取URL队列,从而进入下一个循环。。。 ?...搜索引擎如何获取一个新网站的URL: 新网站向搜索引擎主动提交网址:(百度:http://zhanzhang.baidu.com/linksubmit/url) 在其他网站上设置一个新网站链接(尽可能处于搜索引擎爬虫爬取范围...) 搜索引擎和DNS解析服务商(如DNSPod等)合作,新网站域名将被迅速抓取 但是搜索引擎蜘蛛的爬行是被输入了一定的规则的,它需要遵从一些命令或文件的内容,如标注为nofollow的链接,或者是Robots...其中的页面数据与用户浏览器得到的HTML是完全一样的。 搜索引擎蜘蛛在抓取页面时,也做一定的重复内容检测,一旦遇到访问权重很低的网站上有大量抄袭、采集或者复制的内容,很可能就不再爬行。...万维网数据形式的丰富和网络技术的不断发展,图片、数据库、音频、视频多媒体等不同数据大量出现,通用搜索引擎对这些文件无能为力,不能很好地发现和获取。

    3.1K60

    Python爬虫爬取美剧网站

    但是,作为一个宅diao的我又怎甘心没剧追呢,所以网上随便查了一下就找到一个能用迅雷下载的美剧下载网站【天天美剧】,各种资源随便下载,最近迷上的BBC的高清纪录片,大自然美得不要不要的。 ?...正好一直在学习Python爬虫,所以今天就心血来潮来写了个爬虫,抓取该网站上所有美剧链接,并保存在文本文档中,想要哪部剧就直接打开复制链接到迅雷就可以下载啦。 ?...其实一开始打算写那种发现一个url,使用requests打开抓取下载链接,从主页开始爬完全站。...但是效果也不是那么理想,有一半左右的链接不能正确抓取,还需继续优化。...还有过程中遇到一个很折磨我的问题是文件名的保存,必须在此抱怨一下,txt文本格式的文件名能有空格,但是不能有斜线、反斜线、括号等。

    1.1K00

    独家 | 手把手教你如何用Python从PDF文件中导出数据(附链接)

    让我们试着从一个国税局W9表单中读取所有的文本。...结尾部分,我们抓取所有的文本,关闭不同的信息处理器,同时打印文本到标准输出(stdout)。 按页提取文本 通常我们并不需要从一个多页文档中抓取所有的文本。你一般会想要处理文档的某些部分。...第一条命令将创建一个HTML文件,而第二条将创建一个XML文件。 最终的结果看上去有点怪,但是它并不太糟糕。XML格式的输出极其冗长,因此我不能将它完整地在这里重现,以下是一小段示例: ?...我找到的最接近的东西是有一个叫minecart的项目宣称可以做到这一点,但是它只在Python 2.7上有效。我没法使其运行于我的PDF样本。...Stack Overflow网站上有关于这个的各种代码,其中一些这样或那样地使用了PyPDF2。但没有一个对我有效。 我的建议是使用一个类似于Poppler 的工具来提取图片。

    5.4K30

    谷歌DeepMind连续深度学习网络PNN,距人类水平AI又进一步

    但是,这一神经网络每次只能学会一个游戏。同样的神经网络不能在两个不同的游戏中来回切换,并表现出人类所拥有的水平。...“我们甚至还不能(一次)学会多种游戏。简单来说,我们希望一个神经网络能学会玩10个不同的 Atari 游戏,这也许是10岁孩子的水平,但是却非常难。...如果你试着一次学会所有的游戏,那么,游戏 Pong 或者 Qubert 的规则可能就会彼此干扰。一次学习一个是可以的,但是就会把此前学会的技能都忘掉。”...此前,Hadsell 和她的团队曾训练了一个单一的栏,来教一个模拟的机器人手臂抓取东西,然后接住从空中掉下了的东西,最后追踪运动物体。...Hadsell解释说:“如果我一直不断地增加栏,并增加旁边的连接,那么就会遇到扩展的问题,我会很快地得到某些结果,但这种结果太大,很难控制,因为参数的增长是指数级的。”

    62430

    手把手教你用 Python 搞定网页爬虫!

    那时候,我对使用代码从网站上获取数据这项技术完全一无所知,它偏偏又是最有逻辑性并且最容易获得的数据来源。在几次尝试之后,网页爬取对我来说就几乎是种本能行为了。...如今,它更成为了我几乎每天都要用到的少数几个技术之一。 在今天的文章中,我将会用几个简单的例子,向大家展示如何爬取一个网站——比如从 Fast Track 上获取 2018 年 100 强企业的信息。...每一行都是在一个 标签里,也就是我们不需要太复杂的代码,只需要一个循环,就能读取到所有的表格数据,并保存到文件里。...如果你试着打印出所有的行,那应该会有 101 行 —— 100 行内容,加上一行表头。 ? 看看打印出来的内容,如果没问题的话,我们就可以用一个循环来获取所有数据啦。...就像上面说的,第二列中有一个指向该公司详情页面的链接。每一个公司的详情页都有一个表格,大部分情况下,表格里都有一个公司网站的链接。 ?

    2.5K31

    隔壁厂员工进局子了!

    有些技术,不能乱用! 大家好,我是鱼皮,今天分享点轻松的小技术知识~ 提到 “程序员” 和 “局子”,你会联想到什么呢?...除了黑客外,我第二个想到的就是爬虫,简单的说就是从网站上抓取数据,比如从表情包网站抓取图片。 俗话说的好,爬虫学的好,局子进的早。 爬虫虽然不像黑客攻击那样直接,但同样会对网站和企业造成威胁。...如今实现爬虫也非常简单,基本什么编程语言都有现成的爬虫框架和类库,今天我就给大家分享一个超级无敌简单易用的 Java 爬虫库 —— jsoup 。...举个例子,假如我们要从一篇文章中得到作者的姓名,完整的网页代码可能是这样的: 文章页 文章标题 作者姓名...使用 它的用法真的很简单,直接打开 jsoup 官网,引入它。

    65830

    了解sitemap(站点地图)和如何判定你的网站是否需要提交站点地图

    我需要一个站点地图吗? 在以下情况下,您可能需要一个站点地图: 你可能不会需要一个网站地图,如果: 什么是站点地图?...一个网站地图是你提供有关的网页,视频和网站上的其他文件,以及它们之间的关系信息的文件。像Google这样的搜索引擎会读取此文件,以更智能地抓取您的网站。...我需要一个站点地图吗? 如果您的网站页面正确链接,则Google通常可以发现您的大部分网站。即使这样,站点地图也可以改善对更大或更复杂的站点或更专业的文件的爬网。...使用站点地图并不能保证将对站点地图中的所有项目进行爬网和建立索引,因为Google流程依赖于复杂的算法来计划爬网。...Googlebot和其他网络爬虫通过跟踪从一个页面到另一页面的链接来爬网。因此,如果没有其他网站链接到Google,则Google可能不会发现您的页面。

    1.7K21

    叮!你的校招提醒微信机器人已上线!

    这几日在票圈和各微信群看到大家疯狂刷“京东”、“腾讯”等秋招类的“广告”,我对这些营销方式存怀疑态度,觉得一定不是官方的!总感觉有恶意营销在里面。 有需求就有市场,为什么不自己写一个校招提醒机器人呢?...可是总不能天天手动去运行程序吧,那我为什么不去看就业信息网站上的信息呢。 做程序员呢,最重要的就是一定要懒。 设置一个定时器呗,每天运行一次。基本上就能满足需求了。...V1.2 同学给的几点建议: 去掉过期的招聘会信息 增加交大、西工大的招聘会信息 增加应届生招聘网站上的信息 我是从西电就业信息网直接爬取,网站上的信息并为做过期处理。...这样一想有没有可能从其他招聘网站上抓取第二手信息呢,他们应该做过处理。 果不其然,海投网!直接解决了第一第二点的建议。...Itchat有个问题不好处理,会时长掉线,查过很多资料好像并不能很好的解决这个问题。所以,为了保证网页版微信的登录状态,每隔十分钟会给一个TEST群里发送信息。这个方法可以保证一段时间的登录状态。

    1.6K30

    Python 爬虫爬取美剧网站

    但是,作为一个宅diao的我又怎甘心没剧追呢,所以网上随便查了一下就找到一个能用迅雷下载的美剧下载网站天天美剧(cn163.net),各种资源随便下载,最近迷上的BBC的高清纪录片,大自然美得不要不要的...正好一直在学习Python爬虫,所以今天就心血来潮来写了个爬虫,抓取该网站上所有美剧链接,并保存在文本文档中,想要哪部剧就直接打开复制链接到迅雷就可以下载啦。 ?...其实一开始打算写那种发现一个url,使用requests打开抓取下载链接,从主页开始爬完全站。...但是效果也不是那么理想,有一半左右的链接不能正确抓取,还需继续优化。...还有过程中遇到一个很折磨我的问题是文件名的保存,必须在此抱怨一下,txt文本格式的文件名能有空格,但是不能有斜线、反斜线、括号等。

    1.4K70

    简易数据分析(七):Web Scraper 抓取表格、分页器翻页数据

    5.一些问题 如果你看了我上面的教程立马去爬数据,可能遇到的第一个问题就是,300w 的数据,难道我全部爬下来吗?...像我前面介绍的点击更多加载型网页和下拉加载型网页,他们新加载的数据,是在当前页面追加的,你一直下拉,数据一直加载,同时网页的滚动条会越来越短,这意味着所有的数据都在同一个页面。...当我们用 :nth-of-type(-n+N) 控制加载数量时,其实相当于在这个网页设立一个计数器,当数据一直累加到我们想要的数量时,就会停止抓取。...但是对于使用翻页器的网页,每次的翻页相当于刷新当前网页,这样每次都会设立一个计数器。...所以结论就是,如果翻页器类型的网页想提前结束抓取,只有断网的这种方法。当然,如果你有更好的方案,可以在评论里回复我,我们可以互相讨论一下。

    4.2K41

    微博自助采集及可视化网站汇总

    微博自助抓取网站系列陆陆续续更新了以下几篇。...带 ip 属地,无 Cookie 微博话题自助抓取网站上线 零配置构建微博多层转发网络可视化的网站来了 零配置构建微博用户关系网络的网站也来了 新增 ip 属地,抓得更多,微博超级评论爬虫大更新...中断可继续,10w+,无 cookie 微博评论抓取网站上线 可按关键词和时间段搜索,微博用户爬虫上新 每个爬虫都是一个站点,但是这几个站点没有任何关联,不能从一个跳转到另外一个,七八个站点不容易收藏...为了解决这个问题,我把以上几个单页面应用 SPA(Single Page Application)合成了一个多页面应用,这样一来,只需要记住这一个网站就行,网站地址是: https://weibo-crawl-visual.buyixiao.xyz.../ 为了统一管理,我也把之前的站点全部自动重定向到了该站点。

    71010
    领券