使用pd.read_html并遍历许多不同的urls,并将每组dfs存储到dfs的主列表中,可以按照以下步骤进行操作:
import pandas as pd
dfs = []
def process_url(url):
try:
df_list = pd.read_html(url) # 使用pd.read_html读取url中的表格数据,返回一个包含多个DataFrame的列表
for df in df_list:
dfs.append(df) # 将每个DataFrame添加到主列表中
except Exception as e:
print(f"处理URL {url} 时出现错误:{str(e)}")
urls = ["url1", "url2", "url3", ...] # 替换为实际的urls
for url in urls:
process_url(url)
这样,你就可以使用pd.read_html并遍历多个不同的urls,并将每组dfs存储到dfs的主列表中了。
注意:在实际使用中,你需要替换urls列表中的示例url为实际的urls,并根据需要进行异常处理和其他逻辑的调整。
领取专属 10元无门槛券
手把手带您无忧上云