这是我关于堆栈溢出的第一个问题。
我有一个包含大量数据的示例.csv文件。
FILE = r'C:\Users\jarxi\AppData\Local\Programs\Python\Python39\Scripts\docs_1\0ft1iosx.csv‘
我只需要文件中的特定数据。只有数字和长度= 10。
result = []
import csv
with open(FILE, mode='rt') as data:
for line in csv.reader(data):
pass
for id_client in l
我希望将文件夹中的所有.csv文件加载到每个文件的独立数据帧列表中
这个文件夹被称为硬币。
for file in './coins':
logs_total = [pd.read_csv('./coins/'+file, engine='python')]
错误:
IsADirectoryError: [Errno 21] Is a directory: './coins/.'
如果没有engine='python‘its:
ParserError: Error tokenizing data. C erro
我有csv文件,并将csv数据传递给python代码。在csv文件中有URL数据。在python中调用URL的正确方法是什么。误差Cannot navigate to invalid URL
CSV文件
ID,category,link
sports_shoes,sports-shoes,https://www.flipkart.com/mens-footwear/sports-shoes/pr?otracker=categorytree&page=1&sid=osp%2Ccil%2C1cu
代码:
from selenium import webdriver
from sel
我在找出需要创建哪些代码来使python尝试csv文件中的下一个url时遇到了问题,每个url都位于如下一行:
#open csv file
#read csv file line by line
#Pass each line to beautiful soup to try
#If URL raises a 404 error continue to next line
#extract tables from url
from mechanize import Browser
from BeautifulSoup import BeautifulSoup
import
我刚开始使用python来构建我的第一个脚本。我想要删除一个url列表,并将其导出到一个csv文件中。
但是,当打开csv文件时,我的脚本执行得很好,只编写了几行数据。当我打印要写入的列表(sharelist和sharelist1)时,打印是完成的,而csv文件则不是。
下面是我代码的一部分:
for url in urllist[10:1000]:
# query the website and return the html to the variable 'page'
try:
page =
我有10个csv文件的URL's。我想将来自多个URL的数据存储在python中的列表中。所有URL都是相同格式的csv文件。
我试过了:
url = request.GET.get('url') #for first url
data = []
with closing(requests.get(url, stream=True)) as f:
dfs = [pd.read_csv(filename) for filename in f]
我可以提取数据,但我如何从URL的其余部分获取数据并将它们全部存储在列表中。
我上周开始学习python,我正在使用bs4在python中编写一个脚本,其中我循环了很多列表b,每次我用下面的代码将这个列表打印到csv文件中时。
with open('mairies.csv', 'a', newline='') as csvfile:
writer = csv.writer(csvfile)
for i in b:
writer.writerows([[i]])
但是它将所有列表写在同一列中,而我需要每个列表都放在一个新的列表中。无论我在互联网上看到什么,我都被告知要使
我对Python非常陌生,我刚刚得到了一小部分代码,可以将一些用户数据编译成一个文件。但是,由于我只是在学习,我不希望它只是运行,而是实际使用Python提供的功能。作为参考,这里是代码的一部分,我认为可以更快。
简而言之,我有一个文本文件中的用户名列表,以及CSV中每一天4个月内每个用户的使用数据。
逻辑是
loop over each CSV:
loop over each line in that CSV:
loop over the list of usernames:
if the username matches, appen
这里是Python/Pandas初学者。我有一个名字列表,每个名字都代表我的计算机上的一个csv文件。我想为每个csv文件创建一个单独的熊猫数据文件,并使用相同的名称作为数据。通过为列表中的每个名称创建单独的代码行,以及随着列表随时间的变化手动添加/删除这些代码行,我可以以一种非常低效的方式做到这一点,比如,当我有3个名称Mark、Frank和Peter时:
path = 'C:\\Users\\Me\\Desktop\\Names'
Mark = pd.read_csv(path+"Mark.csv")
Frank = pd.read_csv(path+
嗨,我有一个CSV的10个网站的列表。所有的网站都有相同的通用格式,包括一个大的表格。我只想要第7列的数据。我可以单独提取html并过滤第7列数据(通过RegEx),但我不知道如何在CSV中循环。我想我已经接近了,但是我的脚本不能运行。如果有人能帮我弄清楚怎么做,我会非常感激的。下面是我得到的信息:
#Python v2.6.2
import csv
import urllib2
import re
urls = csv.reader(open('list.csv'))
n =0
while n <=10:
for url in urls:
我正在尝试编写一个循环,它通过请求从url获取.json,然后将.json写入.csv文件。然后我需要它一遍又一遍,直到我的名字列表(.txt文件)完成(89行)。我不能让它浏览列表,它只是选择我列表的最后一个名字,然后退出。我需要它通过,基本上创建89个文件,与更正的网址。其他函数可以正常工作,但它只执行一次。 我似乎找不到适合我的循环。由于我完全是python的初学者,我希望我能在这里得到一些帮助,并学到更多。 我的代码 #Opens the file with pricelists
with open('prislistor.txt', 'r') as
因此,在Python中,我尝试使用csv模块从csv文件中提取数据(以处理curse的csv文件中的数据),我有:
import csv
with open('GDMTH_CSV.csv')as csv_file:
csv_file_read = csv.reader(csv_file)
for line in csv_file_read:
print(line)
然后我得到原始数据,所以我相应地修改以获得我需要的特定数据。
但是GDMTH_CSV.csv实际上是一个在线文件,所以我使用urllib.request模块来尝试同样的事情:
import urlli
首先,我为我糟糕的英语感到抱歉。我对Python有点陌生。所以,我有一堆Python代码可以使用Selenium包从Youtube主页通道中提取数据,我想将数据存储在CSV中,到目前为止,代码还在运行,唯一让我感到困惑的是,我如何命名csv文件和当前的工作循环?
import selenium
from selenium import webdriver
from selenium.webdriver.chrome.options import Options
from selenium import webdriver
from selenium.webdriver.common.by im