我已经从142个不同的文件中提取了信息,这些文件存储在CSV文件中,其中有一个列,包含数字和文本。我希望复制第11-145行,将其转换,并将其粘贴到另一个文件中(xlsx或csv并不重要)。然后,我想跳过接下来的10行,复制第156-290行,转换和粘贴它等等。我尝试了以下代码:
import numpy as np
overview = np.zeros((145, 135))
for i in original:
original[i+11:i+145, 1] = overview[1, i+1:i+135]
print(overview)
original文件是导入的文
我有一堆新闻文章的csv,我希望使用newspaper3k包从这些文章中提取正文文本,并将它们保存为txt文件。我想创建一个遍历csv中每一行的脚本,提取URL,从URL中提取文本,然后将其保存为一个唯一命名的txt文件。有人知道我会怎么做吗?我是一名刚接触Python的记者,如果这太直接了,很抱歉。 我只有下面的代码。在弄清楚如何将每个正文文本保存为txt文件之前,我认为应该尝试让脚本打印csv中每一行的文本。 import newspaper as newspaper
from newspaper import Article
import sys as sys
import panda
我用python来分析巴西的新冠肺炎数据。联邦政府共享一份csv档案,记录该国的每一次疫苗接种情况。这个csv文件有170 csv以上。
对于我的研究,我需要查询这个csv文件,以获得按city和day分组的疫苗接种的city。在sql中,如下所示:
select city, day, Count(*)
from my_table
group by city, day
如何从在线csv文件中提取这些信息,因为它太大了?
这个文件是每天更新的,因为新的人每天都要接种疫苗。这意味着每天都会将新行追加到文件中。
我想每天提取/更新柜台。是否有一种智能/快速的方法来检查csv文件中的新行并更新计数器?
我有一个从h5文件导出的面试记录的CSV文件。当我将行读入python时,输出如下所示:
line[0]=['title,date,responses']
line[1]=['[\'Transcript 1 title\'],"[\' July 7, 1997\']","[ '\nms. vogel: i look at all sectors of insurance, although to date i\nhaven\'t really focused on the reins
嘿,我真的需要帮助。我已经尝试了一个小时来寻找python的解决方案,但是没有找到它。
我使用的是Python 3.7,我的输入是一个客户提供的文件--我不能更改它。它的结构如下:它以不是CSV格式的随机文本开始,从文件其余部分的第3行开始是csv格式。
text line
text line
text line or nothing
Enter
csv文件的开头“列名1",”列名2“..到6点
"value1","value2“...直到6-继续很多行。
我想提取前3行来创建一个纯CSV文件,但是找不到仅针对特定行范围执行此操作的代码。这似乎也是一个错误
我试图用python从rtfs中提取超链接。我有一个1000 rtfs可以通过,所以如果这可以减轻我的任务。但是我的代码并没有提取到文章的链接,只有数据库的首页。以下是我写的:
import csv
import re
with open('text.rtf', 'r') as file:
for line in file:
urls = re.findall('https?://(?:[-\w.]|(?:%[\da-fA-F]{2}))+', line)
print(urls)
wit
我想使用glob来获取文件名中包含特定字符串的所有csv文件。该字符串仅出现在文件名的中间。例如,我想提取文件名中包含SI--Exp1的所有csv文件,文件名可能类似于03152018-User1-SI--Exp1-trial14.csv。这是我到目前为止所知道的:
import glob
path =r'C:\YourFolder' #path to folder with .csv files
all = glob.glob(path+"/*'[SI--Exp1]'*.csv")
我收到了bad character range 3--的错误消
我正在使用Python2.7和Beautiful soup从URL中获取一些文本,但我希望在每一行中分隔提取的文本。
这就是我从URL中提取文本并将输出放入CSV文件的方法:
# import libraries
import csv
import urllib2
from bs4 import BeautifulSoup
# specify the url
url = 'http://www.bkfrem.dk/default.asp?id=19'
# query the website and return the html to the variable ‘pag
我对Python完全陌生。我有一个很大的文本文件。我想对它做两件事。1.从它中提取出一个特定的区域,这是我一直能够做到的。2.现在转置提取的区域并写入csv文件。事实证明,这有点棘手。压缩功能没有做我想做的事。这是第一步的print语句中的数据,我想转换这个数据。
Number "A1" "A2" "A3" "A4"
Data "ABCD" "ABCD" "ABCD" "ABCD"
Date "Jan 04,2013&
我想格式化多个文件,其中一些在原始数据之前有摘要。原始数据可以从任何行开始,但是如果在任何行找到“colname”,那么原始数据就从那里开始。我使用Standard Libary csv模块读取文件,检查“colname”是否存在,并从中提取数据。使用下面的代码,print( data )总是从文件的第一行给出数据。但我想从找到“colname”的地方开始提取数据。如果找不到“colname”,我就不想读取数据。
Root_dir=r”folder1”
for fname in os.listdir(root_dir):
file_path = os.path.join(roo