我有两个CSV文件,我正在使用spark与进行聚合。这些文件有不同的数据。011!345!Ireland022Ç486ÇBrazilDataset<Row> people = spark.read().format("csv").option("headerload(logFile);Error:Cannot resolv
我有一个CSV文件,它使用分号(;)作为分隔符。然而,问题是分号的实例数量不同,有时只有一个;,有时有多个分号,如;;;;,;;;;;;等,考虑到数据相当大的事实,我并不是真的知道这一点。使用;分隔符读取文件的最简单方法(显然也是最常用的方法)是使用
data = pd.read_csv('my_file_name.csv',