我目前正在尝试在.sql文件中进行批量插入,以便将.csv数据插入到我的SQL Server数据库的一个表中。但是,我需要能够从其相对目录中加载.csv文件,而不是使用完整路径。当前,.csv文件与.sql文件位于同一目录中。 我想做这样的事情 BULK INSERT team
FROM '.如何在不对文件路径进行硬编码的情况下加载文件?
我需要像pandas一样提取列的所有唯一值,而不对列名进行硬编码。你能帮我解释一下怎么做吗?x.Projectnum for x in spark_df.select('Projectnum').distinct().collect()]
uni_val = ['SR0480-000'] 但我不想硬编码所以我把column_name保存在一个变量p_k中,但是如何在列表中传递呢