我想使用read_sql_table()使用SQLAlchemy和Pandas将表从Posgresql数据库读取到Pandas数据帧中。对数据库的SQL查询类似于: SELECT col1,col2 FROM my_table WHERE col1=='value' 我尝试使用以下代码从表中获取Pandas数据帧: from sqlalchemymy_table',schema=
我需要根据数据类型将我的数据集划分为不同的子集。 在Pandas中我们可以通过df.select_dtypes来实现,我想在Spark Scala中实现它。有谁能帮帮忙。例如,下面是我的数据集:Dataset 我想根据数据类型将数据集划分为浮点型和字符串。 我的最终输出应该是这样的,其中包含两个具有相似数据类型的不同数据帧。Dataframe with only floating values Su