我正在尝试在Apache Spark中使用pivot。|User_2|我想要在用户列上进行透视。/hdp/current/spark2-client/python/pyspark/sql/dataframe.py", line 1020, in __getattr__
"'%s' object__name__, name)
我有点困惑于不同的演员在这个故事: PySpark,SparkSQL,卡桑德拉和火星雨-卡桑德拉连接器。在Scala中使用spark-shell,我可以做的很简单val dataframe = cc.sql("SELECT count(*) FROM mytable group by beamstamp")
我需要使用pyspark还是可以自己使用</