我目前的Java/Spark单元测试方法(详细的here)是通过使用“本地”实例化SparkContext并使用JUnit运行单元测试来实现的。
必须组织代码,以便在一个函数中执行I/O,然后使用多个RDD调用另一个函数。
这很好用。我有一个用Java + Spark编写的经过高度测试的数据转换。
我能用Python做同样的事情吗?
如何使用Python运行Spark单元测试?
https://stackoverflow.com/questions/33811882
相似问题