我在编译Spark-Scala包附带的'TokenizerExample‘时遇到了问题。
我已经在IntelliJ中设置了我的环境,并且我能够成功地编译其他Spark-Scala示例,如NaiveBayes、CosineSimilarity等。
但是当我将'TokenizerExample‘加载到IntelliJ集成开发环境中时,系统在下面一行显示错误消息'Cannot resolve reference transform with the’:
val tokenized = tokenizer.transform(sentenceDataFrame)
val regexTokenized = regexTokenizer.transform(sentenceDataFrame)我没有做任何编辑,我可以观察到问题出在转换方法上。你能帮我解决这个问题吗?感谢您的支持。
谢谢!
发布于 2016-09-21 03:04:59
SBT/Maven,请确保.sbt或pom.xml文件中列出了mllib模块的所有依赖项并进行重新构建。我个人没有在mllib上工作,但如果我们没有很好地解决依赖关系,这种类型的错误就会出现。谢谢。
https://stackoverflow.com/questions/39601501
复制相似问题