首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >';‘需要,但找到了'import’- Scala和Spark

';‘需要,但找到了'import’- Scala和Spark
EN

Stack Overflow用户
提问于 2015-05-24 18:59:26
回答 1查看 2.3K关注 0票数 3

我正在尝试使用Spark和Scala,编译一个独立的应用程序。我不知道为什么我会得到这个错误:

代码语言:javascript
运行
复制
topicModel.scala:2: ';' expected but 'import' found.
[error] import org.apache.spark.mllib.clustering.LDA
[error] ^
[error] one error found
[error] (compile:compileIncremental) Compilation failed

这是build.sbt代码:

代码语言:javascript
运行
复制
name := "topicModel"

version := "1.0"

scalaVersion := "2.11.6"

libraryDependencies += "org.apache.spark" %% "spark-core" % "1.3.1"
libraryDependencies += "org.apache.spark" %% "spark-graphx" % "1.3.1"
libraryDependencies += "org.apache.spark" %% "spark-mllib" % "1.3.1"

这些是导入:

代码语言:javascript
运行
复制
import scala.collection.mutable
import org.apache.spark.mllib.clustering.LDA
import org.apache.spark.mllib.linalg.{Vector, Vectors}
import org.apache.spark.rdd.RDD

object Simple {
  def main(args: Array[String]) {
EN

回答 1

Stack Overflow用户

发布于 2015-05-25 14:45:55

这可能是因为您的文件具有旧的Macintosh行结尾(\r)?

有关更多详细信息,请参阅Why do I need semicolons after these imports?

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/30422750

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档