首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >Spark在SparkSqlParser.scala idea中编译时没有intelliJ文件

Spark在SparkSqlParser.scala idea中编译时没有intelliJ文件
EN

Stack Overflow用户
提问于 2016-02-25 02:45:35
回答 5查看 2.8K关注 0票数 9

我在我的红帽64中安装了火花-hadoop env。我还想在spark源代码项目中读写intelliJ idea中的代码。我已经下载了星火源代码,并使一切就绪。但我在IntelliJ idea中编译spark项目时出现了一些错误。以下是一些错误:

/home/xuch/IdeaProjects/spark/sql/catalyst/src/main/scala/org/apache/spark/sql/catalyst/CatalystQI.scala 错误:(809,34)未找到:值SparkSqlParser case ast if ast.tokenType == SparlSqlParser.TinyintLiteral => 错误:(812,34)未找到:值SparkSqlParser case ast if ast.tokenType == SparlSqlParser.SmallintLiteral => ... ...

但实际上,我没有在整个项目中找到名为SparkSqlParser.scala的文件,也没有找到名为SparkSqlParser的scala类。

然而,我在网上搜索了一些名为SparkSqlParser.scala的文件,但是它们没有属性,比如"TinyintLiteral“、"SmallintLiteral”等等。以下是文件链接:

EN

Stack Overflow用户

发布于 2017-09-25 09:30:31

这里的建议对我都没有用。但是,我注意到生成的代码依赖于Antlr 3.x,而Antlr 4.x是依赖项中的内容(mvn依赖:tree)。我不知道为什么会这样。也许是因为我之前从命令行(?)构建了它。

无论如何,尝试清理您的催化剂子项目,然后重建自动生成的资源。要在IntelliJ中做到这一点,请转到查看->工具窗口-> Maven项目。

然后导航到"Maven Project“选项卡中的”火花项目催化剂“。

导航到清洁->干净:清洁和双击它。导航到插件-> antlr4 -> antlr4 4:antlr4 4并双击它。

现在,您将看到Antlr类的自动生成源是不同的,它们应该编译。YMMV

票数 6
EN
查看全部 5 条回答
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/35617277

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档