我已经安装了Java-11-openjdk-amd64,并在usr/lib/jvm/Java-11-openjdk-amd64/bin/java、Scala 2.11.12和spark 2.2.0和hadoop 2.7中自动运行它,在我的桌面上,linux mint VM 19.2在windows 10上运行。打开spark-shell时出现错误: Failed to initialize compiler: object java.lang.Object in compiler mirror not found. 我还定义了主目录中.bashrc文件中的变量,如下所示: export J
我正在用Java 7在一个新的MacBook Pro上安装Play 2.2,Scala已经安装了。我得到的是:
Okihara-MacBook-Pro:Extensions okihara$ play help
Exception in thread "main" java.lang.IncompatibleClassChangeError: Expected static method scala.Array$.unapplySeq(Ljava/lang/Object;)Lscala/Option;
at xsbt.boot.Boot$.main(Boot.scala
我有一个简单的build.gradle,它引入了一些java依赖项。在我的mac上,gradle一直说它无法解析任何jar的依赖关系。这是昨天才开始发生的,重启并不能解决这个问题。我试着在linux上运行这个项目,结果和预期的一样。你知道我的mac出了什么问题吗?
Cause 2: java.lang.InternalError
[...]
at javax.xml.parsers.SecuritySupport$4.run(SecuritySupport.java:92)
at java.security.AccessController.doPrivileged(N
我今天在SBT上遇到了一个错误。最好用sbt sbt-version命令来显示:
运行5/29/17:
eric@linux-x2vq:~$ sbt sbt-version
Java HotSpot(TM) 64-Bit Server VM warning: ignoring option
MaxPermSize=256M; support was removed in 8.0
[info] Set current project to eric (in build file:/home/eric/)
[info] 0.13.13
运行6/1/17:
eric@linux-x2vq:~$ s
我尝试在一个简单的示例中链接到本地BLAS库,以测试与“常规”实现的性能差异。
我尽职尽责地遵循了官方netlib-java GitHub上发布的说明,但仍然得到一个类似于的错误。
我使用Hadoop2.7运行预编译的Spark2.3;我尝试从源代码构建Spark,并选择显式启用netlib-java (如中所述,但无济于事。
让我感到困惑的具体错误消息如下:
spark-shell --packages com.github.fommil.netlib:all:1.1.2
Ivy Default Cache set to: /home/user/.ivy2/cache
The jar
我最近刚开始对scala进行编程,在“scala中的编程”(www.artima.com/pins1ed)一书中,介绍了在linux中执行scala脚本的以下方法:
#!/bin/sh
exec scala "$0" "$@"
!#
// Say hello to the first argument
println("Hello, "+ args(0) +"!")
现在我已经使用linux很长时间了,但是bash脚本不是我的专长。现在我可以猜到这种scrpt是如何工作的(而且它运行得很好),但是我想知道!#和$@到底做了什么。
我的插件项目找不到任何java类。如何让我的项目重新编译?我正在开发manjaro
项目:
DISTRIB_ID=ManjaroLinux
DISTRIB_RELEASE=18.1.2
DISTRIB_CODENAME=Juhraya
DISTRIB_DESCRIPTION="Manjaro Linux"
IntelliJ IDEA 2019.2.4 (Community Edition)
Build #IC-192.7142.36, built on October 29, 2019
Runtime version: 11.0.4+10-b304.77 amd64
VM: O
我正在尝试使用在Ubuntu16.04上安装Scala-2.12.2,在Linux上安装Ubuntu16.10。在安装.deb时,我收到错误消息“scala依赖于java8-runtime-headless;然而:未安装java8-runtime-headless包”。
当我尝试使用scala .Any在Red Hat Enterprise Linux (RHEL)上安装所有Scala-2.12.2时,这个依赖项不是必需的,为什么.deb和rpm格式存在依赖项差异。
我使用IBM java version "1.8.0“Java(TM) SE运行时环境(build pxa6480sr4
只是习惯了Play Framework并设置了一个新的Web应用程序。
我想做一些模型单元测试,但是当我运行play test时,我会得到以下错误消息:
[Opinions] $ test
[trace] Stack trace suppressed: run last *:testListeners for the full output.
[error] (*:testListeners) java.net.UnknownHostException: linux-hkem.site: linux-hkem.site: Der Name oder der Dienst ist nicht b
我试图在集群中运行一个Akka应用程序。实际上,我必须要Linux机器。与SBT0.13.13和Scala2.10.4具有相同的设置,相同的Java,甚至相同的内核版本。
为了测试应用程序,我在这两台机器上都有一个项目的精确副本。当我在第一台机器上编译时,一切正常。但一旦我试图用
$ sbt compile
在第二台机器上,我得到了以下错误模型:
sbt.InvalidComponent: Could not find required component 'compiler-interface-src'
at sbt.ComponentManager.invalid(
当我试图在Scala中执行任何表达式时,它就会崩溃。在这里回溯
Exception in thread "Thread-1" Exception in thread "main" java.lang.InterruptedException
at java.util.concurrent.SynchronousQueue.put(SynchronousQueue.java:879)
at scala.tools.nsc.interpreter.SplashLoop.run(InteractiveReader.scala:77)
at java.lang.Thre
因此,我一直在尝试在IntelliJ IDEA中使用SBT创建一个Scala项目。我已经下载了JetBrains Scala插件。我的系统需要一个代理来连接到互联网,这是我在IntelliJ IDEA代理设置中设置的,我还设置了所有环境变量JAVA_HOME、SCALA_HOME、HTTP_PROXY
如果我遗漏了什么,请告诉我
堆栈跟踪附加在下面。
[info] Loading project definition from D:\Java\Scala\Coursera\HelloTest03\project
[info] Set current project to HelloTest03
我是Spark的初学者,我使用"linux + idea + sbt“构建了一个环境,当我尝试Spark的快速启动时,我遇到了问题:
Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/spark/SparkConf
at test$.main(test.scala:11)
at test.main(test.scala)
at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
我尝试在NetBesans 6.9.1下运行scala插件。我从arch linux存储库安装scala。然后我下载netbeans-6.9.1和scala插件。已安装插件。当我用hello创建scala应用程序并尝试构建它时,我得到了错误:
You must set SCALA_HOME or environment property and append "-J-Dscala.home=scalahomepath"
property to the end of "netbeans_default_options" in
这是对的跟进。我在gradle中有一个小的示例项目,其中涉及一个scala文件,该文件无法在我的新机器上构建(它以前在相同的硬件+debian stretch上工作):
$ gradle build
:compileJava UP-TO-DATE
:compileScala FAILED
FAILURE: Build failed with an exception.
* What went wrong:
A problem was found with the configuration of task ':compileScala'.
> No value ha
我正在使用示例中的代码来运行一个使用spark的scala程序。程序执行得很好,但是当StreamingContext试图停止时,我得到了这个错误:
java.io.IOException: Failed to delete: ..\AppData\Local\Temp\spark-53b87fb3-1154-4f0b-a258-8dbeab6601ab
at org.apache.spark.util.Utils$.deleteRecursively(Utils.scala:1010)
at org.apache.spark.util.ShutdownHook
我正在尝试过滤从oracle读取的一列数据,如下所示
import org.apache.spark.sql.functions.{col, lit, when}
val df0 = df_org.filter(col("fiscal_year").isNotNull())
当我做这件事时,我会犯以下错误:
java.lang.RuntimeException: Unsupported literal type class scala.runtime.BoxedUnit ()
at org.apache.spark.sql.catalyst.expressions.Lit
我主持卡夫卡在码头在Windows。使用对接图像。Kafka数据存储在本地Windows文件夹中,以便持久化。Windows文件夹通过docker卷映射到Kafka码头图像。我可以创建主题、发布和使用消息。但是,当我尝试删除主题时,我会收到以下错误:
Error while deleting test-0 in dir /var/lib/kafka. (kafka.server.LogDirFailureChannel)
java.io.IOException: Failed to rename log directory from /var/lib/kafka/test-0 to /va