在从IntellijIDEA运行Spring应用程序时,我会得到以下错误。
2017-04-20 18:20:50.645 ERROR 28680 --- [main] o.s.b.d.LoggingFailureAnalysisReporter :
***************************
APPLICATION FAILED TO START
***************************
Description:
Field checker in org.test.api.controller.CheckerController required a be
使用spring boot创建了spark结构的流媒体应用程序。bootRun运行良好,但在使用"spark-submit“部署相同的jar时,给出了以下错误:
org.springframework.beans.factory.BeanCreationException: Error creating bean with name 'defaultValidator' defined in class path resource [org/springframework/boot/autoconfigure/validation/ValidationAutoConfi
我正在尝试将apache spark与spring-boot cassandra项目集成。但在运行项目时,它会给出以下错误:
Servlet.service() for servlet [dispatcherServlet] in context with path [] threw exception [Handler dispatch failed; nested exception is java.lang.NoClassDefFoundError: org/spark_project/guava/collect/MapMaker] with root cause
jav
这是一个非常初级的问题,但我无法通过。我有一个基本的Spring应用程序,以及一个连接到云地图实例的Spring数据MongoDB存储库。问题是,在我的Spring测试中,我的存储库不是自动存储的,嵌入的MongoDB实例也没有创建。如果我启动Spring应用程序,并在主类中自动创建存储库,这是可行的。为什么它在我的测试中不起作用?
这是我的考试课:
@DataMongoTest
@ExtendWith(SpringExtension.class)
public class SampleServiceTest{
@Autowired
private SampleReposi
我已经用Spring开发了一个web应用程序,它使用Apache从不同的数据源(如Oracle)查询数据。一开始,我计划运行应用程序,而不使用星火提交脚本提交应用程序,但是看起来,如果不提交jar,我就无法连接到主集群。我已经成功地生成了一个uber jar,它包含了我正在使用的所有依赖项和子项目,但是Spark似乎不喜欢Spring应用程序。当我尝试提交应用程序时,spark显示了以下错误:
Exception in thread "main" java.lang.IllegalArgumentException: LoggerFactory is not a Logback
我已经使用spark创建了一个用于教育目的的api端点。现在,我需要将此实现转换为springboot,并需要使用implementation.Following代码中的application...But参数,展示我是如何实现这两个请求的,如何使用来自spring boot应用程序的请求。下面的实现不会给出请求体。
package com.spark2springboot.application;
import static spark.Spark.*;
public class spark2SpringbootTest {
public static void main(Str
我正在尝试使用java和spark从本地计算机(Eclipse)访问中的Hive服务器。但是在启动应用程序时,我得到了下面的错误。我试图找出这个问题,但没能解决。
线程“主”java.lang.IllegalArgumentException中的异常:无法用Hive支持实例化SparkSession,因为找不到Hive类。
在org.apache.spark.sql.SparkSession$Builder.enableHiveSupport(SparkSession.scala:870) at com.hadoop.Application.main(Application.java:22)
我使用spark 1.0.2和独立模式将spark应用程序作为查询服务运行(很像spark-shell,但在spring-boot的servlet容器中)。现在,在升级到spark 1.3.1并尝试使用Yarn而不是独立的集群后,对我来说事情变得越来越糟糕。我创建了包含所有依赖项(spark-core、spark-yarn、spring-boot)的uber jar,并尝试部署我的应用程序。
15/07/29 11:19:26 INFO client.RMProxy: Connecting to ResourceManager at /0.0.0.0:8032
15/07/29 11:19:
我正在尝试创建基于spring的应用程序,但是在构建之后,我在初始化spring上下文-> No auto configuration classes found in META-INF/spring.factories时得到了异常。我在我的应用程序中大量使用spark,我被迫使用maven-assembly-plugin来打包我的jar (否则我无法运行spark作业)。
我的主要课程的样本:
@SpringBootApplication
@EnableAutoConfiguration
public class MyMainClass {
public static void
当我尝试使用带有Spring的JNDI数据源和使用嵌入式Tomcat服务器的Spring时,在使用SpringApplication.run运行应用程序时会收到以下错误消息:
org.springframework.beans.factory.BeanCreationException: Error creating bean with name 'entityManagerFactory' defined in class path resource [org/springframework/boot/autoconfigure/orm/jpa/HibernateJpaAut
我已经为尝试多个上下文创建了基本的spring引导应用程序,下面是源代码
应用程序的结构如下:
一个主要的“根”上下文
两个子上下文"api“、"webapp”
代码运行良好,只有一个子程序,当我添加"webapp“应用程序上下文时,它会给出以下错误
org.springframework.beans.factory.BeanCreationException: Error creating bean with name 'springApplicationAdminRegistrar' defined in class path res
我正在尝试将一个简单的web应用程序部署到我的centOs服务器(数字海洋)上。按照他们的指导,我成功地设置了tomcat,成功地登录到经理,然后部署了我的war。Tomcat部署了它,它说OK,日志中没有任何错误。但当我点击应用程序链接时,它只显示HTTP状态404未找到。
在本地tomcat服务器上进行测试,程序相同,工作正常。
主班
@SpringBootApplication
public class SuperiorniatletaApplication extends SpringBootServletInitializer{
//JAR
/*
* pu