首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

geotrellis使用(二十九)迁移geotrellis至1.1.1版

近来OpenStack折腾稍见成效,历经九九八十一Failure后成功16台服务器上搭建了云平台,于是干了一件疯狂事情——OpenStack上创建建立几台虚拟机,并用他们搭建了Hadoop集群...,完事将之前geotrellis代码运行在集群上。...spray来发布http服务,这样会造成总总版本冲突,前面我还专门有写文章来探讨版本冲突及解决方案。...1.1.1版直接使用akka发布http服务,而无需spray便少了很多冲突可能性。...虽然部署OpenStack等运维层面的工作以及单片机、嵌入式等硬件层面的工作我都很喜欢,成功后都会给我带来深深享受之感,其实我更喜欢写代码,一行行优美的如同艺术品代码从大脑经过指尖展示显示屏上,而后便能看到所有的事情全部按照自己预想方式运行

88340
您找到你想要的搜索结果了吗?
是的
没有找到

Akka-CQRS(10)- gRPC on SSLTLS 安全连接

gRPCssl/tls原理是服务端安装安全证书公用certificate和私钥key, 客户端安装公共证书就可以了,gRPC代码是这样写: // Server SslContext sslContext..." % "0.9.2") libraryDependencies += "com.thesamet.scalapb" %% "compilerplugin" % "0.9.0-M6" sbt执行dependencyTree...好像缺失了io.netty:netty-tcnative-boringssl-static:jar,按照对应gRPC版本build.sbt里加上: name := "learn-grpc" version...不过客户端使用了证书后仍然无法连接到服务端。没办法,又要再去查资料了。看来现在应该是证书问题了。先看看是不是因为使用证书是自签self-signed-certificate。...那么上面的.overrideAuthority("foo.test.google.fr")又是什么意思呢?算了,以后有时间再研究吧。这次起码证明grpc ssl/tls是可以发挥作用

1.3K40

Spark 开发环境搭建

,对于搭建开发环境,只需要设置一个配置项: export JAVA_HOME=/data/spark/java 准备工作,我们已经将其加入到 shell 环境变量中了,但在运行 shell...spark-shell 启动,会导入相关依赖库,并创建名称为 "sc" SparkContext 对象,这个对象是通向 spark 世界向导,我们已经可以交互环境开始第一次 Spark 分布式计算之旅了...重要: scalaVersion 必须与当前 spark 使用 scala 版本一致,否则生成 jar 包不一定能在 spark 环境运行,这个版本可以通过查看 $spark_root/jars/...托管依赖指在远程组件仓库(maven, ivy 等)管理依赖包,工程定义声明下使用版本,编译直接从远程下载。非托管依赖只存在于本地依赖包,默认为工程根目录下 "lib" 子目录。...6、提交运行 终于可以 run 了~~~~ # 之前已经通过 nfs 将 hdfs 挂载到本地文件系统,先删除 output 目录,避免程序结束保存结果冲突 $ rm -rf /mnt/hdfs

6.8K21

傻白甜,约不约?

sbt 项目依赖 使用 scala 时候,大家一定要注意自己sdk版本以及配置依赖包版本要一致,如果不符,就会出现各种奇怪问题 libraryDependencies += "org.apache.spark...+= "com.typesafe.akka" %% "akka-stream" % "2.6.10" akka Akka是JAVA虚拟机平台上构建高并发、分布式和容错应用工具包和运行时。...Akka特点: 对并发模型进行了更高抽象 是异步、非阻塞、高性能事件驱动编程模型 是轻量级事件处理(1GB内存可容纳百万级别个Actor) 它提供了一种称为Actor并发模型,其粒度比线程更小,你可以系统启用大量...它提供了一套容错机制,允许Actor出现异常进行一些恢复或重置操作。 Akka既可以单机上构建高并发程序,也可以在网络构建分布式程序,并提供位置透明Actor定位服务。...} /** * 为了不让while运行速度receive方法之上,我们可以让他休眠0.1秒 */ Thread.sleep(100) }

79230

geotrellis使用(六)Scala并发(并行)编程

二、SBT简介       使用Scala语言编程,最好使用SBT框架,可以自动帮你完成包管理等,相当于javamaven,下面先简单介绍一下SBT基础。      ...安装完成之后,IDEA安装sbt插件,然后选择创建SBT项目,与普通Scala语言最主要不同是会创建一个build.sbt文件,这个文件主要记录就是项目的依赖等,要添加依赖就可以添加如下两行代码...引入akka只需要在build.sbt文件添加在SBT操作一节中介绍代码即可,但是要根据自己Scala版本以及要使用akka版本进行修改。添加完之后IDEA会自动去下载akkaactor包。...system,用于管理Actor,第二句就是system创建一个上面MyActor实例。...子Actor,具体命令如下: val remoteActor = context.actorSelection("akka.tcp://remoteSys@127.0.0.1:5150/user/remoteactor

1.4K50

sbt依赖管理逻辑

Test 配置:测试依赖,仅在测试可用。 Provided 配置:编译依赖,但不包含在打包,通常用于容器或框架提供库。 Runtime 配置:运行时依赖,不在编译使用。...sbt依赖冲突及解决 sbt,依赖冲突通常指的是当项目中存在多个依赖项,而这些依赖项又引入了相同库但是不同版本所产生问题。...依赖管理我们已经铺垫了很多东西,接下来我们就进入它底层实现原理: sbt 依赖管理底层基本原理 我们首先需要了解就是sbt依赖树,我们解决依赖冲突提到过 依赖树 依赖管理,所有的依赖组成一个树状结构...它会根据声明中指定组、模块和版本信息来确定正确依赖项,并下载对应 JAR 文件。 4 依赖项冲突解决 解析依赖项过程,可能会出现依赖项冲突情况,即同一个模块被多个不同版本所依赖。...sbt使用 Ivy 冲突解决策略来解决这些冲突,通常是选择最接近项目要求版本。关于这些冲突问题后面会有提到。

8810

使用Akka HTTP构建微服务:CDC方法

同时考虑到所有HTTP元素必须匹配(方法,url,标题,正文和查询) 用于验证消费者契约实际测试定义: 此代码将针对以前方案运行,虚拟服务器将响应 交互部分定义唯一HTTP请求(如果响应为deined...sbtsbt test:它执行扩展了FunSpec和WordSpec所有测试(如在build.sbt定义) sbt pactTest:它执行所有pacts测试 该测试验证了消费者协议,并生成提供者必须遵守契约...所以我们可以实现一个数据库迁移,它能够启动应用任何必要数据库更改来执行应用程序。...test命令来做到这一点 如果我们启动服务器,用sbt run命令,并执行GET /search/category,我们应该得到我们两个类别: pasted image 0.png 总结 消费者驱动契约测试是一项非常棒技术...解决了如何在消费者和提供者项目之间共享契约验证结果问题 告诉您可以将应用程序哪个版本安全地部署在一起,自动地将您合同版本部署在一起 允许您确保多个消费者版本和提供者版本之间向后兼容性(例如,移动或多租户环境

7.4K50

负载,性能测试工具-Gatling

测试结束,Gatling会自动生成详尽,动态且丰富多彩报告。 平均值和平均数据是不够:使用Gatling,您可以得到适当响应时间百分位数。不要让最慢用户落后! ?...例:ulimit -n $ ulimit -n 65536 但是,这只会更改当前shell会话限制。系统范围内,永久性地更改限制因系统而异。...然后,您只需要一个文本编辑器(Scala语法高亮)来编辑模拟,您就可以从命令行启动Gatling。 查看我们下载页面以获取下载链接。 将下载包解压缩到您选择文件夹。...与OSX一样,操作系统有自己棘手方法来发现要运行Java版本,因此最终可能会运行与您告诉您版本不同版本。如果您遇到奇怪错误,并且您希望运行JDK8,则可能需要明确设置JAVA_HOME。...有了这个插件,Gatling可以构建项目启动,例如使用您最喜欢CI解决方案。 Versions 查看Maven Central上可用版本

3.5K30

geotrellis使用(二十四)将Geotrellis移植到CDH必须要填若干个坑

降低版本sbt依赖如下: "io.spray" % "spray-routing" % "1.2.3", "io.spray" % "spray-can" % "1.2.3...",        造成这个问题原因应该是spray与cloudera运行时classpath某个库冲突了,通过以上方式应该能解决这个问题,解决了这个问题后就可以正常发起WEB服务运行我们APP...运行日志文件,不然应该也较快解决了,日志文件/var/log/accumulo),反复检查Accumulo配置等等,均没有问题,最后使出了一个大招,程序加了个try catch,果然出现问题了,...三、总结        本文为大家介绍了我将geotrellis程序部署到CDH遇到几个问题及解决方案,看似简单几句话事情,其实足足折腾了好几天。...而且每个人由于实际配置版本等不同,部署过程可能会遇到这些问题,也可能会遇到新问题。总之,只要你能够自己折腾那么一番不管结果如何,一定会在过程中学到很多东西。

88550

ScalaPB(4): 通用跨系统protobuf数据,sbt设置

我们知道,集群环境节点之间进行交换数据必须经过序列化/反序列化处理过程,而在这方面protobuf是一个比较高效、易用模式。...用户首先在.proto文件中用IDL来定义系统各种需要进行交换数据类型。然后用protoc编译器自动产生相关源代码,里面包括了完整序列化处理函数。...一个集成系统环境内,protobuf数据必须保持与所有系统松散耦合,不能对这些用户系统有任何依赖。...使用方sbt项目里可以用unmanagedBase指定.jar路径或者把包放到默认lib/目录下: lazy val commonSettings = Seq( name := "using-common-protobuf-data...test-resources" 3、改变默认附加库路径:(lib/) unmanagedBase := baseDirectory.value / "jars" //只在编译引用 unmanagedBase

1.1K40

Play For Scala 开发指南 - 第4章 第一个Play项目

准备环境  安装JDK8 单击这里下载并安装JDK8,安装完成后命令行查看Java版本号: C:\Users\Lenovo>java -version java version "1.8.0_111...第一次启动,由于SBT要下载大量依赖,所以时间可能会久一点,倒数第二行表明,Play项目已经9000端口启动成功了。...Play并没有实现Servlet容器,而是使用Akka Http实现了一个高性能Http服务器,所以Play项目的运行不依赖于Tomcat等Servlet容器。...通常开发流程是:首先在命令行执行sbt run,以开发模式启动项目,浏览器打开http://localhost:9000 ,然后IDEA修改代码,改完后直接刷新浏览器即可。...这是由于模板函数index是项目编译过程动态生成,所以新增模板函数IDEA中会提示找不到,这时只要在命令行执行sbt compile,然后SBT projects窗口单击蓝色刷新按钮,错误即会消失

2.7K40

Spark那些外部框架

http://spark-packages.org/ 当你想用一个Spark package,可以spark-submit命令或者spark- shell命令增加包选项: $ $Spark_HOME...如果要在你项目中包含此插件,请务必sbt项目的project/plugins.sbt文件写入下面的代码: resolvers += "bintray-Spark-packages" at "https...% "0.2.3") 发布Spark包必须提供如下信息,应该把它们写到build.sbt: spName——package名称。...现在,假设你job已经通过REST API发送。spark-jobserver项目目录下有一个著名单词计数例子。下载这个例子源码后,用sbt命令编译。...(2)选择运行在spark-jobserver上主类。 提交job不需要每次都编写Spark应用或者编译它,即使你想与其他人共享。

1.3K10

——快速入门

本篇文档是介绍如何快速使用spark,首先将会介绍下sparkshell交互api,然后展示下如何使用java,scala,python等语言编写应用。可以查看编程指南了解更多内容。...shell,既可以使用scala(运行在java虚拟机,因此可以使用java库)也可以使用python。可以sparkbin目录下启动spark shell: ....这个程序仅仅是统计文件包含字符a和b分别都有多少行。你可以设置YOUR_SPARK_HOME替换自己文件目录。不像之前shell例子那样,我们需要自己初始化sparkContext。.../src/main/scala/SimpleApp.scala # Package a jar containing your application 运行sbt命令进行打包 $ sbt package...那么可以参考下面的链接获得更多内容: 为了更深入学习,可以阅读Spark编程指南 如果想要运行Spark集群,可以参考部署指南 最后,Sparkexamples目录内置了多种语言版本例子,如scala

1.3K90

geotrellis使用初探

Geotrellis主要涉及到知识点包括Scala,sbt,Spark,Akka。貌似每项都不是善茬,基本都没有怎么接触过,除了Scala稍微接触过,那么只能完全从头开始学习了。...完全没有思路,看到sbt,那就开始学习sbt吧,sbt其实是相当于Maven一个框架,能够帮我们管理scala项目,刚开始为了跑例子,也没有怎么研究,就是看到说直接到项目目录运行....部署了Spark环境(参考之前一篇文章使用Ambari安装hadoop集群),然后又研究了sbtWindows笔记本上搭建了开发环境(IDEA+SCALA+SBT),这块网上介绍也很多,不在这里介绍...然后把Geotrellis clone到本地,简单看了一下源码,发现比较高深,一筹莫展,打个jar包放到服务器上,运行spark-shell然后按照reademe步骤一步步来,无奈一直报错,根本不知道什么原因...)是geotrellishelloworld,clone本地之后运行,OK一切正常,然后将geotrellis项目中Reademe东西拿来测试,OK跑通,心中甚是激动。

1.6K80

akka-grpc - 基于akka-http和akka-streamsscala gRPC开发工具

http/1应用对二进制文件传输交换有诸多限制和不便,特别是效率方面的问题。protobuf这种序列化模式对任何类型数据格式都一视同仁,可以很方便实现图片等文件上传下载。...实际上,使用scalaPB过程中一直关注akka-grpc发展,直到v1.01发布。这是一个正式版本,相信不会在模式、风格、语法上再有大改变,应该值得试着使用了。...也许,开发一套内部IT系统过程akka-grpc可以很趁手。...akka-grpc官网上有很好示范例子。我例子基础上增加了身份验证使用示范。...上面提到,虽然http/2推出已经不短时间了,但尚未得到普及性认可。即使是低点版本websocket,也只能在一小撮专业应用得到使用。

1.9K20

ScalaPB(1): using protobuf in akka

任何类型实例作为消息两端独立系统机器之间进行传递必须经过序列化/反序列化serialize/deserialize处理过程。...假设以下场景:一个网络里有两台连接服务器,它们分别部署了独立akka系统。如果我们需要在这两台服务器akka系统之间进行消息交换的话,所有消息都必须经过序列化/反序列化处理。...akka中使用自定义序列化方法包括下面的这些步骤: 1、.proto文件对消息类型进行IDL定义 2、用ScalaPB编译IDL文件并产生scala源代码。...这些源代码包括了涉及消息类型及它们操作方法 3、akka程序模块import产生classes,然后直接调用这些类型和方法 4、按akka要求编写序列化方法 5、akka.conf文件里...actor.serializers段落定义akka默认serializer 下面的build.sbt文件里描述了程序结构: lazy val commonSettings = Seq( name

1.6K30
领券