首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

apache

Linux/UnixLinux系统下Apache 并发数的优化 Apache Http Server在刚安装完后是没有并发数的控制的,它采用一个默认的值,那么我们的Web Server硬件很好,允许我们撑到...如果需要更大,则必须编译apache,此前都是不需要重新编译Apache。...在Unix中,为了能够绑定80端口,父进程一般都是以root身份启动,随后,Apache以较低权限的用户建立子进程和线程。 User和Group指令用于设置Apache子进程的权限。...WindowsWindows系统下Apache 并发数的优化 以上是Linux/Unix下的Apache的并发数优化配置,如果我们打入了httpd –l如下显示: 怎么办?...注意: 修改后,一定不要apacherestart,而是先 apache stop 然后再 apache start才可以。

92720

Spark 性能之Shuffle

因此,如果要让作业的性能更上一层楼,就有必要对 shuffle 过程进行。...但是也必须提醒大家的是,影响一个 Spark 作业性能的因素,主要还是代码开发、资源参数以及数据倾斜,shuffle 只能在整个 Spark 的性能中占到一小部分而已。...因此大家务必把握住的基本原则,千万不要舍本逐末。下面我们就给大家详细讲解 shuffle 的原理,以及相关参数的说明,同时给出各个参数的建议。 2....5. shuffle相关参数 以下是Shffule过程中的一些主要参数,这里详细讲解了各个参数的功能、默认值以及基于实践经验给出的建议。...建议:在资源参数中讲解过这个参数。如果内存充足,而且很少使用持久化操作,建议调高这个比例,给 shuffle read 的聚合操作更多内存,以避免由于内存不足导致聚合过程中频繁读写磁盘。

1.2K30

Spark 性能之开发

Spark的性能实际上是由很多部分组成的,不是调节几个参数就可以立竿见影提升作业性能的。...整套方案主要分为开发、资源、数据倾斜、shuffle几个部分。...开发和资源是所有Spark作业都需要注意和遵循的一些基本原则,是高性能Spark作业的基础;数据倾斜,主要讲解了一套完整的用来解决Spark作业数据倾斜的解决方案;shuffle,面向的是对...Spark的原理有较深层次掌握和研究的同学,主要讲解了如何对Spark作业的shuffle运行过程以及细节进行。...本文作为Spark性能优化指南的基础篇,主要讲解开发。 2. 开发 2.1 概述 Spark性能优化的第一步,就是要在开发Spark作业的过程中注意和应用一些性能优化的基本原则。

95731

Spark 性能之资源

整套方案主要分为开发、资源、数据倾斜、shuffle几个部分。...开发和资源是所有Spark作业都需要注意和遵循的一些基本原则,是高性能Spark作业的基础;数据倾斜,主要讲解了一套完整的用来解决Spark作业数据倾斜的解决方案;shuffle,面向的是对...本文作为Spark性能优化指南的基础篇,主要讲解资源。 2. 资源 2.1 概述 在开发完Spark作业之后,就该为作业配置合适的资源了。...理解作业基本原理,是我们进行资源参数的基本前提。 2.3 资源参数 了解完了Spark作业运行的基本原理之后,对资源相关的参数就容易理解了。...参数建议:Executor的CPU core数量设置为2-4个较为合适。

1.6K30

Spark | Spark SQL参数

本文讲解最近关于在参与hive往spark迁移过程中遇到的一些参数相关问题的。 内容分为两部分,第一部分讲遇到异常,从而需要通过设置参数来解决的;第二部分讲用于提升性能而进行的。...异常 spark.sql.hive.convertMetastoreParquet parquet是一种列式存储格式,可以用于spark-sql 和hive 的存储格式。...java.lang.ClassCastException: org.apache.hadoop.io.LongWritable cannot be cast to org.apache.hadoop.io.IntWritable...性能 除了遇到异常需要被动调整参数之外,我们还可以主动调整参数从而对性能进行。...without explicit CROSS JOIN syntax. spark.sql.execution.arrow.enabled FALSE When true, make use of Apache

7.1K62

垂直转型谁将是下个聚美品?

垂直依然是美丽的故事 垂直的故事十分诱人。鞋服箱包、3C和化妆品是网络交易TOP3品类,这些领域的垂直不胜枚举:聚美品、乐蜂网、天天网、麦包包。...在成功上市或者频频曝光的垂直之外,还有不少玩家“活得很好”。以美妆为例,刚刚上市的美妆聚美品估值已高达43亿。...艰难的抉择 垂直的模范生非京东和聚美品莫属。京东发家于3C类产品,聚美品则是美妆,而3C和化妆品都是属于TOP3的商品类,其对应的市场空间本身便很大。...连京东和聚美品这样的“垂直”也避免不了综合化的路径,京东早已不再局限于3C,品类已颇为齐全;而聚美品在上市之后也很难在坚持美妆,将拓展服装、鞋包、家居等品类。...在京东逃离3C垂直之后,是否还有纯粹的垂直3C再度颠覆京东?在聚美品之后,是否还有专注美妆的抄起后路?答案只能留给时间。 垂直谁是下一个聚美品 还会有垂直成功上市吗?

58650

Spark性能06-JVM

Spark 和 JVM 的关系 再JVM虚拟机中,当创建的对象的数量很多时,Eden 和 Survior1 区域会很快的满溢,就需要进行频繁地 Minor GC,这样会导致有一些生命周期较短的对象迅速长到...Spark的JVM spark.storage.memoryFraction 参数说明: 该参数用于设置RDD持久化数据在Executor内存中能占的比例,默认是0.6。...根据你选择的不同的持久化策略,如果内存不够时,可能数据就不会持久化,或者数据会写入磁盘 参数建议: 如果Spark作业中,有较多的RDD持久化操作,该参数的值可以适当提高一些,保证持久化的数据能够容纳在内存中...此外,如果发现作业由于频繁的gc导致运行缓慢,意味着task执行用户代码的内存不够用,那么同样建议调低这个参数的值 资源参数的,没有一个固定的值,需要根据自己的实际情况(包括Spark作业中的shuffle...操作数量、RDD持久化操作数量以及spark web ui中显示的作业gc情况)来灵活的 4.

1.4K10
领券