首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    Apache日志文件增长太快解决办法

    Apache日志文件太大的问题肯定很多人都遇到过,刚刚上线的网站可能不用太在意这个问题,因为流量比较小,自然error.log与access.log文件内容也就少,文件容量不大,所以,配置时也不会考虑apache日志维护的方针。但如果网站流量上涨到一定程序时,单个error.log或access.log将无法应对日益增长的日志文件,以及日志分析的需求时就需要我们去解决了。解决的方法就是要对文件限制大小,然后进行回滚,也就是常说的apache日志分割与轮循了。下面就是关于apache日志回滚的具体配置内容:   默认的配置如下:   CustomLog "logs/access.log" common   ErrorLog "logs/error.log"   修改的配置则如下:   CustomLog "|bin/rotatelogs /var/logs/logfile 86400" common   CustomLog "|bin/rotatelogs /var/logs/logfile 5M" common   ErrorLog "|bin/rotatelogs /var/logs/errorlog.%Y-%m-%d-%H_%M_%S 5M"   另一种配置方法是:   # 限制错误日志文件为 1M   ErrorLog “|bin/rotatelogs.exe -l logs/error-%Y-%m-%d.log 1M”   # 每天生成一个错误日志文件   #ErrorLog “|bin/rotatelogs.exe -l logs/error-%Y-%m-%d.log 86400″   # 限制访问日志文件为 1M   CustomLog “|bin/rotatelogs.exe -l logs/access-%Y-%m-%d.log 1M” common   # 每天生成一个访问日志文件   #CustomLog “|bin/rotatelogs.exe -l logs/access-%Y-%m-%d.log 86400″ common   通过上述方法,每个人都可以很简单的解决apache日志文件增长太快的问题。

    01

    大数据开源框架技术汇总

    Hadoop:Apache Hadoop是一个开源的分布式系统基础框架,离线数据的分布式存储和计算的解决方案。Hadoop最早起源于Nutch,Nutch基于2003 年、2004年谷歌发表的两篇论文分布式文件系统GFS和分布式计算框架MapReduce的开源实现HDFS和MapReduce。2005年推出,2008年1月成为Apache顶级项目。Hadoop分布式文件系统(HDFS)是革命性的一大改进,它将服务器与普通硬盘驱动器结合,并将它们转变为能够由Java应用程序兼容并行IO的分布式存储系统。Hadoop作为数据分布式处理系统的典型代表,形了成完整的生态圈,已经成为事实上的大数据标准,开源大数据目前已经成为互联网企业的基础设施。Hadoop主要包含分布式存储HDFS、离线计算引擎MapRduce、资源调度Apache YARN三部分。Hadoop2.0引入了Apache YARN作为资源调度。Hadoop3.0以后的版本对MR做了大量优化,增加了基于内存计算模型,提高了计算效率。比较普及的稳定版本是2.x,目前最新版本为3.2.0。

    02
    领券