Loading [MathJax]/jax/input/TeX/config.js
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
社区首页 >问答首页 >nginx日志无法保存,第二天会被清除,不知道是为什么?

nginx日志无法保存,第二天会被清除,不知道是为什么?

提问于 2018-02-11 20:55:00
回答 4关注 0查看 1.8K

我昨天开启了nginx日志功能,并也看到了生成的日志。但我今天凌晨的时候发现昨天的日志内容没有了。我也并没有在log目录中看任何诸如access.log.2018.02.12这样类似格式的文件。这让我很担心,不知道是配置方面的问题,还是被黑客攻击了。把我日志清除了。我nginx开启日志的配置如下:

user root;

worker_processes 4;

#error_log /dev/null;

error_log logs/error.log;

#error_log logs/error.log notice;

#error_log logs/error.log info;

pid conf/nginx.pid;

worker_rlimit_nofile 1024;

events {

use epoll;

worker_connections 1024;

}

http {

include mime.types;

default_type application/octet-stream;

include proxy.conf;

log_format yundns_log '$server_name $remote_addr [$time_local] "$request" $status $body_bytes_sent "$http_referer" "$http_user_agent"';

log_format main '$remote_addr - $remote_user [$time_local] "$request" '

# '$status $body_bytes_sent "$http_referer" '

# '"$http_user_agent" "$http_x_forwarded_for"';

access_log logs/access.log main;

server_tokens off;

sendfile on;

tcp_nopush on;

server_names_hash_bucket_size 256;

client_header_buffer_size 256k;

#large_client_header_buffers 4 32k;

large_client_header_buffers 4 256k;

client_body_buffer_size 256k;

client_header_timeout 3m;

client_body_timeout 3m;

send_timeout 3m;

client_max_body_size 50m;

keepalive_timeout 120;

fastcgi_intercept_errors on;

fastcgi_connect_timeout 300;

fastcgi_send_timeout 300;

fastcgi_read_timeout 300;

#fastcgi_buffer_size 64k;

#fastcgi_buffers 8 64k;

#fastcgi_busy_buffers_size 128k;

#fastcgi_temp_file_write_size 128k;

fastcgi_buffer_size 128k;

fastcgi_buffers 4 256k;

fastcgi_busy_buffers_size 256k;

fastcgi_temp_file_write_size 256k;

gzip on;

gzip_min_length 1k;

gzip_buffers 4 16k;

gzip_http_version 1.0;

gzip_comp_level 2;

gzip_types text/plain application/x-javascript text/css application/xml;

gzip_vary on;

server {

listen 80;

server_name image.coolcarstime.com image1.coolcarstime.com;

#access_log off;

.....................................................................................................

回答 4

以往V

发布于 2018-02-12 09:45:39

我推荐你使用这个脚本,这个可以按天保存Nginx日志,你可以根据你的情况自行修改,最好保存日志的地方不是在同一个地方

代码语言:txt
AI代码解释
复制
#!/bin/bash
代码语言:txt
AI代码解释
复制
declare logs_path="/var/log/nginx";
代码语言:txt
AI代码解释
复制
declare need_delete_path=${logs_path}/$(date -d "7 days ago" "+%Y_%m_%d");
代码语言:txt
AI代码解释
复制
declare yestoday_log_path=${logs_path}/$(date -d "yesterday" "+%Y_%m_%d");
代码语言:txt
AI代码解释
复制
rm -rf ${need_delete_path}
代码语言:txt
AI代码解释
复制
rm -rf ${yestoday_log_path}
代码语言:txt
AI代码解释
复制
mv ${logs_path}/today ${yestoday_log_path}
代码语言:txt
AI代码解释
复制
mkdir -p ${logs_path}/today
代码语言:txt
AI代码解释
复制
/etc/init.d/nginx reload

不知雨

发布于 2018-02-12 09:55:27

尝试添加一下代码

代码语言:txt
AI代码解释
复制
access_log path [format [buffer=size] [gzip[=level]] [flush=time] [if=condition]];

path修改成你自己的日志路径

.

发布于 2018-02-12 14:44:37

赞成楼上意见,建议是修改一下路径试试,不行的话可能是被什么软件删除了,这样的话查查进程

和开发者交流更多问题细节吧,去 写回答
相关文章
解决logback无法生成第二天日志的问题
查项目时,发现项目启动时,有生成log日志,但到达第二天时,没有生成新的日志文件。 原来的logback配置如下:
星痕
2018/09/12
2.8K0
痕迹清除-Windows日志清除绕过
在我们日常的安全攻击过程中,登录尝试、流程开发、其他用户和设备行为都记录在 Windows 事件日志中,这将会增大自身被溯源的风险,针对于windows日志痕迹清除主要总结了以下这些方法
hyyrent
2022/12/26
3.2K0
痕迹清除-Windows日志清除绕过
日志安全之清除windows 日志
本来想研究清除 evtx 的事件 id 对应的 ip..暂时没有发现适合编辑 evtx 的脚本代码. 所以文中结尾的 powershell 脚本就出来了
Jumbo
2019/10/18
1.6K0
日志安全之linux清除日志
我有一个大胆的想法, 替换自己的 ip为随机 ip . 嫁祸给别人.水逆退散 先编写一个生成随机数的函数, 等会儿我们直接调用就行
Jumbo
2019/10/18
3.7K0
日志安全之linux清除日志
SQL SERVER ALWAYS ON 为什么日志无法dump
SQL SERVER 还有人用,对的,很多人都在用,尤其很多企业,非互联网的企业。那今天就说说 SQL SERVER ALWAYS ON 高可用集群中,为什么不切日志的问题。引起这篇文字的原因是有一个81G 都没有切除日志的 AWO集群。
AustinDatabases
2020/03/10
1.1K0
SQL SERVER  ALWAYS ON 为什么日志无法dump
Oracle RMAN 清除归档日志
      在开发环境及UAT环境经常碰到需要清除归档日志的情形,对于这个问题方法有很多。可以直接使用rm方式清除归档日志,也可以使用find命令来查找符合条件的记录来清除归档日志,或者直接写个shell脚本来搞定。这样在DEV或者UAT还可以,但是在Prod环境还是建议使用RMAN提供的命令来搞定比较妥当。因为rm,find方式删除了实际的归档日志也释放了空间,但对应的存储在控制文件中的归档信息并没有彻底清除。依旧占用着一些空间未能及时清除而需要控制文件通过age out方式来释放空间。本文描述了使用RMAN方式来清除归档日志,同时也可以将其部署到shell脚本中使用。
Leshami
2018/08/13
4K0
python保存日志
作为初学者,打印习惯了用print,昨天我们在用nodejs调用python的时候,python的打印信息我们看不到,这个很不利于问题的定位。因为打包成可执行文件后运行,也没有控制台,因此很有必要将日志保存到文件里,方便出问题时定位。
efonfighting
2019/10/24
2.1K0
python保存日志
从SharpNukeEventLog看日志清除
Github上了一个名叫SharpNukeEventLog的项目,目的是在执行敏感操作时不会产生windows日志记录。地址为:
鸿鹄实验室
2021/05/27
9630
mongodb清除连接和日志
感觉是pymongo未能完全close掉和mongodb创建的tcp连接,并且在mongo连接未自动释放前进行高频连接,导致连接数爆满造成的。
李玺
2021/11/22
1.1K0
mongodb清除连接和日志
Kafka日志设置和清除策略
config/log4j.properties中日志的级别设置的是TRACE,在长时间运行过程中产生的日志大小吓人,所以如果没有特殊需求,强烈建议将其更改成INFO级别。具体修改方法如下所示,将config/log4j.properties文件中最后的几行中的TRACE改成INFO,修改前如下所示:
加米谷大数据
2018/07/25
5.8K0
Kafka日志设置和清除策略
为什么我会被 Kubernetes“洗脑”?
Kubernetes已在容器编排之战中取胜,未来很可能会成为“多云”之上的标准层,进而为分布式系统的分发和运行带来根本性的改变。
DevOps时代
2018/03/20
1.5K0
为什么我会被 Kubernetes“洗脑”?
为什么要清除浮动及如何清除浮动
浮动其实是指元素从网页的正常流动中移除,即脱离文档流。选择将元素在其容器的左侧或右侧放置其实就是指元素在脱离文档流之后,元素一直向最左边或者右边靠拢,直至碰到父元素或者另一个浮动元素。
xinxin-l
2022/03/30
1.1K0
为什么要清除浮动及如何清除浮动
为什么我会被 Kubernetes “洗脑”?
普元云计算架构师宋潇男点评: Kubernetes已在容器编排之战中取胜,未来很可能会成为“多云”之上的标准层,进而为分布式系统的分发和运行带来根本性的改变,而其自身则会慢慢变得像Linux Kernel一样,成为一种系统底层的支撑,不再引人注目。 原文的标题是The Gravity of Kuberrnetes,但是从内容上看,更像是近些年流行的“XXX is dead. Long live XXX.”的风格,所以在翻译标题的时候我们恶搞了一下。 本文金句: 通过Kubernetes,分布式系统工具将拥有
纯洁的微笑
2018/07/20
9040
为什么我会被Kubernetes“洗脑”?
文 | Jeff Meyerson Kubernetes 已在容器编排之战中取胜,未来很可能会成为“多云”之上的标准层,进而为分布式系统的分发和运行带来根本性的改变,而其自身则会慢慢变得像 Linux Kernel 一样,成为一种系统底层的支撑,不再引人注目。 本文金句: 通过 Kubernetes,分布式系统工具将拥有网络效应。每当人们为 Kubernetes 制作出的新的工具,都会让所有其他工具更完善。因此,这进一步巩固了 Kubernetes 的标准地位。 云提供商并非可替换的商品。不同的云提
顶级程序员
2018/05/03
1.5K0
为什么我会被Kubernetes“洗脑”?
vue 刷新保存数据_vuex数据何时清除
在项目中我们通常会遇到这样一个情况,客户不允许把信息存储在 sessionStorage / localStorage 因为这样会暴露一些存储信息,安全起见只能存储在 vuex 里面,但是 vuex 刷新之后 state 里面的信息依旧会被清除,我们的思路是刷新之前把所有的数据存储在 localStorage 里面,刷新后取出里面的数据,并清除 local/session 里面的记录,这种全局的我们可以放在 app.vue 里面,下面是代码实现
全栈程序员站长
2022/11/19
1.4K0
LINUX编写脚本定时清除日志
先看linux上是否安装crontab如果没有根据以下博客安装:https://www.cnblogs.com/Alan-Jones/p/8022936.html
余生大大
2022/11/02
1.9K0
nginx日志
通过访问日志,你可以得到用户地域来源、跳转来源、使用终端、某个URL访问量等相关信息;通过错误日志,你可以得到系统某个服务或server的性能瓶颈等。因此,将日志好好利用,你可以得到很多有价值的信息。
后端技术探索
2018/08/10
1K0
Linux/Unix shell 脚本清除归档日志文件
      对于DEV以及UAT环境,有些时候,数据库需要处于归档模式,但并不需要备份数据库。因此,archive归档日志不停的增长导致磁盘空间被大量耗用。对于这种情形,可以使用一个shell脚本来定时自动清除这些归档日志。本文给出了清除归档日志的脚本。
Leshami
2018/08/14
1.2K0
GuzzleHttp 异常信息为什么会被截取?
当我们在使用这个扩展包的时候,发送一些请求,当请求出现问题,就要去获取他的异常,而当我们使用下面的代码时,会发现异常会被截断
咪啪咪啪
2019/11/15
1.6K0
点击加载更多

相似问题

nginx日志error报错?

1205

人脸识别正常调用的日志保存时间是多久?

1223

如何清除SQL Server事务日志?

2937

修改 Nginx 配置:不知道具体修改?

2633

nginx配置好了ssl证书但是https无法访问,只能通过http访问是为什么?

1355
相关问答用户
腾讯云TDP | TDP会员擅长3个领域
到家集团 | 技术VP擅长5个领域
web前端擅长4个领域
添加站长 进交流群

领取专属 10元无门槛券

AI混元助手 在线答疑

扫码加入开发者社群
关注 腾讯云开发者公众号

洞察 腾讯核心技术

剖析业界实践案例

扫码关注腾讯云开发者公众号
领券
社区富文本编辑器全新改版!诚邀体验~
全新交互,全新视觉,新增快捷键、悬浮工具栏、高亮块等功能并同时优化现有功能,全面提升创作效率和体验
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
查看详情【社区公告】 技术创作特训营有奖征文