首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Nginx - 参数

Nginx - 参数

作者头像
断痕
发布2021-01-21 14:54:06
1.1K0
发布2021-01-21 14:54:06
举报
文章被收录于专栏:edlcloudedlcloudedlcloud

概述

Nginx一些参数的设置与解释。

我用过的不过,不过也留个记录说不定未来需要用到。

大多数来源网络扒的。

具体内容

#user  nobody;
worker_processes  8;

#error_log  logs/error.log;
#error_log  logs/error.log  notice;
error_log  logs/error.log  info;

pid        logs/nginx.pid;

events {

    #epoll是多路复用IO(I/O Multiplexing)中的一种方式,
    #仅用于linux2.6以上内核,可以大大提高nginx的性能
    use   epoll;

    #单个后台worker process进程的最大并发链接数
    worker_connections  65535;

    # 并发总数是 worker_processes 和 worker_connections 的乘积
    # 即 max_clients = worker_processes * worker_connections
    # 在设置了反向代理的情况下,max_clients = worker_processes * worker_connections / 4  为什么
    # 为什么上面反向代理要除以4,应该说是一个经验值
    # 根据以上条件,正常情况下的Nginx Server可以应付的最大连接数为:4 * 8000 = 32000
    # worker_connections 值的设置跟物理内存大小有关
    # 因为并发受IO约束,max_clients的值须小于系统可以打开的最大文件数
    # 而系统可以打开的最大文件数和内存大小成正比,一般1GB内存的机器上可以打开的文件数大约是10万左右
    # 我们来看看360M内存的VPS可以打开的文件句柄数是多少:
    # $ cat /proc/sys/fs/file-max
    # 输出 34336
    # 32000 < 34336,即并发连接总数小于系统可以打开的文件句柄总数,这样就在操作系统可以承受的范围之内
    # 所以,worker_connections 的值需根据 worker_processes 进程数目和系统可以打开的最大文件总数进行适当地进行设置
    # 使得并发总数小于操作系统可以打开的最大文件数目
    # 其实质也就是根据主机的物理CPU和内存进行配置
    # 当然,理论上的并发总数可能会和实际有所偏差,因为主机还有其他的工作进程需要消耗系统资源。
    # ulimit -SHn 65535
}

http {

	#设定mime类型,类型由mime.type文件定义
    include    mime.types;
    default_type  application/octet-stream;
    #设定日志格式
    log_format  main  '$http_fw_addr - $remote_addr - $remote_user [$time_local] "$request" '
                      '$status $body_bytes_sent "$http_referer" '
                      '"$http_user_agent" "$http_x_forwarded_for"';

    access_log  logs/access.log  main;

    #sendfile 指令指定 nginx 是否调用 sendfile 函数(zero copy 方式)来输出文件,
    #对于普通应用,必须设为 on,
    #如果用来进行下载等应用磁盘IO重负载应用,可设置为 off,
    #以平衡磁盘与网络I/O处理速度,降低系统的uptime.
    sendfile     on;
    #防止网络阻塞
    tcp_nopush     on;
    #防止网络阻塞
    tcp_nodelay     on;

    #连接超时时间,单位是秒
    #keepalive_timeout  0;
    keepalive_timeout  65;

    #FastCGI相关参数是为了改善网站的性能:减少资源占用,提高访问速度。下面参数看字面意思都能理解。
    fastcgi_connect_timeout 300;
    fastcgi_send_timeout 300;
    fastcgi_read_timeout 300;
    fastcgi_buffer_size 64k;
    fastcgi_buffers 4 64k;
    fastcgi_busy_buffers_size 128k;
    fastcgi_temp_file_write_size 128k;

    #gzip模块设置
    gzip  on;#开启gzip压缩
    gzip_disable "MSIE [1-6].";
    gzip_min_length 1k; #最小压缩文件大小
    gzip_buffers 4 16k; #压缩缓冲区
    gzip_http_version 1.0; #压缩版本(默认1.1,前端如果是squid2.5请使用1.0)
    gzip_comp_level 2; #压缩等级
    #压缩类型,默认就已经包含textml,所以下面就不用再写了,写上去也不会有问题,但是会有一个warn。
    gzip_types text/plain application/x-javascript text/css application/xml;
    gzip_vary on;
    #limit_zone crawler $binary_remote_addr 10m; #开启限制IP连接数的时候需要使用

    #这个将为打开文件指定缓存,默认是没有启用的,max 指定缓存数量,建议和打开文件数一致,inactive 是指经过多长时间文件没被请求后删除缓存。
    open_file_cache max=100000 inactive=60s;
    #这个是指多长时间检查一次缓存的有效信息
    open_file_cache_valid 80s; 
    #指令中的inactive 参数时间内文件的最少使用次数,如果超过这个数字,文件描述符一直是在缓存中打开的,如上例,如果有一个文件在inactive 时间内一次没被使用,它将被移除。
    open_file_cache_min_uses 2;

    #设定请求缓冲
    client_header_buffer_size    128k;
    large_client_header_buffers  4 128k;
    proxy_connect_timeout 600;              #nginx跟后端服务器连接超时时间(代理连接超时)  
    proxy_read_timeout    600;              #连接成功后,后端服务器响应时间(代理接收超时)  
    proxy_send_timeout    600;              #后端服务器数据回传时间(代理发送超时)  
    proxy_buffer_size     32k;              #设置代理服务器(nginx)保存用户头信息的缓冲区大小  
    proxy_buffers         4 64k;            #proxy_buffers缓冲区,网页平均在64k以下的话,这样设置  
    proxy_busy_buffers_size  128k;           #高负荷下缓冲大小(proxy_buffers*2)  
    proxy_temp_file_write_size  1024m;      #设定缓存文件夹大小,大于这个值,将从upstream服务器传递请求,而不缓冲到磁盘  
    proxy_ignore_client_abort on;           #不允许代理端主动关闭连接
 
    #限制IP
    #limit_req_zone $http_fw_addr zone=allips:500m rate=40r/m;
    #limit_conn_zone $http_fw_addr  zone=addr1:500m;

	#设定负载均衡的服务器列表,API
	#upstream server_portal {  
        #weigth参数表示权值,权值越高被分配到的几率越大
		#server 172.17.143.2:8080 weight=1;
		#server 192.168.0.138:9945 weight=1;
		#server 192.168.0.139:9946 weight=1;
	#}

    server {
        #侦听80端口
        listen 9081;
        #定义使用 218.78.7.55 访问
        server_name   218.78.7.55;

		charset utf-8;

        #设定本虚拟主机的访问日志
        access_log  logs/nginx.access.log  main;

		#网站地址
		location /{
			root   /app/nginx/html;
			index  index.html index.htm; 
		}

        location /upload {
            alias  /app/upload;
       	}

		# 定义错误提示页面
		#	error_page   500 502 503 504 /503.html;  
		#	    location = /503.html {
		#	    root   /app/nginx/html;
		#	}
        #error_page  404              /404.html;

        # redirect server error pages to the static page /50x.html
        #

		#定义反向代理服务
		#location /api {
			#proxy_pass http://act-api/api;
			#proxy_redirect off;
			#proxy_set_header Host $host;
			#proxy_set_header X-Real-IP $remote_addr;
			#proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
			#client_max_body_size 50m;
			#client_body_buffer_size 128k;
			#proxy_connect_timeout 600;
			#proxy_send_timeout 600;
			#proxy_read_timeout 600;
			#proxy_buffer_size 32k;
			#proxy_buffers 4 64k;
			#proxy_busy_buffers_size 128k;
			#proxy_temp_file_write_size 128k;
		#}
    }

	#定义第二个Server以及第n个....
    # another virtual host using mix of IP-, name-, and port-based configuration
    #
    #server {
    #    listen       8000;
    #    listen       somename:8080;
    #    server_name  somename  alias  another.alias;

    #    location / {
    #        root   html;
    #        index  index.html index.htm;
    #    }
    #}

    # 配置SSL HTTPS server
    #
    #server {
    #    listen       443 ssl;
    #    server_name  localhost;

    #    ssl_certificate      cert.pem;
    #    ssl_certificate_key  cert.key;

    #    ssl_session_cache    shared:SSL:1m;
    #    ssl_session_timeout  5m;

    #    ssl_ciphers  HIGH:!aNULL:!MD5;
    #    ssl_prefer_server_ciphers  on;

    #    location / {
    #        root   html;
    #        index  index.html index.htm;
    #    }
    #}

	#定义配置文件
	include vhost/*;
    #include vhost/local.conf;

}
本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2020-09-12,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 概述
  • 具体内容
相关产品与服务
负载均衡
负载均衡(Cloud Load Balancer,CLB)提供安全快捷的流量分发服务,访问流量经由 CLB 可以自动分配到云中的多台后端服务器上,扩展系统的服务能力并消除单点故障。负载均衡支持亿级连接和千万级并发,可轻松应对大流量访问,满足业务需求。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档