首页
学习
活动
专区
工具
TVP
发布

菲宇

专栏作者
743
文章
1621017
阅读量
55
订阅数
LINUX运维常用命令详解三
功能:格式化打印数据。默认打印字符串不换行。 格式:printf format[arguments] 常用选项:     format:     %.ns  输出字符串,n是输出几个字符     %ni  输出整数,n是输出几个数字     %m.nf 输出浮点数,m是输出的整数位数,n是输出的小数位数     %x   不带正负号的十六进制值,使用a至f表示10至15     %X   不带正负号的十六进制,使用A至F表示10至15     %%   输出单个% 一些常用的空白符:     \n  换行     \r  回车     \t  水平制表符     对齐方式:     %-5s   对参数每个字段左对齐,宽度为5     %-4.2f  左对齐,宽度为4,保留两位小数     不加横线"-"表示右对齐。
菲宇
2022-12-02
9900
Apache基本使用总结
KeepAlive是什么东西?它是http协议的一部分,让我们复习一下没有KeepAlive的http请求,从客户在浏览器输入一个有效url地址开始,浏览器就会利用socket向url对应的web服务器发送一条TCP请求,这个请求成功一次就得需要来回握三次手才能确定,成功以后,浏览器利用socket TCP连接资源向web服务器请求http协议,发送以后就等着web服务器把http返回头和body发送回来,发回来后浏览器关闭socket连接,然后做http返回头和body的解析工作,最后呈现在浏览器上的就是漂亮的页面了。这里面有什么问题呢?TCP连接需要三次握手,也就是来回请求三次方能确定一个TCP请求是否成功,然后TCP关闭呢?来回需要4次请求才能完成!每次http请求就3次握手,4次拜拜,这来来回回的不嫌累啊,多少时间和资源都被浪费在socket连接关闭上了,能不能一次socket TCP连接发送多次http请求呢?于是KeepAlive就应运而生,http/1.0里需要客户端自己在请求头加入Connection:Keep-alive方能实现,在这里我们只考虑http1.1了,只需要设置一下Apache,让它默认就是Keep-Alive持久连接模式(Apache必须1.2+才能支持Keep-Alive)。在httpd.conf里找到KeepAive配置项,果断设置为On,MaxKeepAliveRequests果断为0(一个持久TCP最多允许的请求数,如果过小,很容易在TCP未过期的情况下,达到最大连接,那下次连接就又是新的TCP连接了,这里设置0表示不限制),然后对于mysql_pconnect最重要的选项KeepAliveTimeout设置为15(表示15秒), httpd-2.4支持毫秒级持久时间。 测试:
菲宇
2022-12-02
8080
MySQL的连接命令
该函数有 6 个参数,在成功链接到 MySQL 后返回连接标识,失败返回 FALSE 。
菲宇
2022-12-02
1.7K0
Django使用websocket实现实时消息推送和聊天
WebSocket 是 HTML5 开始提供的一种在单个 TCP 连接上进行全双工通讯的协议。
菲宇
2020-05-01
1.1K0
python模块之io
当用户进程调用了recvfrom这个系统调用,kernel就开始了IO的第一个阶段:准备数据。对于network io来说,很多时候数据在一开始还没有到达,这个时候kernel就要等待足够的数据到来,而在用户进程这边,整个进程会被阻塞。
菲宇
2019-06-13
8580
supervisor管理进程
Supervisor (http://supervisord.org) 是一个用 Python 写的进程管理工具,可以很方便的用来启动、重启、关闭进程(不仅仅是 Python 进程),只需要简单的配置一下即可,且有web端,状态、日志查看清晰明了。。除了对单个进程的控制,还可以同时启动、关闭多个进程,比如很不幸的服务器出问题导致所有应用程序都被杀死,此时可以用 supervisor 同时启动所有应用程序而不是一个一个地敲命令启动。组成部分:supervisord[服务端,要通过这个来启动它]和supervisorctl[客户端,执行stop等命令]
菲宇
2019-06-13
6880
kafka入门:简介、使用场景、设计原理、主要配置及集群搭
Kafka is a distributed,partitioned,replicated commit logservice。它提供了类似于JMS的特性,但是在设计实现上完全不同,此外它并不是JMS规范的实现。kafka对消息保存时根据Topic进行归类,发送消息者成为Producer,消息接受者成为Consumer,此外kafka集群有多个kafka实例组成,每个实例(server)成为broker。无论是kafka集群,还是producer和consumer都依赖于zookeeper来保证系统可用性集群保存一些meta信息。
菲宇
2019-06-12
5080
没有更多了
社区活动
腾讯技术创作狂欢月
“码”上创作 21 天,分 10000 元奖品池!
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档