首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

红队第5篇:MS12-020蓝屏漏洞在实战中的巧用

大家好,上期分享了一篇Shiro Oracle Padding反序列化漏洞无key的实战文章,这期讲一个MS12-020蓝屏漏洞的真实利用过程。这个案例源于2013年我在读研期间,印象是比较深的。在学校期间,我偶尔会帮网络部那边处理一些网站故障,还帮忙修补过安全漏洞。在那个年代,大学网站的漏洞是非常多的,基本上没有什么WAF设备防护。期间有一个大学网站大概是长时间没有人用,崩溃了,访问一直是卡死状态,服务器密码学校那边也不记得了。于是我就来了一顿操作,帮忙恢复了一下,中间也踩了不少坑。首先肯定是要想办法拿到服务器权限,然后帮学校把密码读出来,下面凭着记忆,把过程写出来。

02

SAP ECC6.0内存参数调整和调优

如果你的SAP跑在Windows环境下,SAP是建议“零内存 管理”的,我在AIX,Solaris和Linux下都跑过SAP,控制ST02的参数还是需要手工调的。如果你双 击带红的行,然后选“Current Parameter”键,SAP会告诉你哪个参数来调这一行缓冲区。我个人 以为,如果想成为SAP Basis性能调试高手,你必须钻进ST02的细节中去了解每一行都是干什么 的,受什么影响,又如何影响性能。SAP在线帮助“SAP Memory Management”是我研究这一领域的 基础文献,读了不下20遍,等你吃透了,你就可以和SAP争论他的GoLive Check报告了。象你这 ST02的状态,我认为EWA或者GoLive报告应该能给你正确的建议的。 分析一下: 首先,你需要查每个Buffer的历史,来看到底是空间不够,还是FreeEntry不够。 1. Field Definitiion 我估计是空间不足,参数rsdb/ntab/ftabsize现在是60000,建议改到80000或100000 2. Initial records 通常情况下是由于FreeDictionaryEntry不足,你现在的7500是由rsdb/ntab /entrycount=30000决定的(除四),建议你把这参数调到60000 3. program 600MB的ABAP程序缓冲对于ECC系统来说有些小了,建议把abap/buffersize从600000调整到 1024000(1GB)。 4. CUA 建议把rsdb/cua/buffersize调整到20000 5. Screen 建议把zcsa/presentation_buffer_area从20000000调整到30000000,sap/bufdir_entries从 10000调整到5000(原设定有些大,不盖也无所谓) 6. Generic Key 建议把zcsa/table_buffer_area从100000000调整到200000000,zcsa/db_max_buftab从10000 调整到20000。这对参数对你系统性能的影响挺大的,尽量不要让它红。 7. Export/import 建议把rsdb/obj/buffersize从40000调整到100000。 除此之外,我认为SAP的em/initial_size_MB=7189是合理的,只不过不是用来解决你的红色的问 题罢了。如果你的机器内存允许,我认为应当按建议设置。当然你还需要调整 ztta_roll_extension* 和abap/heap_area*参数来控制每一Work Process所能消耗的内存,既要让它跑,又要防止它把内存都吃了,需要根据你的ECC Workload的特点来调整。 最后有两点提醒: 1. 改完参数后,一定要到OS上用sappfpar check pf=<profile>来检查一下是否有错,否则系统 是起不来的。 2. 如果又设置了大的Oracle SGA/PGA,或者有超过200的用户要同时使用,你的系统 就会大量使用虚拟内存,OS swaping是很毁系统性能的,你可能需要更多的内存。< xmlnamespace prefix ="v" ns ="urn:schemas-microsoft-com:vml" />< xmlnamespace prefix ="o" ns ="urn:schemas-microsoft-com:office:office" />

03

Hive快速入门系列(17) | Hive性能调优 [四] 并行执行

Hive会将一个查询转化成一个或者多个阶段。这样的阶段可以是MapReduce阶段、抽样阶段、合并阶段、limit阶段。或者Hive执行过程中可能需要的其他阶段。默认情况下,Hive一次只会执行一个阶段。不过,某个特定的job可能包含众多的阶段,而这些阶段可能并非完全互相依赖的,也就是说有些阶段是可以并行执行的,这样可能使得整个job的执行时间缩短。不过,如果有更多的阶段可以并行执行,那么job可能就越快完成。   通过设置参数hive.exec.parallel值为true,就可以开启并发执行。不过,在共享集群中,需要注意下,如果job中并行阶段增多,那么集群利用率就会增加。

01
领券