首页
学习
活动
专区
工具
TVP
发布

码字搬砖

专栏作者
209
文章
285336
阅读量
32
订阅数
JMM 知识点总结
屏蔽各种硬件和操作系统内存方法差异,以实现让 Java 程序在各个平台下都能达到一致的内存方法效果。 主要的目的:定义程序中各种变量的访问规则( 关注在虚拟机中变量存取与内存交互的底层细节 ) 包括:实例字段、静态字段和构成数组的对象元素,不包括局部变量与方法参数
shengjk1
2020-09-24
3830
maven 打包忽略checkstyle
mvn eclipse:eclipse -Dcheckstyle.skip=true
shengjk1
2020-06-11
2.9K0
一篇文章搞定 java 中的 path 和 classpath
设置 path 是为了方便使用 java、javac等这些命令而不用写全路径。 如:
shengjk1
2020-04-10
8130
Java8 的 String Concatenate 比 StringBuilder Apporaches 慢?
问题1: 文章说,大量 String + 连接比 通过 相应的StringBuilder 连接慢,要是在 Java7 之前我信,可以在 Java8 以及之后,编译器自动帮助我们把 + 优化成 StringBuilder (StringBuffer) 了。难道 Java8 的 String Concatenate 比 StringBuilder (StringBuffer) 慢?带着这样的疑问,决定好好的亲自试验一番。
shengjk1
2020-03-04
6030
初步认识Collator
1.Collator是什么? 主要是用来对区域敏感性的字符串比较的,对本地化字符串进行排序。 什么是区域敏感性字符串呢?比如中文,比如 ß,在德语中,你可能希望 ß (\u00DF) 被当作 b 或者 B 来进行排序,但事实上在该语言中 ß 的排序值高于正常的 s。再比如比较 “a”, “à”。
shengjk1
2020-02-26
1.2K0
Java8 的 String Concatenate 比 StringBuilder Apporaches 慢?
问题1: 文章说,大量 String + 连接比 通过 相应的StringBuilder 连接慢,要是在 Java7 之前我信,可以在 Java8 以及之后,编译器自动帮助我们把 + 优化成 StringBuilder (StringBuffer) 了。难道 Java8 的 String Concatenate 比 StringBuilder (StringBuffer) 慢?带着这样的疑问,决定好好的亲自试验一番。
shengjk1
2020-02-25
3490
程序的编译、链接、装载与运行
在Linux操作系统中,一段C程序从被写下到最终被CPU执行,要经过一段漫长而又复杂的过程。下图展示了这个过程
shengjk1
2019-12-03
1.3K0
Antl4 访问者模式返回对象
版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
shengjk1
2019-10-22
6170
基于slf4j实现多线程日志
对于多线程的程序来说,排错是一件特别麻烦的事情,特别是针对日志,多线程有可能发生日志写阻塞,那我们有没有可能每一个线程一个日志文件呢?答案是可以的,基于slf4j的MDC,具体MDC原理各位看官自行百度
shengjk1
2018-10-24
2.2K0
scrapy 传参
当爬虫上线时难免会希望动态传参,下面跟着小二一起学传参吧,喽喽喽! 直接上代码: 自己写的spider class MWMSpider(scrapy.Spider): name = 'mwm_flowers_spider' def __init__(self, **kwargs): self.city_name = kwargs['city_name'] self.run_time = kwargs['run_time'] self
shengjk1
2018-10-24
1.7K0
scrapy之ip池
备注: process_request(request, spider) 当每个request通过下载中间件时,该方法被调用。 process_request() 必须返回其中之一: 返回 None 、返回一个 Response 对象、返回一个 Request 对象或raise IgnoreRequest 。 如果其返回 None ,Scrapy将继续处理该request,执行其他的中间件的相应方法,直到合适的下载器处理函数(download handler)被调用, 该request被执行(其response被下载)。 如果其返回 Response 对象,Scrapy将不会调用 任何 其他的 process_request() 或 process_exception() 方法,或相应地下载函数; 其将返回该response。 已安装的中间件的 process_response() 方法则会在每个response返回时被调用。 如果其返回 Request 对象,Scrapy则停止调用 process_request方法并重新调度返回的request。当新返回的request被执行后, 相应地中间件链将会根据下载的response被调用。 如果其raise一个 IgnoreRequest 异常,则安装的下载中间件的 process_exception() 方法会被调用。如果没有任何一个方法处理该异常, 则request的errback(Request.errback)方法会被调用。如果没有代码处理抛出的异常, 则该异常被忽略且不记录(不同于其他异常那样)。 参数: request (Request 对象) – 处理的request spider (Spider 对象) – 该request对应的spider
shengjk1
2018-10-24
1.1K0
scrapy之user-agent池
常见的反爬策略有很多,今天我们一起跟随小省开始,ua的反爬之旅,咳咳咳,敲黑板喽!
shengjk1
2018-10-24
1.8K0
scrapy之原理
最近小二的公司,由于要获取数据但苦于没有爬虫,于是小二再次开始半路出家,经过小二的调研,最后决定用scraly来进行实现。虽然scrapy的中文资料不少,但成体系的很少,小二就在此总结一下,以为后来者提供方便
shengjk1
2018-10-24
1.1K0
没有更多了
社区活动
Python精品学习库
代码在线跑,知识轻松学
【玩转EdgeOne】征文进行中
限时免费体验,发文即有奖~
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·干货材料·成员作品·最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档