字节切片[]byte
是我们在编码中经常使用到的,比如要读取文件的内容,或者从io.Reader
获取数据等,都需要[]byte
做缓冲。
1 2 | func ReadFull(r Reader, buf []byte) (n int, err error) func (f *File) Read(b []byte) (n int, err error) |
---|
以上是两个使用到[]byte
作为缓冲区的方法。那么现在问题来了,如果对于以上方法我们有大量的调用,那么就要声明很多个[]byte
,这需要太多的内存的申请和释放,也就会有太多的GC。
这个时候,我们需要重用已经创建好的[]byte
来提高对象的使用率,降低内存的申请和GC。这时候我们可以使用sync.Pool
来实现,不过最近我在研究开源项目MinIO
的时候,发现他们使用channel
的方式实现字节池。
1 2 3 4 5 | type BytePoolCap struct { c chan []byte w int wcap int } |
---|
BytePoolCap
结构体的定义比较简单,共有三个字段:
c
是一个chan
,用于充当字节缓存池w
是指使用make
函数创建[]byte
时候的len
参数wcap
指使用make
函数创建[]byte
时候的cap
参数有了BytePoolCap
结构体,就可以为其定义Get
方法,用于获取一个缓存的[]byte
了。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 | func (bp *BytePoolCap) Get() (b []byte) { select { case b = <-bp.c: // reuse existing buffer default: // create new buffer if bp.wcap > 0 { b = make([]byte, bp.w, bp.wcap) } else { b = make([]byte, bp.w) } } return } |
---|
以上是采用经典的select+chan
的方式,能获取到[]byte
缓存则获取,获取不到就执行default
分支,使用make
函数生成一个[]byte
。
从这里也可以看到,结构体中定义的w
和wcap
字段,用于make
函数的len
和cap
参数。
有了Get
方法,还要有Put
方法,这样就可以把使用过的[]byte
放回字节池,便于重用。
1 2 3 4 5 6 7 8 | func (bp *BytePoolCap) Put(b []byte) { select { case bp.c <- b: // buffer went back into pool default: // buffer didn't go back into pool, just discard } } |
---|
Put
方法也是采用select+chan
,能放则放,不能放就丢弃这个[]byte
。
已经定义好了Get
和Put
就可以使用了,在使用前,BytePoolCap
还定义了一个工厂函数,用于生成*BytePoolCap
,比较方便。
1 2 3 4 5 6 7 | func NewBytePoolCap(maxSize int, width int, capwidth int) (bp *BytePoolCap) { return &BytePoolCap{ c: make(chan []byte, maxSize), w: width, wcap: capwidth, } } |
---|
把相关的参数暴露出去,可以让调用者自己定制。这里的maxSize
表示要创建的chan
有多大,也就是字节池的大小,最大存放数量。
1 2 3 4 5 | bp := bpool.NewBytePoolCap(500, 1024, 1024) buf:=bp.Get() defer bp.Put(buf) //使用buf,不再举例 |
---|
以上就是使用字节池的一般套路,使用后记得放回以便复用。
两者原理基本上差不多,都多协程安全。sync.Pool
可以存放任何对象,BytePoolCap
只能存放[]byte
,不过也正因为其自定义,存放的对象类型明确,不用经过一层类型断言转换,同时也可以自己定制对象池的大小等。
关于二者的性能,我做了下Benchmark
测试,整体看MinIO的BytePoolCap
更好一些。
1 2 3 4 5 6 | var bp = bpool.NewBytePoolCap(500, 1024, 1024) var sp = &sync.Pool{ New: func() interface{} { return make([]byte, 1024, 1024) }, } |
---|
模拟的两个字节池,[]byte
的长度和容量都是1024。然后是两个模拟使用字节池,这里我启动500协程,模拟并发,使用不模拟并发的话,BytePoolCap
完全是一个[]byte
的分配,完全秒杀sync.Pool
,对sync.Pool
不公平。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 | func opBytePool(bp *bpool.BytePoolCap) { var wg sync.WaitGroup wg.Add(500) for i := 0; i < 500; i++ { go func(bp *bpool.BytePoolCap) { buffer := bp.Get() defer bp.Put(buffer) mockReadFile(buffer) wg.Done() }(bp) } wg.Wait() } func opSyncPool(sp *sync.Pool) { var wg sync.WaitGroup wg.Add(500) for i := 0; i < 500; i++ { go func(sp *sync.Pool) { buffer := sp.Get().([]byte) defer sp.Put(buffer) mockReadFile(buffer) wg.Done() }(sp) } wg.Wait() } |
---|
接下来就是我模拟的读取我本机文件的一个函数mockReadFile(buffer)
:
1 2 3 4 5 6 7 8 9 | func mockReadFile(b []byte) { f, _ := os.Open("water") for { n, err := io.ReadFull(f, b) if n == 0 || err == io.EOF { break } } } |
---|
然后运行go test -bench=. -benchmem -run=none
查看测试结果:
1 2 3 | pkg: flysnow.org/hello BenchmarkBytePool-8 1489 979113 ns/op 36504 B/op 1152 allocs/op BenchmarkSyncPool-8 1008 1172429 ns/op 57788 B/op 1744 allocs/op |
---|
从测试结果看BytePoolCap
在内存分配,每次操作分配字节,每次操作耗时来看,都比sync.Pool
更有优势。