原文链接:https://blog.thinkeridea.com/201902/go/you_ya_de_du_qu_http_qing_qiu_huo_xiang_ying_de_shu_ju_2.html
之前发布 【Go】优雅的读取http请求或响应的数据 文章,网友 “wxe” 咨询:“优化前后的请求耗时变化有多大”,之前只分析了内存分配,这篇文章用单元测试的方式分析优化前后的耗时情况,本文源码。
非常感谢 “wxe” 网友的提问,让我在测试过程中发现一个 json
序列化的问题。
之前我们优化了两个部分, 测试代码如下 测试结果如下: 结论: 可以发现 使用 在看一下 性能测试代码 测试结果如下: 这里使用了两个 是不是很奔溃,这是啥情况 这样一来我们使用 再次感谢 “wxe” 网友的提问,这里没有使用实际的应用场景做性能测试,主要发现在性能测试中使用 转载: 本文作者: 戚银(thinkeridea) 本文链接: https://blog.thinkeridea.com/201902/go/you_ya_de_du_qu_http_qing_qiu_huo_xiang_ying_de_shu_ju_2.html 版权声明: 本博客所有文章除特别声明外,均采用 CC BY 4.0 CN协议 许可协议。转载请注明出处!json
与 ioutil.ReadAll
, 先对比 ioutil.ReadAll
, 这里测试的代码分成两个部分做对比,一部分单纯对比 ioutil.ReadAll
和 io.Copy
+ sync.Pool
,另一部分增加 jsoniter.Unmarshal
来延迟 pool.Put(buffer)
的执行, goos: darwingoarch: amd64pkg: github.com/thinkeridea/example/iouitl_readall
BenchmarkIouitlReadAll-8 500000 2752 ns/op 14496 B/op 6 allocs/op
BenchmarkIoCopy-8 20000000 65.2 ns/op 48 B/op 1 allocs/op
BenchmarkIouitlReadAllAndJson-8 100000 20022 ns/op 46542 B/op 616 allocs/op
BenchmarkIoCopyAndJson-8 100000 17615 ns/op 32102 B/op 611 allocs/op
IoCopy
方法是 IouitlReadAll
方法效率的 40 倍,内存分配也很少,而 IoCopyAndJson
和 IouitlReadAllAndJson
的效率差异极小仅有 2407ns
,大约是 1.13倍,不过内存分配还是少了很多的,为什么会这样呢,这就是 sync.Pool
的导致的,sync.Pool
每次获取使用时间越短,命中率就越高,就可以减少创建新的缓存,这样效率就会大大提高,而 jsoniter.Unmarshal
很耗时,就导致 sync.Pool
的命中率降低了,所以性能下降极其明显.io.Copy
+ sync.Pool
表面上执行效率不会有很大提升,但是会大幅度减少内存分配,从而可以减少 GC
的负担,在单元测试中我们并没有考虑 GC
的问题,而 GC
能带来的性能提升会更有优势。json
使用 sync.Pool
的效果吧 goos: darwingoarch: amd64pkg: github.com/thinkeridea/example/iouitl_readall
BenchmarkJson-8 100000 13297 ns/op 13669 B/op 207 allocs/op
BenchmarkJsonPool-8 100000 13310 ns/op 10218 B/op 206 allocs/op
BenchmarkJsonIter-8 500000 2948 ns/op 3594 B/op 4 allocs/op
BenchmarkJsonIterPool-8 200000 6126 ns/op 6040 B/op 144 allocs/op
PASS
ok github.com/thinkeridea/example/iouitl_readall 12.716s
json
包, 一个是标准库的,一个是 jsoniter
(也是社区反馈效率最高的),对比两个包使用 sync.Pool
和不使用之间的差异,发现标准库 json
包使用后内存有少量减少,但是运行效率稍微下降了,差异不是很大,jsoniter
包差异之所谓非常明显,发现使用 sync.Pool
之后不仅内存分配更多了,执行效率也大幅度下降,差了将近3倍有余。jsoniter
本身就使用了 sync.Pool
作缓冲,我们使用 jsoniter.NewEncoder(buffer)
创建一个序列化实例,但是其内部并没有直接使用 io.Writer
而是先使用缓冲序列化数据,之后写入 io.Writer
, 具体代码如下:// Flush writes any buffered data to the underlying io.Writer.func (stream *Stream) Flush() error { if stream.out == nil { return nil
} if stream.Error != nil { return stream.Error
}
n, err := stream.out.Write(stream.buf) if err != nil { if stream.Error == nil {
stream.Error = err
} return err
}
stream.buf = stream.buf[n:] return nil}
buffer
做 json
序列化优化效果就大打折扣,甚至适得其反了。http
服务会导致 connect: can't assign requested address
问题,所以测试用使用了函数模拟,如果有朋友有更好的测试方法欢迎一起交流。
共同學習,寫下你的評論
評論加載中...
作者其他優質文章