hbase2.0已经正式发布,对比之前1.x版本,2.0在读写链路上做了完善的优化,offheap、netty rpc等,这里做个小测试实验对比1.x和2.0在读写上的延时情况。本测试基于特定测试环境与软件版本得到的结果,仅供参考。
测试介绍
1 测试环境 HBase2.0集群,2副本DataNode,单regionserver,便于线性扩展; 集群的配置 : 8core x 16G 内存; 4 x 250G ssd云盘; 2 情况简介 读写,1KB,数据,分有cache的读(命中近100%),无cache读; scan:无cache的scan,有cache 的scan ;预先分配60 region; 3 测试数据 单条读写的延时,99延时,磁盘的util,cpu的利用率,网卡占用率,gc的时间; 对于99延时的话,查看gc的频率,进行调整。大块数据的直接升到年老代等; 步骤:先是把没有做调优的性能数据丢出来,完成以后,在就99延时做调优,主要关注网络以及gc的信息; 4 测试结果 调优的涉及:offheap,netty server访问,g1 gc 修改。 99延时:offheap,g1 gc 默认开启,默认netty 开启;25MB 带宽峰值,主要做对比!
image
测试小结
hbase2.0在读写链路上进行了完善的优化,相比1.1、1.4.4 版本,在延时方面有了比较大的成果。本测试基于特定测试环境与软件版本得到的结果,仅供参考。
原文:HBase2.0 vs HBase1.x 延时比较
https://www.jianshu.com/p/cd1289cd4b3a