秀米云香港服务器

Varnish是一个轻量级的Cache和反向代理软件,先进的设计理念和成熟的设计框架是Varnish的主要特点,现在的Varnish总共代码量不大,功能上虽然在不断改进,但是还需要继续丰富和加强。下面总结了Varnish的一些特点:(1)是基于内存缓存,重启后数据将消失。(2)利用虚拟内存方式,io性能好。(3)支持设置0~60秒内的精确缓存时间。(4)VCL配置管理比较灵活。(5)32位机器上缓存文件大小为最大2G。(6)具有强大的管理功能,例如top,stat,admin,list等。(7)状态机设计巧妙,结构清晰。(8)利用二叉堆管理缓存文件,达到积极删除目的。

Varnish的Storage方式可分为两种:1)Malloc 通过malloc获取内存。2)Mmap file 创建大文件,通过二分法分段映射成1G以内的大块。

序列号 CPU RAM HDD 带宽 售价(美元) 免费试用
香港服务器1 E5-2620 32G 1T HDD 50M/无限流量 $196.00 立即申请
香港服务器2 E5-2650 32G 1T HDD 50M/无限流量 $256.00 立即申请
香港服务器3 E5-2680 32G 1T HDD 50M/无限流量 $316.00 立即申请
香港服务器4 E5-2690 32G 1T HDD 50M/无限流量 $336.00 立即申请
香港服务器5 E5-2697 32G 1T HDD 50M/无限流量 $376.00 立即申请
香港服务器6 E5-2620*2 32G 1T HDD 50M/无限流量 $376.00 立即申请
香港服务器7 E5-2650*2 32G 1T HDD 50M/无限流量 $436.00 立即申请
香港服务器8 E5-2680*2 32G 1T HDD 50M/无限流量 $476.00 立即申请
香港服务器9 E5-2690*2 32G 1T HDD 50M/无限流量 $556.00 立即申请
香港服务器10 E5-2697*2 32G 1T HDD 50M/无限流量 $596.00 立即申请
香港服务器11 E5-2680v4*2 32G 1T HDD 50M/无限流量 $696.00 立即申请
香港服务器12 E5-2698v4*2 32G 1T HDD 50M/无限流量 $796.00 立即申请

Varnish进程的工作模式:varnish启动或有2个进程master(management)进程和child(worker)进程。master读入存储配置命令,进行初始化,然后fork,监控child。child则分配线程进行cache工作,child还会做管理线程和生成很多worker线程。child进程主线程初始化过程中,将存储大文件整个加载到内存中,如果该文件超出系统的虚拟内存,则会减少原来配置mmap大小,然后继续加载,这时候创建并初始化空闲存储结构体,放在存储管理的struct中,等待分配。接着varnish某个负责接口新http连接的线程开始等待用户,如果有新的http连接,但是这个线程只负责接收,然后唤醒等待线程池中的work线程,进行请求处理。worker线程读入uri后,将会查找已有的object,命中直接返回,没有命中,则会从后端服务器中取出来,放到缓存中。如果缓存已满,会根据LRU算法,释放旧的object。对于释放缓存,有一个超时线程会检测缓存中所有object的生命周期,如果缓存过期(ttl),则删除,释放相应的存储内存。

Varnish的实际压力测试:硬件环境

PowerEdge R610硬件环境 CPU Intel(R) Xeon(R) CPU E5620 @ 2.40GHz内存 12G硬盘 单盘raid0(150G * 3块)

软件环境

OS版本 centos5.4Kernal 2.6.18-164.el5varnishd 2.1.5

测试工具:消减网络频宽/吞吐量,在相同服务器上生成负载,使用ApacheBench工具(修改后的ab)模仿线上访问,将百万的url请求以顺序的方式读取,然后用2台服务器启动多个ab一次产生的请求500个请求循环N次请求到varnish服务器

测试前设置:1)先将测试机内核可以同时打开的文件描述符的最大值设置到65535。(ulimit -HSn 65532)2) 强制内核不要使用SWAP分区。(echo 0 > /proc/sys/vm/swappiness )

Varnish的Storage方式1)malloc 通过malloc获取内存。2) Mmap file 创建大文件,通过二分法分段映射成1G以内的大块。

综合测试

1) Malloc 方式启动命令:/opt/varnish-2.1.5/sbin/varnishd -u www -g www -f/opt/varnish-2.1.5/etc/varnish/varnish.vcl -s malloc,2G -w10,5000,10 -T 192.168.1.100:3500

测试详细数据:

varnish压测类型: varnish压测数据His/s: 1.8W/s压测文件大小: 15K(平均)CPU状态(idle%): 60%两块网卡流量: 200M(打满)磁盘的繁忙程度: 0%命中率: 98%

2) Mmap file方式启动命令:/opt/varnish-2.1.5/sbin/varnishd -u www -g www -f/opt/varnish-2.1.5/etc/varnish/varnish_test.vcl -sfile,/data0/varnish_cache/cache_data.txt,2G -w 10,5000,10 -T192.168.1.100:3500

测试详细数据:

varnish压测类型: varnish压测数据His/s: 1.8W/s压测文件大小: 15K(平均)CPU状态(idle%): 50%两块网卡流量: 200M(打满)磁盘的繁忙程度: 100%命中率: 98%

参数详解:-f 指定配置文件-s 选项用来确定 varnish 使用的存储类型和存储容量,我使用的是 malloc 类型(malloc 是一个 C函数,用于分配内存空间), 1G 定义多少内存被 malloced,1G =1gigabyte。-wmin[,max[,timeout]]指定线程最小和最大空闲时间。这是一个设置thread_pool_min和thread_pool_max、thread_pool_timeout的捷径。如果只有一个值被指定,那么thread_pool_min和thread_pool_max都是用这个值。Thread_poll_timeout会失效。-T Varnish 有一个基于文本的管理接口,启动它的话可以在不停止 varnish 的情况下来 管理 varnish。-t ttl 指定最小的TTL给cache中的内容。这是一个捷径设置default_ttl run-time 选项。

综合分析从varnish服务器的总体上来看,在每秒并发1.8W左右的情况下,采用缓存方式以Mmapfile和Malloc方式都会导致两块网卡跑满,但以Mmapfile的缓存方式启动I/O也会形成瓶颈,原因主要是varnish缓存的数据先会刷到磁盘上,然后在一次行读到内存中,这在访问量大的时候同时也会对I/O造成很大的压力。Malloc缓存方式虽然对I/O没有压力,因所有缓存数据都写到内存中。

Varnish与Squid的对比说到Varnish,不能不提Squid,Squid是一个高性能的代理缓存服务器,它和varnish之间有诸多的异同点,这里分析如下:下面是他们之间的相同点:(1)都是一个反向代理服务器。(2)都是开源软件。

下面是它们的不同点,也是Varnish的优点:(1)Varnish的稳定性很高,两者在完成相同负荷的工作时,Squid服务器发生故障的几率要高于Varnish,因为使用Squid要经常重启。(2)Varnish访问速度更快,Varnish采用了“Visual PageCache”技术,所有缓存数据都直接从内存读取,而squid是从硬盘读取,因而Varnish在访问速度方面会更快。(3)Varnish可以支持更多的并发连接,因为Varnish的TCP连接释放要比Squid快。因而在高并发连接情况下可以支持更多TCP连接。(4)Varnish可以通过管理端口,使用正则表达式批量的清除部分缓存,而Squid是做不到的。(5)squid属于是单进程使用单核CPU,但Varnish是通过fork形式打开多进程来做处理,所以是合理的使用所有核来处理相应的请求。

当然,与传统的Squid相比,Varnish也是有缺点的,列举如下:1)varnish进程一旦Hang、Crash或者重启,缓存数据都会从内存中完全释放,此时所有请求都会发送到后端服务器,在高并发情况下,会给后端服务器造成很大压力。2)在varnish使用中如果单个url的请求通过HA/F5(负载均衡)每次请求不同的varnish服务器中,被请求varnish服务器都会被穿透到后端,而且同样的请求会在多台服务器上缓存,也会造成varnish的缓存的资源浪费,也会造成性能下降。

解决方案:1)综上所述在访问量很大的情况下推荐使用varnish的内存缓存方式启动,而且后面需要跟多台squid服务器。主要为了防止前面的varnish服务、服务器被重启的情况下,前期肯定会有很多的穿透这样squid可以担当第二层CACHE,而且也弥补了varnish缓存在内存中重启都会释放的问题。2)这样的问题可以在负载均衡上做url哈希,让单个url请求固定请求到一台varnish服务器上,可以解决该问题。注:上面的解决方法还需要全面的测试,没有经过证实。

具体的vcl配置如下:

backendmyblogserver{.host="192.168.1.100";.port="80";}acllocal{"localhost";"192.168.0.0"/16;}subvcl_recv{if(req.http.host~"^a.com"setreq.backend=myblogserver;}else{error404"UnknownHostName!";}if(req.request=="PURGE"){if(!client.ip~local){error405"NotAllowed.";}return(lookup);}if(req.request=="GET"&&req.url~".(jpg|png|gif|swf|jpeg|ico)$"){unsetreq.http.cookie;}elseif(req.request=="GET"&&req.url~"dpc=1$"){unsetreq.http.cookie;}if(req.http.x-forwarded-for){setreq.http.X-Forwarded-For=req.http.X-Forwarded-For","client.ip;}else{setreq.http.X-Forwarded-For=client.ip;}if(req.request!="GET"&&req.request!="HEAD"&&req.request!="PUT"&&req.request!="POST"&&req.request!="TRACE"&&req.request!="OPTIONS"&&req.request!="DELETE"){return(pipe);}if(req.request!="GET"&&req.request!="HEAD"){return(pass);}if(req.http.Authorization||req.http.Cookie){return(pass);}if(req.request=="GET"&&req.url~".(php)$"){return(pass);}return(lookup);}subvcl_pipe{return(pipe);}subvcl_pass{return(pass);}subvcl_hash{setreq.hash+=req.url;if(req.http.host){setreq.hash+=req.http.host;}else{setreq.hash+=server.ip;}return(hash);}subvcl_hit{if(!obj.cacheable){return(pass);}if(req.request=="PURGE"){setobj.ttl=0s;error200"Purged.";}return(deliver);}subvcl_miss{if(req.request=="PURGE"){error404"Notincache.";}}subvcl_fetch{if(!beresp.cacheable){return(pass);}if(beresp.http.Pragma~"no-cache"||beresp.http.Cache-Control~"no-cache"||beresp.http.Cache-Control~"private"){return(pass);}if(req.request=="GET"&&req.url~".(mp3|jpg|png|gif|swf|jpeg|ico)$"){setberesp.ttl=7d;}if(req.request=="GET"&&req.url~".(js|css)$"){setberesp.ttl=1d;}elseif(req.request=="GET"&&req.url~"dpc=1$"){setberesp.ttl=7d;}return(deliver);}subvcl_deliver{setresp.http.x-hits=obj.hits;if(obj.hits>0){setresp.http.X-Cache="HITcqtel-bbs";}else{setresp.http.X-Cache="MISScqtel-bbs";}}

标题:Varnish的file和Malloc二种存储方式的性能效率测试对

地址: https://www.yunhk.xyz/26448.html