Zabbix使用Pycurl模块监控Web页面状态

由于网络的问题,zabbix自带web模块用不了,后台研发2b,老是更新正式环境安装包,导致一直出问题,老是给他们擦屁股,早说过这事,他们不配合,现在出问题了,挺爽,这锅我表示不背,就找了pycurl这个模块写个监控。

pycurl模块用法:

c = pycurl.Curl()    #创建一个curl对象
c.setopt(pycurl.CONNECTTIMEOUT, 5)    #连接的等待时间,设置为0则不等待 
c.setopt(pycurl.TIMEOUT, 5)          #请求超时时间 
c.setopt(pycurl.NOPROGRESS, 0)        #是否屏蔽下载进度条,非0则屏蔽 
c.setopt(pycurl.MAXREDIRS, 5)        #指定HTTP重定向的最大数 
c.setopt(pycurl.FORBID_REUSE, 1)      #完成交互后强制断开连接,不重用 
c.setopt(pycurl.FRESH_CONNECT,1)      #强制获取新的连接,即替代缓存中的连接 
c.setopt(pycurl.DNS_CACHE_TIMEOUT,60) #设置保存DNS信息的时间,默认为120秒 
c.setopt(pycurl.URL,"")      #指定请求的URL 
c.setopt(pycurl.USERAGENT,"Mozilla/5.2 (compatible; MSIE 6.0; Windows NT 5.1; SV1; .NET CLR 1.1.4322; .NET CLR 2.0.50324)")    #配置请求HTTP头的User-Agent
c.setopt(pycurl.HEADERFUNCTION, getheader)  #将返回的HTTP HEADER定向到回调函数getheader
c.setopt(pycurl.WRITEFUNCTION, getbody)      #将返回的内容定向到回调函数getbody
c.setopt(pycurl.WRITEHEADER, fileobj)        #将返回的HTTP HEADER定向到fileobj文件对象
c.setopt(pycurl.WRITEDATA, fileobj)          #将返回的HTML内容定向到fileobj文件对象
c.getinfo(pycurl.HTTP_CODE)        #返回的HTTP状态码
c.getinfo(pycurl.TOTAL_TIME)        #传输结束所消耗的总时间
c.getinfo(pycurl.NAMELOOKUP_TIME)  #DNS解析所消耗的时间
c.getinfo(pycurl.CONNECT_TIME)      #建立连接所消耗的时间
c.getinfo(pycurl.PRETRANSFER_TIME)  #从建立连接到准备传输所消耗的时间
c.getinfo(pycurl.STARTTRANSFER_TIME)    #从建立连接到传输开始消耗的时间
c.getinfo(pycurl.REDIRECT_TIME)    #重定向所消耗的时间
c.getinfo(pycurl.SIZE_UPLOAD)      #上传数据包大小
c.getinfo(pycurl.SIZE_DOWNLOAD)    #下载数据包大小
c.getinfo(pycurl.SPEED_DOWNLOAD)    #平均下载速度
c.getinfo(pycurl.SPEED_UPLOAD)      #平均上传速度
c.getinfo(pycurl.HEADER_SIZE)      #HTTP头部大小

代码如下:
#!/usr/bin/env Python
# __*__coding:utf8__*__
#Author:wangpengtai
#Blog:
import pycurl
import sys
import StringIO #引用该模块的原因是:使用pycurl后会打印出页面内容,我们不需要看到这个内容,只需要获取页面反馈信息就行了,只能将其写入缓存中,目前没找到好办法,学艺不精,不会使用重定向写到os.devnull中,无奈初次下策。。。
#开始使用的是写入临时文件,但是会有权限问题,导致zabbix无法获取到数据。
class WebStatus(object):
    def __init__(self, url):
        self.url = url
        self.curl = pycurl.Curl()
        self.string = StringIO.StringIO()
        # 连接等待时间,0则不等待
        self.curl.setopt(pycurl.CONNECTTIMEOUT, 5)
        # 超时时间
        self.curl.setopt(pycurl.TIMEOUT, 5)
        # 下载进度条,非0则屏蔽
        self.curl.setopt(pycurl.NOPROGRESS, 1)
        # 指定HTTP重定向最大次数
        self.curl.setopt(pycurl.MAXREDIRS, 5)
        # 完成交互后强制断开连接,不重用
        self.curl.setopt(pycurl.FORBID_REUSE, 1)
        # 设置DNS信息保存时间,默认为120秒
        self.curl.setopt(pycurl.DNS_CACHE_TIMEOUT, 60)
        # 设置请求的Url
        self.curl.setopt(pycurl.URL, self.url)
        self.curl.setopt(pycurl.WRITEFUNCTION, self.string.write)#将页面内容写入缓存
        self.curl.perform()
    def request_value(self):
        data = {
            "Http_code": self.curl.getinfo(pycurl.HTTP_CODE),
            "Speed_download": self.curl.getinfo(pycurl.SPEED_DOWNLOAD),
            "Connect_time": self.curl.getinfo(pycurl.CONNECT_TIME),
            "Total_time": self.curl.getinfo(pycurl.TOTAL_TIME),
            "Dnslookup_time": self.curl.getinfo(pycurl.NAMELOOKUP_TIME),
            "Redirect_time": self.curl.getinfo(pycurl.REDIRECT_TIME)
        }
        return data
    def __end__(self):
        self.string.close()
        self.curl.close()
if __name__ == "__main__":
    Usage = """
Usage: python web_monitor.py url [Http_code|Speed_download|Connect_time|Total_time|Dnslookup_time|Redirect_time]
    """
    try:
        url = sys.argv[1]
        request = sys.argv[2]
        try:
            s = WebStatus(url)
            try:
                print s.request_value()[request]
            except KeyError:
                print "Make sure 2nd argument is right!"
        except pycurl.error:
            print "Make sure the url is right or reachable!"
    except IndexError:
        print "Must be 2 arguments given!%s" % Usage

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:https://www.heiqu.com/0bc7c2a1319d515d0d1fb0f2313faaac.html