Python 爬虫从入门到进阶之路(十八)

在之前的文章我们通过 scrapy 框架 及 scrapy.Spider 类做了一个《糗事百科》的糗百爬虫,本章我们再来看一下相较于 scrapy.Spider 类更为强大的 CrawlSpider 类。

CrawlSpider 是Spider的派生类,Spider 类的设计原则是只爬取start_url列表中的网页,而 CrawlSpider 类定义了一些规则 (rule) 来提供跟进link的方便的机制,从爬取的网页中获取link并继续爬取的工作更适合。

源码参考

1 class CrawlSpider(Spider): 2 rules = () 3 def __init__(self, *a, **kw): 4 super(CrawlSpider, self).__init__(*a, **kw) 5 self._compile_rules() 6 7 #首先调用parse()来处理start_urls中返回的response对象 8 #parse()则将这些response对象传递给了_parse_response()函数处理,并设置回调函数为parse_start_url() 9 #设置了跟进标志位True 10 #parse将返回item和跟进了的Request对象 11 def parse(self, response): 12 return self._parse_response(response, self.parse_start_url, cb_kwargs={}, follow=True) 13 14 #处理start_url中返回的response,需要重写 15 def parse_start_url(self, response): 16 return [] 17 18 def process_results(self, response, results): 19 return results 20 21 #从response中抽取符合任一用户定义'规则'的链接,并构造成Resquest对象返回 22 def _requests_to_follow(self, response): 23 if not isinstance(response, HtmlResponse): 24 return 25 seen = set() 26 #抽取之内的所有链接,只要通过任意一个'规则',即表示合法 27 for n, rule in enumerate(self._rules): 28 links = [l for l in rule.link_extractor.extract_links(response) if l not in seen] 29 #使用用户指定的process_links处理每个连接 30 if links and rule.process_links: 31 links = rule.process_links(links) 32 #将链接加入seen集合,为每个链接生成Request对象,并设置回调函数为_repsonse_downloaded() 33 for link in links: 34 seen.add(link) 35 #构造Request对象,并将Rule规则中定义的回调函数作为这个Request对象的回调函数 36 r = Request(url=link.url, callback=self._response_downloaded) 37 r.meta.update(rule=n, link_text=link.text) 38 #对每个Request调用process_request()函数。该函数默认为indentify,即不做任何处理,直接返回该Request. 39 yield rule.process_request(r) 40 41 #处理通过rule提取出的连接,并返回item以及request 42 def _response_downloaded(self, response): 43 rule = self._rules[response.meta['rule']] 44 return self._parse_response(response, rule.callback, rule.cb_kwargs, rule.follow) 45 46 #解析response对象,会用callback解析处理他,并返回request或Item对象 47 def _parse_response(self, response, callback, cb_kwargs, follow=True): 48 #首先判断是否设置了回调函数。(该回调函数可能是rule中的解析函数,也可能是 parse_start_url函数) 49 #如果设置了回调函数(parse_start_url()),那么首先用parse_start_url()处理response对象, 50 #然后再交给process_results处理。返回cb_res的一个列表 51 if callback: 52 #如果是parse调用的,则会解析成Request对象 53 #如果是rule callback,则会解析成Item 54 cb_res = callback(response, **cb_kwargs) or () 55 cb_res = self.process_results(response, cb_res) 56 for requests_or_item in iterate_spider_output(cb_res): 57 yield requests_or_item 58 59 #如果需要跟进,那么使用定义的Rule规则提取并返回这些Request对象 60 if follow and self._follow_links: 61 #返回每个Request对象 62 for request_or_item in self._requests_to_follow(response): 63 yield request_or_item 64 65 def _compile_rules(self): 66 def get_method(method): 67 if callable(method): 68 return method 69 elif isinstance(method, basestring): 70 return getattr(self, method, None) 71 72 self._rules = [copy.copy(r) for r in self.rules] 73 for rule in self._rules: 74 rule.callback = get_method(rule.callback) 75 rule.process_links = get_method(rule.process_links) 76 rule.process_request = get_method(rule.process_request) 77 78 def set_crawler(self, crawler): 79 super(CrawlSpider, self).set_crawler(crawler) 80 self._follow_links = crawler.settings.getbool('CRAWLSPIDER_FOLLOW_LINKS', True)

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:https://www.heiqu.com/zyxwgw.html