前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >day135-scrapy中selenium的使用&链接提取器

day135-scrapy中selenium的使用&链接提取器

原创
作者头像
少年包青菜
修改2020-05-11 10:43:45
1.7K0
修改2020-05-11 10:43:45
举报
文章被收录于专栏:Python 学习Python 学习

1.在middlewares.py和pipelines.py文件中的 spider 参数是什么?

就是爬虫文件的类,可以通过 spider.xxx 调用属性或者方法

2.scrapy中使用selenium

中间件 process_response() 中 selenium 加载动态数据替换非动态加载数据

2.1 selenium 代码

代码语言:javascript
复制
# 下载器返回结果是替换响应结果
def process_response(self, request, response, spider):
    url = response.url
    print(url)
    # 对 url 进行判断
    if url in spider.joke_url_list:
        driver = webdriver.Firefox()
        driver.get(url)
        driver.implicitly_wait(10)
        while 1:
            if not is_element_exists(driver, '//h1[@class="article-title"]'):
                sleep(1)
                continue
            # 获取页面源码数据    
            web_page = driver.page_source
            sleep(1.5)
            driver.quit()
            return HtmlResponse(    # from scrapy.http import HtmlResponse
                url=url,            # 返回 url
                body=web_page,      # 替换响应数据
                encoding='utf-8',   # 设置编码 
                request=request     # 返回 request
            )
    return response

3.全站连接提取器

3.1新建一个项目

代码语言:javascript
复制
scrapy startproject xxxPro

3.2新建一个爬虫文件

scrapy genspider -t crawl getUrl www.xxx.com

代码语言:javascript
复制
scrapy genspider -t crawl getUrl www.xxx.com

3.3代码以及说明

代码语言:javascript
复制
# -*- coding: utf-8 -*-
import scrapy
from scrapy.linkextractors import LinkExtractor
from scrapy.spiders import CrawlSpider, Rule


class GeturlSpider(CrawlSpider):
    name = 'getUrl'
    # allowed_domains = ['www.xxx.com']
    start_urls = ['http://www.qiushibaike.com/']

    """
    # 正则匹配
    # 直接匹配连接文本内容
    """
    link_1 = LinkExtractor(allow=r'/8hr/page/\d+')
    """    
    # xpath 路径匹配
    # 注意不需要 ./@href !!
    """
    link_2 = LinkExtractor(restrict_xpaths='//ul[@class="pagination"]/li/a')

    """
    # 可以添加多个匹配规则
    # callback : 指定回调函数
    # follow : False --> 只解析当前起始页符合规则的链接
    # follow : True --> 在当前页提取出的连接中递归解析出缝合规则的链接
    # 相同连接将会自动去重
    """
    rules = (
        Rule(link_1, callback='parse_item', follow=True),
        Rule(link_2, callback='parse_item', follow=True),
    )

    def parse_item(self, response):
        print(response)

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 1.在middlewares.py和pipelines.py文件中的 spider 参数是什么?
  • 2.scrapy中使用selenium
    • 2.1 selenium 代码
    • 3.全站连接提取器
      • 3.1新建一个项目
        • 3.2新建一个爬虫文件
          • 3.3代码以及说明
          相关产品与服务
          消息队列 TDMQ
          消息队列 TDMQ (Tencent Distributed Message Queue)是腾讯基于 Apache Pulsar 自研的一个云原生消息中间件系列,其中包含兼容Pulsar、RabbitMQ、RocketMQ 等协议的消息队列子产品,得益于其底层计算与存储分离的架构,TDMQ 具备良好的弹性伸缩以及故障恢复能力。
          领券
          问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
          http://www.vxiaotou.com