增量式 爬虫

news/2024/7/19 12:19:02 标签: 爬虫, python, 数据库

增量式 爬虫

概念: 监测网站的数据更新的情况,只爬取网站更新的数据.

核心: 去重

实现 Redis  set集合也行

--  如何实现redis去重? -- 

# 爬取电影站的更新数据   url去重  https://www.4567tv.tv/frim/index1.html
# 下面代码以
http://www.922dyy.com/dianying/dongzuopian/ 为例 作为起始页
# spider.py 爬虫文件
# -*- coding: utf-8 -*-
import scrapy
from scrapy.linkextractors import LinkExtractor
from scrapy.spiders import CrawlSpider, Rule
from redis import Redis
from shipin.items import ShipinItem
class DianyingSpider(CrawlSpider):
    conn = Redis(host='127.0.0.1',port=6379) # 连接对象
    name = 'dianying'
    # allowed_domains = ['www.xx.com']
    start_urls = ['http://www.922dyy.com/dianying/dongzuopian/']

    rules = (
        Rule(LinkExtractor(allow=r'/dongzuopian/index\d+\.html'), callback='parse_item', follow=False), #这里需要所有页面时候改为True
    )  # 只提取页码url


    def parse_item(self, response):
        # 解析出当前页码对应页面中 电影详情页 的url
        li_list = response.xpath('/html/body/div[2]/div[2]/div[2]/ul/li')
        for li in li_list:
            # 解析详情页的url
            detail_url = 'http://www.922dyy.com' + li.xpath('./div/a/@href').extract_first()
            #
            ex = self.conn.sadd('mp4_detail_url',detail_url) # 有返回值
            # ex == 1 该url没有被请求过     ex==0在集合中,该url已经被请求过了
            if ex==1:
                print('有新数据可爬.....')
                yield scrapy.Request(url=detail_url,callback=self.parse_detail)
            else:
                print('暂无新数据可以爬取')

    def parse_detail(self,response):
        name = response.xpath('//*[@id="film_name"]/text()').extract_first()
        m_type = response.xpath('//*[@id="left_info"]/p[1]/text()').extract_first()
        print(name,'--',m_type)
        item = ShipinItem() #实例化
        item['name'] = name
        item['m_type'] = m_type

        yield item
# items.py
# -*- coding: utf-8 -*-

import scrapy

class ShipinItem(scrapy.Item):

    name = scrapy.Field()
    m_type = scrapy.Field()
# pipelines.py 管道
# -*- coding: utf-8 -*-

class ShipinPipeline(object):
    def process_item(self, item, spider):
        conn = spider.conn
        dic = {
            'name':item['name'],
            'm_type':item['m_type']
        }
        conn.lpush('movie_data',str(dic)) #一般这里不str的话会报错,数据类型dict的错误
        return item
# settings.py  里面

ITEM_PIPELINES = {
   'shipin.pipelines.ShipinPipeline': 300,
}

BOT_NAME = 'shipin'

SPIDER_MODULES = ['shipin.spiders']
NEWSPIDER_MODULE = 'shipin.spiders'

USER_AGENT = 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36'

ROBOTSTXT_OBEY = False

LOG_LEVEL = 'ERROR'

流程: scrapy startproject Name 

    cd Name 

    scrapy genspider -t crawl 爬虫文件名 www.example.com  

注意点: 增量式爬虫,会判断url在不在集合里面,sadd (集合的方法) 返回值1就是没在里面,就是新数据.   

    lpush lrange llen  --key  都是redis里面列表类型的方法

下面是糗事百科段子页面的数据 (作者/段子)   增量式爬取

# 爬虫.py
# -*- coding: utf-8 -*-
import scrapy,hashlib
from qbPro.items import QbproItem
from redis import Redis

# 只爬取当前页面
class QiubaiSpider(scrapy.Spider):
    name = 'qiubai'

    conn = Redis(host='127.0.0.1',port=6379)
    start_urls = ['https://www.qiushibaike.com/text/']

    def parse(self, response):
        div_list = response.xpath('//*[@id="content-left"]/div')
        for div in div_list:
            # 数据指纹:爬取到一条数据的唯一标识
            author = div.xpath('./div/a[2]/h2/text() | ./div/span[2]/h2/text()').extract_first().strip()
            content = div.xpath('./a/div/span[1]//text()').extract()
            content = ''.join(content).replace('\n','')
            item = QbproItem()  # 实例化
            item['author'] = author
            item['content'] = content

            # 给爬取到的数据生成一个数据指纹
            data = author+content
            hash_key = hashlib.sha256(data.encode()).hexdigest()
            ex = self.conn.sadd('hash_key',hash_key)  # 输指纹存进 集合里面
            if ex == 1:
                print('有数据更新')
                yield item
            else:
                print('无数据更新')
# items.py
# -*- coding: utf-8 -*-
import scrapy
class QbproItem(scrapy.Item):

    author = scrapy.Field()
    content = scrapy.Field()
# pipelines.py  管道
# -*- coding: utf-8 -*-
class QbproPipeline(object):
    def process_item(self, item, spider):
        conn = spider.conn
        dic = {
            'author': item['author'],
            'content': item['content']
        }
        conn.lpush('qiubai', str(dic))
        return item
# settings.py  设置

ITEM_PIPELINES
= { 'qbPro.pipelines.QbproPipeline': 300, } USER_AGENT = 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36' ROBOTSTXT_OBEY = False LOG_LEVEL = 'ERROR'

 

转载于:https://www.cnblogs.com/zhangchen-sx/p/10849234.html


http://www.niftyadmin.cn/n/968581.html

相关文章

帮别人改的DS课设1

/*设计哈希表实现电话号码查询系统。基本要求:1、设每个记录有下列数据项:电话号码、用户名、地址;2、从键盘输入各记录,分别以电话号码和用户名为关键字建立哈希表;3、采用再哈希法解决冲突;(采用再哈希法…

js indexOf()

返回 String 对象内第一次出现子字符串的字符起始位置.未找到的则返回-1

一天4-5小时睡眠也可以高效工作

本质上4-5的睡眠质量想达到正常8小时的睡眠质量是需要一定方法和技巧的。 首先声明三点: 1.本方法不一定适用所有人,药医不死人,佛渡有缘人 2.本方法虽来源于**,但本质只是一种方式方法 3.一开始不是那么好用,但越用会…

深度学习:神经网络的基本概念和算法

最近自己会把自己个人博客中的文章陆陆续续的复制到CSDN上来,欢迎大家关注我的 个人博客,以及我的github。 前面机器学习的主要部分已经都涉及到了,虽然SVM的部分有些烂尾,并且中间也有好多地方因为自己没弄懂而一带而过……现在…

Android Log详解!

2019独角兽企业重金招聘Python工程师标准>>> Android.util.Log常用的方法有以下5个:Log.v() Log.d() Log.i() Log.w() 以及 Log.e() 。根据首字母对应VERBOSE,DEBUG,INFO, WARN,ERROR。 1、Log.v 的调试颜色为黑色的,任…

Linux网卡绑定技术(详解版)

本实验环境基于VMwareworkstation15虚拟化平台,使用CentOS7.6系统,mode6绑卡模式。注意事项:1.尽量使用新版本的VMworkstations,兼容性更好,bug少。2.因为是虚拟环境,所有会有一定的几率会网卡失败&#xf…

帮别人改的DS课设2

#include<stdio.h>#include<malloc.h>#include<stdlib.h>#include<string.h>#define MAX 10int count0;typedef struct /*个人信息纪录节点*/{char name[10];char tel[20];char addr[50];}personnode; personnode paixu(personnode person[MAX]) {…

yum仓库设置

在linux系统&#xff0c;rpm包安装的依赖问题很让人头疼&#xff0c;而yum是解决这个问题的好办法&#xff01;下面讲解三种配置yum的方法&#xff0c;其实不管采用ftp、http、光盘还是ISO文件方式&#xff0c;这些都只是提供一个供yum客户端下载rpm的地点。一、FTP服务器作为Y…