Python3爬虫——爬取猫眼电影排行

news/2024/7/19 9:15:45 标签: 爬虫, Python3, 猫眼电影

一.爬取猫眼电影排行

目标:提取猫眼电影TOP100的电影排名、名称、主演、上映时间、评分、海报链接。

URL:https://maoyan.com/board/4

保存:JSON

# 版本:Python3
# 目标:提取猫眼电影TOP100的电影影名、主演、上映时间、评分、海报链接。
# URL:https://maoyan.com/board/4
# 保存:JSON

import json
import requests
from requests.exceptions import RequestException
import re
import time

# 抓取首页,添加headers避免网站对爬虫的限制
def get_one_page(url):
    try:
        headers = {
            'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.92 Safari/537.36'
        }
        response = requests.get(url,headers=headers)
        if response.status_code == 200:
            return response.text
        return None
    except RequestException:
        return None

# 通过正则表达式提取内容,处理匹配结果,遍历提取结果并生成字典
def parse_one_page(html):
    pattern = re.compile('<dd>.*?board-index.*?>(\d+)</i>.*?data-src="(.*?)".*?name"><a'
                         + '.*?>(.*?)</a>.*?star">(.*?)</p>.*?releasetime">(.*?)</p>'
                         + '.*?integer">(.*?)</i>.*?fraction">(.*?)</i>.*?</dd>', re.S)
    items = re.findall(pattern,html)
    for item in items:
        yield {
            '排名':item[0],
            '海报链接':item[1],
            '影名':item[2],
            '主演':item[3].strip()[3:],
            '上映时间':item[4].strip()[5:],
            '评分':item[5]+item[6]
        }

# 将结果写入文件,通过JSON库的dumps()方法实现字典的序列化
def write_to_file(content):
    with open('猫眼排名.txt','a',encoding='utf-8') as f:
        f.write(json.dumps(content,ensure_ascii=False) + '\n')

# 分页爬取,offset为偏移量,构造URL进行爬取
def main(offset):
    url = 'https://maoyan.com/board/4?offset=' + str(offset)
    html = get_one_page(url)
    for item in parse_one_page(html):
        print(item)
        write_to_file(item)

if __name__ == '__main__':
    for i in range(10):
        main(offset=i*10)
        time.sleep(1)

注意:在看网页源代码写正则表达式的时候,不要在Elements选项中直接查看,因为这里的源码可能经过了JavaScript操作与原始请求不同,而是要从Network选项卡部分查看原始请求得到的源码。

 

二.运行结果

程序运行的部分结果如下:


http://www.niftyadmin.cn/n/702721.html

相关文章

目录遍历漏洞原理及其防御方法

一.目录遍历漏洞原理 目录遍历(路径遍历)是由于Web服务器或者Web应用程序对用户输入的文件名称的安全性验证不足而导致的一种安全漏洞&#xff0c;使得攻击者通过利用一些特殊字符就可以绕过服务器的安全限制&#xff0c;访问任意的文件(可以是Web根目录以外的文件)&#xff0…

常用服务默认用户名字典

一.RDP AdministratorGuesttest二.MONGODB数据库 adminrootusertestaccountAdmin01testuseraccountUserreportsUserappAdminmongouser三.DB2数据库 db2inst1db2adminAdministratordb2fenc1dasusr1四.MySQL数据库 rootmysqltestuserguest五.Microsoft SQL Server数据库 sap…

文件上传漏洞原理和绕过方式

一.文件上传漏洞原理 网站Web应用都有一些文件上传功能&#xff0c;比如文档、图片、头像、视频上传&#xff0c;当上传功能的实现代码没有严格校验上传文件的后缀和文件类型&#xff0c;此时攻击者就可以上传一个webshell到一个Web可访问的目录上&#xff0c;并将恶意文件传递…

Windows安全配置

在给Windows系统进行安全加固的时候&#xff0c;可以参考下面的相关配置选项。 一.账号口令 编号 配置 1 正确配置密码长度最小值 2 启用密码复杂性要求 3 更改管理员帐户名称 4 删除或禁用高危帐户 5 正确配置帐户锁定时间 6 正确配置“强制密码历史” 7 正确…

Linux安全配置

在给Linux系统进行安全加固的时候&#xff0c;可以参考下面的相关配置选项。 一.账号口令 编号 配置 1 检查是否设置口令更改最小间隔天数 2 检查口令最小长度 3 检查是否设置口令生存周期 4 检查是否存在空口令账号 5 检查是否设置口令过期前警告天数 6 检查设备…

Burp Suite抓取手机流量

使用Burp Suite进行渗透测试已经有好一段时间了&#xff0c;对于抓取手机流量肯定也是少不了的。自己在以前学习的过程当中也是参考了很多大佬的文章&#xff0c;现在慢慢熟悉之后开始写属于自己的文章&#xff0c;就希望淌过的水不要再淌一次。 使用Burp Suite抓取手机流量主…

【日志】atmega4809使用体验-准备工作

正文 这快要到春节了&#xff0c;给自己置办点年货elc-prt&#xff0c;去年就弄了个意大利产的2560板子&#xff08;朋友给弄得&#xff0c;才花了150&#xffe5;&#xff09;&#xff0c;今天想起来arduino新出的板子&#xff08;nano every&#xff09;&#xff08;wifi re…

【git同步】pxi,scxi等 ni机械设计图纸

关键字 national instruments design files ni pxi pxie scxi pci rs rj crio 美国国家仪器机械设计资料 示例&#xff1a; 种类较多。。不一一列举了 这里会包括一些机械结构之类的设计图纸 都是ni的 陆续更新… 链接 github链接 gihub显式链接&#xff1a; https://g…