Python爬虫实战:爬取太平洋网络相机文章

news/2024/7/19 8:59:09 标签: python, 爬虫, 开发语言

引言

本文介绍了使用Python编写的爬虫程序,通过爬取太平洋网络上的相机文章,获取相关信息并展示结果。文章详细介绍了爬虫程序的实现过程,包括使用Selenium模拟浏览器操作、使用BeautifulSoup解析网页内容等。通过阅读本文,可以了解到如何利用爬虫技术获取网络上的有用信息

在互联网时代,获取网络上的信息变得越来越重要。而爬虫技术作为一种有效的信息获取方式,被广泛应用于各个领域。本文将介绍一种使用Python编写的爬虫程序,通过爬取太平洋网络上的相机文章,获取相关信息并展示结果。

准备工作

本程序使用Python编程语言,并依赖于一些第三方库,包括:

  • bag
  • selenium
  • tqdm
  • requests
  • beautifulsoup4

完整代码

python">#!/usr/bin/env python3
# coding:utf-8
import bag
from selenium.webdriver.common.by import By
from tqdm import tqdm
import requests
from bs4 import BeautifulSoup
import re
import urllib3

urllib3.disable_warnings()
all_data_url = []
end = []


def main():
    base_url = r'https://dc.pconline.com.cn/hangqing/'
    web = bag.Bag.web_no_pic()
    urls = get_page_url(base_url)
    print(urls)
    for url in tqdm(urls):
        get_data_url(web, url)

    for link in tqdm(all_data_url[:2]):
        data = get_data(link)
        print(data)


def get_page_url(url):
    urls = []
    for i in range(2):  # 获取页数
        if i < 1:
            urls.append(url)
        else:
            urls.append(url + 'index_{}.html'.format(i + 1))
    return urls


def get_data_url(web, url):
    web.get(url)
    web.implicitly_wait(1)
    links = web.find_elements(By.XPATH, r'//*[@id="Jlis"]/li/a')
    for link in links:
        all_data_url.append(link.get_attribute('href'))


def get_data(url):
    result = []
    headers = {
        'user-agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_10_1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/37.0.2062.124 Safari/537.36'
    }
    resp = requests.get(url, headers=headers)
    resp.encoding = 'gb2312'
    resp.close()
    html = BeautifulSoup(resp.text, 'lxml')

    info = []
    title = re.compile(r'<h1>(.*?)</h1>', re.S)
    soup = html.find_all('div', class_="art-hd")
    for i in re.findall(title, str(soup)):
        info.append(i)

    info1 = []
    content = re.compile(r'<p>(.*?)</p>', re.S)
    soup1 = html.find_all('div', class_="content")
    for i in re.findall(content, str(soup1)):
        info1.append(re.sub(r'<.*?>', '', i))

    info2 = []
    brand = re.compile(r'<span class="mark">.*?<a.*?>(.*?)</a>.*?</span>', re.S)
    soup2 = html.find_all('div', class_="nav nav-a")
    for i in re.findall(brand, str(soup2)):
        info2.append(i)
    result.extend([
        info2,
        info,
        info1,
        url
    ])
    return result


if __name__ == '__main__':
    main()

解析:

首先,我们定义了一个main函数,作为程序的入口。在main函数中,我们首先定义了要爬取的网页的基础URL,然后创建一个浏览器对象web,并调用get_page_url函数获取要爬取的页面URL列表。接着,我们遍历页面URL列表,调用get_data_url函数获取每个页面中的文章链接,并将其存储在all_data_url列表中。最后,我们遍历all_data_url列表,调用get_data函数获取每篇文章的相关信息

接下来,我们来看一下具体的实现细节。在get_page_url函数中,我们通过循环获取太平洋网络相机文章的多个页面的URL,并将其存储在urls列表中。在get_data_url函数中,我们使用Selenium模拟浏览器操作,获取每个页面中的文章链接,并将其存储在all_data_url列表中。在get_data函数中,我们使用requests库发送HTTP请求,获取每篇文章的网页内容,并使用BeautifulSoup解析HTML,提取出文章的标题、内容和品牌信息,并将结果存储在result列表中。

最后,我们调用main函数,执行爬虫程序。程序将按照以下步骤进行操作:首先,获取太平洋网络相机文章的页面URL列表;然后,遍历页面URL列表,获取每个页面中的文章链接;接着,遍历文章链接列表,获取每篇文章的相关信息;最后,打印结果

结语

如果你觉得本教程对你有所帮助,不妨点赞并关注我的CSDN账号。我会持续为大家带来更多有趣且实用的教程和资源。谢谢大家的支持!


http://www.niftyadmin.cn/n/5443435.html

相关文章

数据安全运营:难点突破与构建策略全解析

小型企业关注基础安全运营&#xff0c;重点把安全产品“管好”和“用好”。大型企业通过SOC平台&#xff08;安全运营中心&#xff09;把所有安全产品串联起来&#xff0c;对大量的日志进行关联分析&#xff0c;发现事件和告警。通过SOAR平台把运营工作中能“自动化”内容进行预…

练习11 Web [极客大挑战 2019]Http

页面没有上传文件的地方&#xff0c;尝试查看前端源码中有没有任何内容&#xff0c;以及Fuzz手段查找php文件进行重放改包 本题要点&#xff1a; 伪造请求域名&#xff08;Referer&#xff09;&#xff0c;伪造浏览器标识&#xff08;User-Agent&#xff09;&#xff0c;伪造IP…

牛客NC403 编辑距离为一【中等 模拟法 Java,Go,PHP】

题目 题目链接&#xff1a; https://www.nowcoder.com/practice/0b4b22ae020247ba8ac086674f1bd2bc 思路 注意&#xff1a;必须要新增一个&#xff0c;或者删除一个&#xff0c;或者替换一个&#xff0c;所以不能相等1.如果s和t相等&#xff0c;返回false,如果s和t长度差大于1…

java 单元测试 junit 4使用

需要的maven 包 <!-- https://mvnrepository.com/artifact/junit/junit --><dependency><groupId>junit</groupId><artifactId>junit</artifactId><version>4.13.2</version><scope>test</scope></dependency&…

蓝桥杯每日一题:修建灌木

题目来源: 第十三届蓝桥杯大赛软件赛省赛B组 爱丽丝要完成修建灌木的工作 有 N N N 棵灌木整齐的从左向右排成一排, 爱丽丝在每天傍晚会修建一棵灌木, 让灌木的高度变为 0 厘米. 修建灌木的顺序是从最左侧的灌木开始, 每天向右修建一棵灌木. 当修建了最右侧的灌木之后, 她会调…

06 分页

文章目录 PageInfo PageInfo package com.aistart.tech.common;import java.io.Serializable; import java.util.List;public class PageInfo<T> implements Serializable {private Integer pageNum;//当前页private Integer pageSize;//每页显示条数private Integer pa…

如何下载和安装 macOS

在兼容的 Mac 电脑上下载并安装最新或以前版本的 Mac 操作系统。 为了保持电脑的安全性、稳定性和兼容性&#xff0c;Apple 建议使用与你的 Mac 兼容的最新版 macOS。macOS 更新和升级还包含最新的功能和内建 App&#xff08;如 Safari 浏览器&#xff09;。 使用“软件更新”…

R语言Meta分析核心技术:从入门到精通

R语言作为一种强大的统计分析和绘图语言&#xff0c;在科研领域发挥着日益重要的作用。其中&#xff0c;Meta分析作为一种整合多个独立研究结果的统计方法&#xff0c;在R语言中得到了广泛的应用。通过R语言进行Meta分析&#xff0c;研究者能够更为准确、全面地评估某一研究问题…