Python爬虫教程:从入门到实战

news/2024/7/19 9:35:34 标签: python, 爬虫, 开发语言

77032cc72833457bbf53b6e292bba563.jpeg

更多Python学习内容:ipengtao.com

大家好,我是涛哥,今天为大家分享 Python爬虫教程:从入门到实战,文章3800字,阅读大约15分钟,大家enjoy~~

网络上的信息浩如烟海,而爬虫(Web Scraping)是获取和提取互联网信息的强大工具。Python作为一门强大而灵活的编程语言,拥有丰富的库和工具,使得编写爬虫变得更加容易。本文将从基础的爬虫原理和库介绍开始,逐步深入,通过实际示例代码,带领读者学习Python爬虫的使用和技巧,掌握从简单到复杂的爬虫实现。

1. 基础知识

1.1 HTTP请求

在开始爬虫之前,了解HTTP请求是至关重要的。Python中有许多库可以发送HTTP请求,其中requests库是一个简单而强大的选择。

import requests

response = requests.get("https://www.example.com")
print(response.text)

1.2 HTML解析

使用BeautifulSoup库可以方便地解析HTML文档,提取所需信息。

from bs4 import BeautifulSoup

html = """
<html>
  <body>
    <p>Example Page</p>
    <a href="https://www.example.com">Link</a>
  </body>
</html>
"""

soup = BeautifulSoup(html, 'html.parser')
print(soup.get_text())

2. 静态网页爬取

2.1 简单示例

爬取静态网页的基本步骤包括发送HTTP请求、解析HTML并提取信息。

import requests
from bs4 import BeautifulSoup

url = "https://www.example.com"
response = requests.get(url)
soup = BeautifulSoup(response.text, 'html.parser')

# 提取标题
title = soup.title.text
print(f"Title: {title}")

# 提取所有链接
links = soup.find_all('a')
for link in links:
    print(link['href'])

2.2 处理动态内容

对于使用JavaScript渲染的网页,可以使用Selenium库模拟浏览器行为。

from selenium import webdriver
from selenium.webdriver.common.keys import Keys

url = "https://www.example.com"
driver = webdriver.Chrome()
driver.get(url)

# 模拟滚动
driver.find_element_by_tag_name('body').send_keys(Keys.END)

# 提取渲染后的内容
rendered_html = driver.page_source
soup = BeautifulSoup(rendered_html, 'html.parser')
# 进一步处理渲染后的内容

3. 数据存储

3.1 存储到文件

将爬取的数据存储到本地文件是一种简单有效的方法。

import requests

url = "https://www.example.com"
response = requests.get(url)
with open('example.html', 'w', encoding='utf-8') as file:
    file.write(response.text)

3.2 存储到数据库

使用数据库存储爬取的数据,例如使用SQLite

import sqlite3

conn = sqlite3.connect('example.db')
cursor = conn.cursor()

# 创建表
cursor.execute('''CREATE TABLE IF NOT EXISTS pages (id INTEGER PRIMARY KEY, url TEXT, content TEXT)''')

# 插入数据
url = "https://www.example.com"
content = response.text
cursor.execute('''INSERT INTO pages (url, content) VALUES (?, ?)''', (url, content))

# 提交并关闭连接
conn.commit()
conn.close()

4. 处理动态网页

4.1 使用API

有些网站提供API接口,直接请求API可以获得数据,而无需解析HTML。

import requests

url = "https://api.example.com/data"
response = requests.get(url)
data = response.json()
print(data)

4.2 使用无头浏览器

使用Selenium库模拟无头浏览器,适用于需要JavaScript渲染的网页。

from selenium import webdriver

url = "https://www.example.com"
options = webdriver.ChromeOptions()
options.add_argument('--headless')  # 无头模式
driver = webdriver.Chrome(options=options)
driver.get(url)

# 处理渲染后的内容

5. 高级主题

5.1 多线程和异步

使用多线程或异步操作可以提高爬虫的效率,特别是在爬取大量数据时。

import requests
from concurrent.futures import ThreadPoolExecutor

def fetch_data(url):
    response = requests.get(url)
    return response.text

urls = ["https://www.example.com/1", "https://www.example.com/2", "https://www.example.com/3"]
with ThreadPoolExecutor(max_workers=5) as executor:
    results = list(executor.map(fetch_data, urls))
    for result in results:
        print(result)

5.2 使用代理

为了防止被网站封禁IP,可以使用代理服务器。

import requests

url = "https://www.example.com"
proxy = {
    'http': 'http://your_proxy_here',
    'https': 'https://your_proxy_here'
}
response = requests.get(url, proxies=proxy)
print(response.text)

6. 防反爬虫策略

6.1 限制请求频率

设置适当的请求间隔,模拟人类操作,避免过快爬取。

import time

url = "https://www.example.com"
for _ in range(5):
    response = requests.get(url)
    print(response.text)
    time.sleep(2)  # 2秒间隔

6.2 使用随机User-Agent

随机更换User-Agent头部,降低被识别为爬虫的概率。

import requests
from fake_useragent import UserAgent

ua = UserAgent()
headers = {'User-Agent': ua.random}
url = "https://www.example.com"
response = requests.get(url, headers=headers)
print(response.text)

总结

这篇文章全面涵盖了Python爬虫的核心概念和实际操作,提供了从基础知识到高级技巧的全面指南。深入剖析了HTTP请求、HTML解析,以及静态和动态网页爬取的基本原理。通过requestsBeautifulSoupSelenium等库的灵活运用,大家能够轻松获取和处理网页数据。数据存储方面,介绍了将数据保存到文件和数据库的方法,帮助大家有效管理爬取到的信息。高级主题涵盖了多线程、异步操作、使用代理、防反爬虫策略等内容,能够更高效地进行爬虫操作,并规避反爬虫机制。最后,提供了良好的实践建议,包括设置请求频率、使用随机User-Agent等,以确保爬虫操作的合法性和可持续性。

总体而言,本教程通过生动的示例代码和详实的解释,为学习和实践Python爬虫的读者提供了一份全面而实用的指南。希望大家通过学习本文,能够在实际应用中灵活驾驭爬虫技术,更深入地探索网络世界的无限可能。

如果你觉得文章还不错,请大家 点赞、分享、留言 下,因为这将是我持续输出更多优质文章的最强动力!

更多Python学习内容:ipengtao.com

干货笔记整理

  100个爬虫常见问题.pdf ,太全了!

Python 自动化运维 100个常见问题.pdf

Python Web 开发常见的100个问题.pdf

124个Python案例,完整源代码!

PYTHON 3.10中文版官方文档

耗时三个月整理的《Python之路2.0.pdf》开放下载

最经典的编程教材《Think Python》开源中文版.PDF下载

ac92d9e90b62c0451b147b1b205fec5c.png

点击“阅读原文”,获取更多学习内容


http://www.niftyadmin.cn/n/5188917.html

相关文章

2019年全国硕士研究生入学统一考试管理类专业学位联考数学试题——解析版

2019 年 1 月份管综初数真题 一、问题求解&#xff08;本大题共 5 小题&#xff0c;每小题 3 分&#xff0c;共 45 分&#xff09;下列每题给出 5 个选项中&#xff0c;只有一个是符合要求的&#xff0c;请在答题卡上将所选择的字母涂黑。 1、某车间计划 10 天完成一项任务&a…

python基础教程之有序字典

嗨喽&#xff0c;大家好呀~这里是爱看美女的茜茜呐 有序字典和通常字典类似&#xff0c;只是它可以记录元素插入其中的顺序&#xff0c;而一般字典是会以任意的顺序迭代的。 普通字典&#xff1a; d1{} d1[a]A d1[b]B d1[c]C d1[d]D #此时的d1 {a:A,b:B,c:C,d:D} for k,v …

StoneDB顺利通过中科院软件所 2023 开源之夏 结项审核

近日&#xff0c;中科院软件所-开源软件供应链点亮计划-开源之夏2023的结项名单正式出炉&#xff0c;经过三个月的项目开发和一个多月的严格审核&#xff0c;共产生 418个成功结项项目&#xff01;其中&#xff0c;StoneDB 作为本次参与开源社区&#xff0c;社区入选的两个项目…

C++ STL的vector深入理解

一、问题&#xff1a; 以下代码合不合法&#xff1f;如果合法总结构体占多少字节 #include <iostream> #include <vector>struct MyStruct {int id;std::vector<int> values; };int main() {std::cout << "Size of MyStruct: " << s…

scp 跨服务器传输命令,把一个服务器上的文件复制传到当前服务器目录下

要将一个服务器上的文件复制到当前服务器的目录下&#xff0c;可以使用 scp 命令进行跨服务器传输。以下是具体的命令格式&#xff1a; 复制 scp usernamesource_server:/path/to/source_file destination_directory username: 远程服务器的用户名。 source_server: 远程服务…

Python Web框架Django

Python Web框架Django Django简介第一个Django应用Django核心概念Django django-adminDjango项目结构Django配置文件settingsDjango创建和配置应用Django数据库配置Django后台管理Django模型Django模型字段Django模型关联关系Django模型Meta 选项Django模型属性ManagerDjango模…

07.智慧商城——商品详情页、加入购物车、拦截器封装token

01. 商品详情 - 静态布局 静态结构 和 样式 <template><div class"prodetail"><van-nav-bar fixed title"商品详情页" left-arrow click-left"$router.go(-1)" /><van-swipe :autoplay"3000" change"onCha…

阿里在职5年,聊聊测试工程师如何进阶(自动化、性能、测开)

功能测试&#xff08;所谓“点点点”&#xff09;在行业中基本能拿到15k左右的薪水&#xff0c;但是你不可能一直点。入行3年后&#xff0c;你需要拥有不止点点点的技能&#xff0c;否则出去面试&#xff0c;你会就会感受到竞争者给你带来的压力&#xff0c;你需要拿出更高级的…