Python爬虫——selenium爬取当当畅销图书排行

news/2024/7/19 11:53:36 标签: python, selenium, 爬虫

前言

上上篇文章我们爬取了今日头条街拍美图,好了,心情愉悦完了,这篇文章我们使用Selenium来爬取当当网的畅销图书排行。正所谓书中自有黄金屋,书中自有颜如玉,我们通过读书学习来提高自身的才华,自然能有荣华富贵,也自然少不了漂亮小姐姐。

准备工作

在爬取数据前,我们需要安装好Python的Selenium库和Chrome浏览器并配置好ChromeDriver。

Selenium

Selenium是一个自动化测试工具,利用它可以驱动浏览器执行特定的动作,如点击、下拉等操作,同时还可以获得浏览器当前呈现的页面的源代码,做到可见即可爬。对于一些JavaScript动态渲染的页面来说,这种爬取方式非常有效。

Selenium库的安装比较简单一行代码就行:

pip3 install selenium

也可以到PyPI下载(https://pypi.python.org/pypi/selenium/#downloads)对应的wheel文件,然后进入到wheel文件目录,使用pip安装:

pip install .........whl

安装验证,进入Python命令行交互模式,如下图:

这样selenium就安装完毕了。

ChromeDriver安装

首先我们先查看Chrome的版本:点击Chrome菜单“帮助”--->“关于Google Chrome”,即可查看Chrome的版本号,如下图:

打开ChromeDriver的官方网站,根据自身Chrome浏览器版本下载ChromeDriver并安装:

注意:ChromeDriver和Chrome浏览器一定要对应,否则可能无法正常工作。

ChromeDriver的环境变量配置,直接将chromedriver.exe文件拖到Python的Scripts目录下。

到这来,准备工作就完成了,下面我们正式开始抓取当当网的畅销图书排行。

实战演练

首先,我们进入当当网的畅销图书网页,我们要利用Selenium抓取图书信息并用pyquery解析得到图书的排名、图片、名称、价格、评论等信息。如下图:

进入开发者工具中的Network,查看Request URL,如下图所示:

在页面下方,有个分页导航,我们点击下一页,观察Request URL的变化:

http://bang.dangdang.com/books/bestsellers/01.00.00.00.00.00-24hours-0-0-1-1        #第1页
http://bang.dangdang.com/books/bestsellers/01.00.00.00.00.00-24hours-0-0-1-2        #第2页
http://bang.dangdang.com/books/bestsellers/01.00.00.00.00.00-24hours-0-0-1-23       #第23页
http://bang.dangdang.com/books/bestsellers/01.00.00.00.00.00-24hours-0-0-1-page     #第n页

我们发现该URL只有最后面的那个数字发生变化,所以我们构造的URL就非常简单了,那个page就是翻页的关键字。

首页爬取

首先我们先声明chrome浏览器对应,webdriver支持主流的浏览器,比如说:谷歌浏览器、火狐浏览器、IE浏览器等等。通过WebDriverWait()方法,指定最长等待时间,当规定时间内没加载出来就抛出异常。通过page参数来进行翻页。

代码如下:

python">browser=webdriver.Chrome()
wait=WebDriverWait(browser,10)
def index_page(page):
    print('正在爬取第',page,'页')
    try:
        url='http://bang.dangdang.com/books/bestsellers/01.00.00.00.00.00-24hours-0-0-1-'+str(page)
        browser.get(url)
        get_booklist()
    except TimeoutException:
        index_page(page)

解析商品列表

接下来,我们就可以实现get_booklist()方法来解析商品列表了,这里我们直接调用page_source获取页面源代码,然后用pyquery进行解析,实现代码如下:

python">def get_booklist():
    html=browser.page_source
    doc=pq(html)
    items=doc('.bang_list li').items()
    for item in items:
        book={
            '排名':item.find('.list_num').text(),
            '书名':item.find('.name').text(),
            '图片':item.find('.pic img').attr('src'),
            '评论数':item.find('.star a').text(),
            '推荐':item.find('.tuijian').text(),
            '作者':item.find('.publisher_info a').text(),
            '日期':item.find('.publisher_info span').text(),
            '原价':item.find('.price_r').text().replace('¥',''),
            '折扣':item.find('.price_s',).text(),
            '电子书':item.find('.price_e').text().replace('电子书:','').replace('¥','')
        }
        saving_book(book)

保存数据到文件中

接下来,我们将书本信息保存为csv格式,实现代码如下:

python">with open('data.csv','a',newline='',)as csvfile:
    writer=csv.writer(csvfile)
    writer.writerow(['排名','书名','图片','评论数','推荐','作者','原价','折扣','电子书'])
def saving_book(book):
    with open('data.csv', 'a', newline='')as csfile:
        writer = csv.writer(csfile)
        writer.writerow([book.get('排名'), book.get('书名'), book.get('图片'), book.get('评论数'), book.get('推荐'), book.get('作者'),book.get('原价'),book.get('折扣'),book.get('电子书')])

遍历每页

刚才我们所定义的index_page()方法需要接收参数page,page代表页码,这里我们实现页码遍历即可,实现代码如下:

python">if __name__ == '__main__':
    for page in range(1,3):
        index_page(page)

这里我们只遍历2页,感兴趣的可以遍历多页。

结果展示

 

最后

好了,关于Python爬虫——selenium爬取当当畅销图书排行讲到这里了,感谢观看!!!我们下篇文章再见!!!


http://www.niftyadmin.cn/n/1158250.html

相关文章

SQLServer 的数据分页:

假设现在有这样的一张表:CREATE TABLE test( id int primary key not null identity, names varchar(20))然后向里面插入大约1000条数据,进行分页测试假设页数是10,现在要拿出第5页的内容,查询语句如下:--10代表分页的…

sql 引号 逗号_属于菜鸟的sql干货(4)

请注意,我们在例子中的条件值周围使用的是单引号。SQL 使用单引号来环绕文本值(大部分数据库系统也接受双引号)。如果是数值,请不要使用引号。(接着前几章学习其他语句的用法,务必手动操作,让自…

Python爬虫——selenium爬取网易云评论并做词云

大家好!我是霖hero到点了上号网易云,很多人喜欢到夜深人静的时候,在网易云听音乐发表评论,正所谓:自古评论出人才,千古绝句随口来,奈何本人没文化,一句卧槽行天下!评论区…

【ITOO 3】.NET 动态建库建表:实用EF框架提供的codeFirst实现动态建库

导读:在上篇博客中,介绍了使用SQL字符拼接的方式,实现动态建库建表的方法。这样做虽然也能够实现效果,但是,太麻烦,而且,如果改动表结构,字段的话,会对代码修改很多。但是…

python 数据处理二进制_在Python中处理字节和二进制数据

使用bitarray module,对于大数字,您可以更快地执行此操作:基准(2.4倍加速!)以下内容:janusZeus /tmp % python3 -m timeit -s "import tst" "tst.tst(10000)"10 loops, best of 3: 251 msec per l…

安装完最小化 RHEL/CentOS 7 后需要做的 30 件事情(六)码农网

30. 用密码保护 GRUB 用密码保护你的 boot 引导程序这样你就可以在启动时获得额外的安全保障。同时你也可以在实物层面获得保护。通过在引导时给 GRUB 加锁防止任何无授权访问来保护你的服务器。 首先备份两个文件,这样如果有任何错误出现,你可以有回滚的…

Python爬虫——手把手教你爬取王者荣耀英雄皮肤

大家好!我是霖hero 大家知道目前最火的手游是哪个嘛,没错,就是王者荣耀,这款手游想必大家都听过或者玩过吧,里面有106个英雄,几百个英雄皮肤,今天我来手把手教你们把几百个皮肤都爬取下来。 目…

python 爬虫性能_Python爬虫系列4-优化普通数据下载性能的速度

序言很多人在学习爬虫的时候,总是参照着书本中的内容或者是从网上学习的案例,但是那些案例你会,别人也会 ,如此怎么能提高我们的市场竞争力呢?Tony老师不服,于是,此篇文章顺利诞生;也…