【py网页】urllib.urlretrieve远程下载

news/2024/7/19 9:17:24 标签: python, shell, 爬虫

下面我们再来看看 urllib 模块提供的 urlretrieve() 函数。urlretrieve() 方法直接将远程数据下载到本地。

1>>> help(urllib.urlretrieve)
2Help on function urlretrieve in module urllib:
3 
4urlretrieve(url, filename=None, reporthook=None, data=None)
  • 参数 finename 指定了保存本地路径(如果参数未指定,urllib会生成一个临时文件保存数据。)
  • 参数 reporthook 是一个回调函数,当连接上服务器、以及相应的数据块传输完毕时会触发该回调,我们可以利用这个回调函数来显示当前的下载进度。
  • 参数 data 指 post 到服务器的数据,该方法返回一个包含两个元素的(filename, headers)元组,filename 表示保存到本地的路径,header 表示服务器的响应头。

下面通过例子来演示一下这个方法的使用,这个例子将 google 的 html 抓取到本地,保存在 D:/google.html 文件中,同时显示下载的进度。

01import urllib
02def cbk(a, b, c): 
03    '''回调函数
04    @a: 已经下载的数据块
05    @b: 数据块的大小
06    @c: 远程文件的大小
07    ''' 
08    per = 100.0 * a * b / 
09    if per > 100
10        per = 100 
11    print '%.2f%%' % per
12   
13url = 'http://www.google.com'
14local = 'd://google.html'
15urllib.urlretrieve(url, local, cbk)

在 Python Shell 里执行如下:

01Python 2.7.5 (default, May 15 2013, 22:44:16) [MSC v.1500 64 bit (AMD64)] on win32
02Type "copyright", "credits" or "license()" for more information.
03>>> import urllib
04>>> def cbk(a, b, c): 
05    '''回调函数
06    @a: 已经下载的数据块
07    @b: 数据块的大小
08    @c: 远程文件的大小
09    ''' 
10    per = 100.0 * a * b / 
11    if per > 100
12        per = 100 
13    print '%.2f%%' % per
14 
15     
16>>> url = 'http://www.google.com'
17>>> local = 'd://google.html'
18>>> urllib.urlretrieve(url, local, cbk)
19-0.00%
20-819200.00%
21-1638400.00%
22-2457600.00%
23('d://google.html', <httplib.HTTPMessage instance at 0x0000000003450608>)
24>>>

下面是 urlretrieve() 下载文件实例,可以显示下载进度。

01#!/usr/bin/python
02#encoding:utf-8
03import urllib
04import os
05def Schedule(a,b,c):
06    '''''
07    a:已经下载的数据块
08    b:数据块的大小
09    c:远程文件的大小
10   '''
11    per = 100.0 * a * b / c
12    if per > 100 :
13        per = 100
14    print '%.2f%%' % per
15url = 'http://www.python.org/ftp/python/2.7.5/Python-2.7.5.tar.bz2'
16#local = url.split('/')[-1]
17local = os.path.join('/data/software','Python-2.7.5.tar.bz2')
18urllib.urlretrieve(url,local,Schedule)
19######output######
20#0.00%
21#0.07%
22#0.13%
23#0.20%
24#....
25#99.94%
26#100.00%

通过上面的练习可以知道,urlopen() 可以轻松获取远端 html 页面信息,然后通过 python 正则对所需要的数据进行分析,匹配出想要用的数据,在利用urlretrieve() 将数据下载到本地。对于访问受限或者对连接数有限制的远程 url 地址可以采用 proxies(代理的方式)连接,如果远程数据量过大,单线程下载太慢的话可以采用多线程下载,这个就是传说中的爬虫


http://www.niftyadmin.cn/n/1453540.html

相关文章

Java Web入门学习总结和索引

本来我是不想学Java和Jave Web的&#xff0c;因为我主要学习的是C和C&#xff0c;Java也是一门比较复杂的语言&#xff0c;我怕精力不够&#xff0c;而且Java和C都是面向对象的&#xff0c;语法比较类似&#xff0c;我怕会记混。但是没有办法&#xff0c;实验室项目就是Java We…

放到 子线程里面,就不卡了,

-(void)doInitialWork { mStream [[XMPPStreamalloc]init]; dispatch_queue_t im_queue; im_queue dispatch_queue_create("im.queue", Nil); [mStreamaddDelegate:selfdelegateQueue:im_queue]; dispatch_block_t b ^{ TTLog("aa"); }; 同步&#xff0…

hdu 1754 I Hate It(树状数组 | 线段树)

题目链接&#xff1a;hdu 1754 I Hate It 题目大意&#xff1a;略。 解题思路&#xff1a; 方法一&#xff1a;树状数组&#xff0c;注意查询的时候&#xff0c;如果为一个的时候要与当前的数进行比较。 #include <stdio.h> #include <string.h> #include <alg…

Hydra安装与使用

1.先安装libssh.[rootlocalhost ~]# tar -zxvf libssh-0.11.gz[rootlocalhost ~]# cd libssh-0.11[rootlocalhost ... Author : Ecore Date : 2008/06/15 Website: http://www.ishacker.org http://www.80sec.org 1.先安装libssh. [rootlocalhost ~]# tar -zxvf libssh-0.11.gz…

uva 608 - Counterfeit Dollar(枚举)

题目连接&#xff1a;uva 608 - Counterfeit Dollar 题目大意&#xff1a;有A~L这样12个硬币&#xff0c;然后其中有一个硬币是偏重或者偏轻&#xff0c;给出3次测量的情况&#xff0c;要求找出该硬币&#xff0c;并且判断是重了还是轻了。 解题思路&#xff1a;暴力枚举&#…

76. Minimum Window Substring

https://leetcode.com/problems/minimum-window-substring/description/** 求串匹配的最小窗口 思路&#xff1a;将t的字符存入字典map中&#xff0c;t中未出现而s中出现的词频设为0。用[begin…end]表示窗口&#xff0c;end先向前移动&#xff0c;用直方图法判断子串是否符合…

Linux下puppet安装

参考刘宇大哥的Puppet实战书籍&#xff08;-&#xff09;在Linux下安装puppet1.ubuntu下安装1&#xff09;配置好puppetlabs仓库&#xff0c;配置方法如下&#xff1a;$sudo echo -e "deb http://apt.puppetlabs.com/ lucid main\ndeb-src http://apt.puppetlabs.com/ luc…

hash 哈希表

我觉得hash提高查询速度的根本原因是分组。 比如图书馆的书&#xff0c;如果是无序的&#xff0c;要找一本书&#xff0c;只能从头到尾依次找&#xff1b;如果将这些书分门别类&#xff0c;现在找一本书&#xff0c;直接去相应类别里&#xff0c;就快多了。从书名到其类别的转…