python爬虫:抓取新浪新闻内容(从当前时间到之前某个时间段),并用jieba分词,用于训练自己的分词模型...

news/2024/7/19 8:53:03 标签: 爬虫, python, json

新浪新闻内容采用的是ajax动态显示内容,通过抓包,发现如下规律:

每次请求下一页,js那一栏都会出现新的url:

"http://api.roll.news.sina.com.cn/zt_list?channel=news&cat_1=gnxw&cat_2==gdxw1"
"||=gatxw||=zs-pl||=mtjj&level==1||=2&show_ext=1&show_all=1&show_num=22&tag=1&"
"format=json&page=1&callback=newsloadercallback"
"http://api.roll.news.sina.com.cn/zt_list?channel=news&cat_1=gnxw&cat_2==gdxw1"
"||=gatxw||=zs-pl||=mtjj&level==1||=2&show_ext=1&show_all=1&show_num=22&tag=1&"
"format=json&page=3&callback=newsloadercallback"

以上两个不同的是:page=?

Python实现代码:
 1 #-*- coding:utf-8 -*-
 2 __author__ = 'Administrator'
 3 
 4 import re
 5 from bs4 import BeautifulSoup
 6 import urllib.request
 7 import jieba
 8 import string
 9 import urllib.parse
10 from urllib.error import  HTTPError,URLError
11 import json
12 
13 def get_page(num):
14    return ("http://api.roll.news.sina.com.cn/zt_list?channel=news&cat_1=gnxw&cat_2==gdxw1"
15      "||=gatxw||=zs-pl||=mtjj&level==1||=2&show_ext=1&show_all=1&show_num=22&tag=1&"
16      "format=json&page={}&callback=newsloadercallback").format(str(num))
17 
18 def get_url(page_url):
19     #解决请求路径中含义中文或特殊字符
20     page_url=urllib.parse.quote(page_url, safe=string.printable)
21     #print(page_url)
22     url_list=[]
23     try:
24         res = urllib.request.urlopen(page_url)
25     except HTTPError as e:
26         print('The server couldn\'t fulfill the request.')
27         print('Error code: ', e.code)
28         return url_list
29     except URLError as e:
30         print('We failed to reach a server.')
31         print('Reason: ', e.reason)
32         return url_list
33     else:
34         if res.getcode()==200:
35             jsdata=res.read().decode("utf-8")
36             '''
37             截取url方法一
38             '''
39             # result=re.findall('"url":"http.*?\.s?html"',jsdata)#.*后面再加?就可以变成非贪婪模式
40             # for url in result:
41             #     url=url.split(":",maxsplit=1)[1]
42             #     url=url.replace('\\',"")
43             #     url_list.append(url)
44             '''
45             截取url方法二
46             '''
47             data=jsdata[21:-2]
48             data=re.sub('\'','\"',data)
49             data=re.sub(r"\\u","",data)
50             jsondata=json.loads(data)
51             for dat in jsondata["result"]["data"]:
52                 url_list.append(dat["url"])
53             return url_list
54 
55 
56 
57 def get_context(new_url):
58     #解决请求路径中含义中文或特殊字符
59     httpurl=urllib.parse.quote(new_url, safe=string.printable)
60     #print(httpurl)
61     #print(type(httpurl))
62     try:
63         html=urllib.request.urlopen(httpurl)
64     except HTTPError as e:
65         print('The server couldn\'t fulfill the request.')
66         print('Error code: ', e.code)
67     except URLError as e:
68         print('We failed to reach a server.')
69         print('Reason: ', e.reason)
70     else:
71         if html.getcode()==200:
72             res=html.read().decode("utf-8")
73             #print(res)
74             soup=BeautifulSoup(res,'html.parser')
75             #print(soup.prettify)
76             result={}
77             result["article"]=''.join([p.text.strip() for p in soup.select('#artibody p')[:-1]])
78             context=result['article']
79             pattern=',|。|“|”|?|!|:|《|》|、|;|·|——| |‘|’|,|\?|\.|\!|`|~|\@|\#|\$|%|\^|\&|\*|(|)|\(|\)|-|\_|\+|=|\[|\]|\{|\}|"|\'|\<|\>|\||'
80             li=re.split(pattern,context)
81             #print("li")
82             with open(r".\traindata.txt",'a',encoding='utf-8') as file:
83                 for l in li:
84                     if l!="":
85                         sentence = " ".join(jieba.cut(l))
86                         file.write(sentence + '\n')
87 
88 if __name__=="__main__":
89     for i in range(1,1001):
90         print("第 %d 页" % i)
91         page_url=get_page(i)
92         url_list=get_url(page_url)
93         #print(url_list) #['"http://news.sina.com.cn/c/nd/2017-06-11/doc-ifyfzhac1171724.shtml"', ...],双引号外层还有单引号
94         if url_list:
95             for url in url_list:
96                 #print(eval(url))
97                 #print(type(url))
98                 # get_context(eval(url))#针对方法一截取url
99                 get_context(url)#针对方法二截取url

 

 

转载于:https://www.cnblogs.com/yizhenfeng168/p/6985116.html


http://www.niftyadmin.cn/n/785898.html

相关文章

渗透测试-数据库提权专题

数据库提权专题MSSQLMSSQL xp_cmdshell提权xp_cmdshell是Sql Server中的一个组件&#xff0c;将命令字符串作为操作系统命令 shell 执行&#xff0c;并以文本行的形式返回所有输出。 xp_cmdshell默认在mssql2000中是开启的&#xff0c;在mssql2005之后默认禁止&#xff0c;但未…

R语言集合操作

熟练运用R语言的集合操作在很多时候可以省去for循环&#xff0c;从而提升数据处理效率。废话不多说&#xff0c;集合操作相对简单&#xff0c;贴一段代码就懂了&#xff01; > A<-1:10 > A[1] 1 2 3 4 5 6 7 8 9 10 > B<-seq(5,15,2) > B [1] 5 7…

漏洞复现-IoT漏洞-D-Link路由

CVE-2020-24581/24579 RCE 简介 D-Link DSL-2888A AU_2.31_V1.1.47ae55之前版本漏洞源于 包含一个execute cmd.cgi特性、该特性允许经过身份验证的用户执行操作系统命令&#xff0c; 在该版本固件中同时存在着一个 不安全认证漏洞&#xff08;CVE-2020-24580&#xff09;&…

渗透测试-apt攻击与防御系列-利用WinRAR跨目录获取Net-NTLM Hash和DLL劫持

apt攻击与防御系列利用WinRAR跨目录获取Net-NTLM Hash和DLL劫持漏洞利用获取受害者的Net-NTLM Hash使⽤HashCat来暴⼒破解域控释放SCF⽂件借助下载⽂件夹安装程序DLL劫持投放LNK⽂件致敬亮神-2019 利用WinRAR跨目录获取Net-NTLM Hash和DLL劫持 域控&#xff1a;Windows 2008 …

Mysql 语句单表查询

一基本查询 -- 创建商品表 CREATE TABLE products( pid INT PRIMARY KEY AUTO_INCREMENT, pname VARCHAR(20), price DOUBLE ); - 查询的格式: select [distinct]*(所有)|字段名,...字段名 from 表名 [where 条件过滤] -- 查询指定字段信息pname,price SELECT pname,p…

渗透测试-apt攻击与防御系列-解决无Meterpreter Shell添加虚拟路由映射第一季

致敬亮神 Micropoor 无Meterpreter Shell添加虚拟路由映射payload生成&#xff1a;以cmd/unix/reverse_perl靶机执行&#xff1a;上线 session查看session 心跳&#xff1a;假session实战中&#xff0c;许多reverse shell 是无meterprete shell的&#xff0c;故不方便调用meter…

java.net.ConnectException: Connection timed out: no further information

ping IP 地址 检查是否连上 重启虚拟机 检查主机转载于:https://www.cnblogs.com/L-a-u-r-a/p/6991590.html

sqlplus的使用

1.sqlplus sys/x2145637ORCL as sysdba 以SYS作为系统管理员连接远端的数据库 ORCL的名字所在位置在D:\app\lenovo\product\11.2.0\dbhome_1\NETWORK\ADMIN\tnsnames.ora里面。或者sqlplus /nolog 登录sqlplus但不连接数据库conn sys/x2145637 as sysdbasqlplus语句太长能…