利用爬虫刷CSDN博客访问量
据我观察,CSDN博客并没有反爬虫的机制,因此,我们可以利用爬虫来增加自己的博文阅读量,但是需要让我们的爬虫“友好”一些,因为CSDN还是有设置两次访问的最短时间间隔的,因此,我们访问博文的时间间隔不能太短,太短的话阅读量是不会增加的。若想不受时间限制,可以轮换使用多个代理,小编没有这样的需求因此就没有用多个ip代理,只要程序挂在那里刷时间就行了。
我将自己的16篇原创博文的地址放在一个txt文件,设置循环访问,每次访问间隔3s,每轮访问间隔30s,如此一来,访问所有博文一遍大概需要一分半钟,一小时可以刷到600的访问量。
python">import requests
import time
from bs4 import BeautifulSoup
i=1
while True:
file=open('b.txt', 'r',encoding='utf-8',errors='ignore')
while True:
url=file.readline().rstrip()
header={"user-agent":"Mozilla/5.0"}
try:
data=requests.get(url=url,headers=header)
except ValueError:
break
else:
print(data.status_code,end='')
if(data.status_code == 200):
print(f"访问{url}成功")
else:
print(f"访问{url}失败")
time.sleep(3)
file.close()
print(f"第{i}轮")
time.sleep(30)
i+=1