网页资讯视频图片知道文库贴吧地图采购
进入贴吧全吧搜索

 
 
 
日一二三四五六
       
       
       
       
       
       

签到排名:今日本吧第个签到,

本吧因你更精彩,明天继续来努力!

本吧签到人数:0

一键签到
成为超级会员,使用一键签到
一键签到
本月漏签0次!
0
成为超级会员,赠送8张补签卡
如何使用?
点击日历上漏签日期,即可进行补签。
连续签到:天  累计签到:天
0
超级会员单次开通12个月以上,赠送连续签到卡3张
使用连续签到卡
08月15日漏签0天
python吧 关注:476,396贴子:1,972,117
  • 看贴

  • 图片

  • 吧主推荐

  • 视频

  • 游戏

  • 0回复贴,共1页
<<返回python吧
>0< 加载中...

大神帮忙看看代码

  • 只看楼主
  • 收藏

  • 回复
  • 夏树唯374
  • 白丁
    1
该楼层疑似违规已被系统折叠 隐藏此楼查看此楼
import requests
import re
import time
book_url = 'http://www.yuxuange.com/html/31192/index.html'
base_url = 'http://www.yuxuange.com/'
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/88.0.4324.96 Safari/537.36 Edg/88.0.705.50',
}
response_1 = requests.get(book_url, headers=headers)
response_1.encoding = 'utf-8'
chapter = response_1.text
print(response_1.text)
regx = "<dd><a href='(.*)'</a></dd>"
chapter_href_list = re.findall(regx, response_1.text)
chapter_url_list = []
for i in chapter_href_list:
url = base_url + i
chapter_url_list.append(url)
content_regx = '&&emsp;&emsp;(.*?)<br />'
title_regx = '<div class="atitle">(.*?)</div>'
save_path = '都市至尊仙帝.txt'
count = 0
with open(save_path, 'a+', encoding="utf-8") as f:
for x in chapter_url_list:
while 1:
response_2 = requests.get(x, headers=headers)
if '503 Service Temporarily Unavailable' not in response_2.text:
break
else:
print('漏数据了,3 秒之后继续爬')
time.sleep(3)
response_2.encoding = 'utf-8'
title = re.findall(title_regx, response_2.text)
content = re.findall(content_regx, response_2.text)
f.write('--------' + title[0] + '--------' + '\n')
for e in content:
f.write(e + '\n')
count += 1
print('第{}章 标题 : {} 爬取完毕!'.format(count, title[0]))


登录百度账号

扫二维码下载贴吧客户端

下载贴吧APP
看高清直播、视频!
  • 贴吧页面意见反馈
  • 违规贴吧举报反馈通道
  • 贴吧违规信息处理公示
  • 0回复贴,共1页
<<返回python吧
分享到:
©2025 Baidu贴吧协议|隐私政策|吧主制度|意见反馈|网络谣言警示