Python爬虫——爬取古诗文网

阅读: 评论:0

Python爬虫——爬取古诗文网

Python爬虫——爬取古诗文网

运用正则表达式极简代码爬取古诗信息(主要是练习正则表达式,很多后续的功并没有实现)

我们先看一下结果:注:只是截取了一部分结果

我们直接上代码:

import  re
import  requestsdef parse_url(url):headers={'User-Agent':'此处需要替换成你本机的'}reponse = (url, headers= headers)text = # print(text)titles = re.findall(r'<divsclass="cont">.*?<b>(.*?)</b>',text,re.DOTALL)# print(titles)authors  = re.findall(r'<psclass="source">.*?<a .*?>(.*?)</a>',text,re.DOTALL)# print(authors)dynasties = re.findall(r'<psclass="source">.*?<a .*?>.*?<a .*?>(.*?)</a>',text,re.DOTALL)# print(dynasties)contents = re.findall(r'<divsclass="contson".*?>(.*?)</div>',text,re.DOTALL)# print(contents)All_contents=[] # 定义一个空列表for i in contents:content = re.sub(r'<.*?>', " ", i)All_contents.append(content.strip())# print(All_contents)poems=[]  # 定义一个空列表for value in zip(titles, authors, dynasties, All_contents):# 将这四个列表中的每一项分别一一对应title,author,dynasty,content = value   # 将value里面的每一项赋予名字poem={'title':title,'author':author,'dynasty':dynasty,'content':content}poems.append(poem) # 将poem追加到poems中print(poems)def main():for i in range(1,5):url = '{}.aspx'.format(i)parse_url(url)if __name__ == '__main__':main()

注:中间代码没有问题哦!

本文发布于:2024-02-04 03:37:54,感谢您对本站的认可!

本文链接:https://www.4u4v.net/it/170698926552118.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

标签:爬虫   古诗   文网   Python
留言与评论(共有 0 条评论)
   
验证码:

Copyright ©2019-2022 Comsenz Inc.Powered by ©

网站地图1 网站地图2 网站地图3 网站地图4 网站地图5 网站地图6 网站地图7 网站地图8 网站地图9 网站地图10 网站地图11 网站地图12 网站地图13 网站地图14 网站地图15 网站地图16 网站地图17 网站地图18 网站地图19 网站地图20 网站地图21 网站地图22/a> 网站地图23