【Python】简单爬虫抓取知乎专栏文章标题和链接、存储进CSV

阅读: 评论:0

【Python】简单爬虫抓取知乎专栏文章标题和链接、存储进CSV

【Python】简单爬虫抓取知乎专栏文章标题和链接、存储进CSV

文章目录

  • 1. 观察网页
  • 2. 实际代码
  • 3. 运行效果

今天突发奇想,想要爬取一下知乎专栏文章的标题和链接,看看某个作者到底在这大几百几千篇文章中写了什么。


1. 观察网页

以,我们所需要的每篇文章的所有信息,都被分别包括在一个类名为 ContentItem ArticleItemdiv 标签对中:

更准确的说,是一个类名为 ContentItem-title<h2></h2> 标题元素中:

此外,还发现知乎专栏并不是一次性加载完该专栏的所有文章,而是随着侧滑栏向下滑动而逐渐加载,滑动到底部时以每10篇文章为单位进行加载,并在HTML文档中生成新的 <div></div> 元素:

这就有点麻烦了,不过也不算太难。进一步观察发现,每次加载新文章时会发送一个 GET 请求,返回的是JSON数据:

其中包含了我们想要的所有信息,包括文章标题、链接、摘要、作者等等:

因此我们只需要不断请求这些JSON数据,进行解析得到结果,最后写入文件即可。


2. 实际代码

代码如下,就不仔细讲解了,反正很简单:

# -*- coding: utf-8 -*-
import os
import time
import requests
import csvzhihuColumn = "c_1034016963944755200" # 自行替换专栏编号,此处是自娱自乐的游戏访谈录(在URL中的编号)
startURL = "/" + zhihuColumn + "/items?limit=10&offset={}"
headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:91.0) Gecko/20100101 Firefox/91.0"}# 输入URL,得到JSON数据
def getJSON(url):try:r = (url, headers = headers)r.raise_for_status() # 响应状态码,出错则抛出异常r.encoding = r.apparent_encodingreturn r.json()except Exception as ex:print(type(ex))time.sleep(10)return getJSON(url)# 输入文章总数,输出所有文章标题和链接的CSV文件
def process(total):num = 0 # 文章编号if (ists("zhihu.csv")): # 已经存在时则删除os.remove("zhihu.csv") with open("zhihu.csv", "a", encoding = "UTF-8", newline = '') as f:writer = csv.writer(f)writer.writerow(["编号", "标题", "链接"]) # csv表头部分for offset in range(0, total, 10):jsonData = getJSON(startURL.format(offset))items = jsonData["data"]for item in items:num = num + 1writer.writerow([num, item["title"], item["url"]])if __name__ == "__main__":jsonData = getJSON(startURL.format(0))process(jsonData["paging"]["totals"])

3. 运行效果

本文发布于:2024-02-04 12:09:54,感谢您对本站的认可!

本文链接:https://www.4u4v.net/it/170706891755439.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

标签:爬虫   专栏   简单   链接   标题
留言与评论(共有 0 条评论)
   
验证码:

Copyright ©2019-2022 Comsenz Inc.Powered by ©

网站地图1 网站地图2 网站地图3 网站地图4 网站地图5 网站地图6 网站地图7 网站地图8 网站地图9 网站地图10 网站地图11 网站地图12 网站地图13 网站地图14 网站地图15 网站地图16 网站地图17 网站地图18 网站地图19 网站地图20 网站地图21 网站地图22/a> 网站地图23