Python爬虫框架:scrapy爬取迅雷电影天堂最新电影ed2k

阅读: 评论:0

Python爬虫框架:scrapy爬取迅雷电影天堂最新电影ed2k

Python爬虫框架:scrapy爬取迅雷电影天堂最新电影ed2k

项目开始

第一步仍然是创建scrapy项目与spider文件

切换到工作目录两条命令依次输入

scrapy startproject xunleidianying
scrapy genspider xunleiBT 

内容分析

打开目标网站(分类是2019年上映的电影),分析我们需要的数据
进入页面是列表的形式就像豆瓣电影一样,然后我们点进去具体页面看看

这个页面就是我们需要拿到的内容页面,我们来看我们需要哪些数据(某些数据从第一个页面就可以获得,但是下载地址必须到第二个页面)

  • 电影名称
  • 电影信息
  • 电影内容剧情
  • 电影下载地址

分析完成之后就可以首先编写 items.py文件

import scrapy
'''
更多Python学习资料以及源码教程资料,可以在群1136201545免费获取
'''
class XunleidianyingItem(scrapy.Item):# define the fields for your item here like:# name = scrapy.Field()name = scrapy.Field()information = scrapy.Field()content = scrapy.Field()downloadurl = scrapy.Field()pass

另外别忘了去settings.py中开启 ITEM_PIPELINES 选项

爬虫文件编写

老样子,为了方便测试我们的爬虫,首先编写一个main.py的文件方便IDE调用

main.py:

dline
ute('scrapy crawl xunleiBT'.split())

首先我们先测试直接向目标发送请求是否可以得到响应

爬虫文件 xunleiBT.py编写如下:

# -*- coding: utf-8 -*-
import scrapyclass XunleibtSpider(scrapy.Spider):name = 'xunleiBT'allowed_domains = ['']start_urls = ['/']def parse(self, response):)pass

运行 main.py 看看会出现什么
好的,发现直接返回正常的网页也就是我们要的网页,说明该网站没有反爬机制,这样我们就更容易爬取了

然后通过xpath定位页面元素,具体就不再赘述,之前的scarpy教程中都有 继续编写爬虫文件

import scrapy
#导入编写的 item
from xunleidianying.items import XunleidianyingItem
'''
更多Python学习资料以及源码教程资料,可以在群1136201545免费获取
'''
class XunleibtSpider(scrapy.Spider):name = 'xunleiBT'allowed_domains = ['www.xl720']start_urls = ['/']def parse(self, response):url_list = response.xpath('//h3//@href').getall()for url in url_list:yield scrapy.Request(url,callback=self.detail_page)nextpage_link = response.xpath('//a[@class="nextpostslink"]/@href').get()if nextpage_link:yield scrapy.Request(nextpage_link, callback=self.parse)def detail_page(self,response):# 切记item带括号BT_item = XunleidianyingItem()BT_item['name'] = response.xpath('//h1/text()').get()BT_item['information'] = ''.join(response.xpath('//div[@id="info"]//text()').getall())BT_item['content'] = response.xpath('//div[@id="link-report"]/text()').get()BT_item['downloadurl'] = response.xpath('//div[@class="download-link"]/a/text() | //div[@class="download-link"]/a/@href').getall()yield BT_item

ITEM爬取完成后该干什么?当然是入库保存了,编写pipelines.py文件进行入库保存

再次提醒别忘了去settings.py中开启 ITEM_PIPELINES 选项

pipelines.py文件代码如下:

import pymongo
#连接本地数据库
myclient = pymongo.MongoClient("mongodb://localhost:27017/")
#数据库名称
mydb = myclient["movie_BT"]
#数据表名称
mysheet = mydb["movie"]
'''
更多Python学习资料以及源码教程资料,可以在群1136201545免费获取
'''
class XunleidianyingPipeline(object):def process_item(self, item, spider):data = dict(item)mysheet.insert(data)return item

再次运行main.py 等待运行完成后打开数据库查询
数据保存完成,这次我们一共导入了380个数据,可以愉快的查看电影了

本文发布于:2024-01-30 22:36:19,感谢您对本站的认可!

本文链接:https://www.4u4v.net/it/170662538223314.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

标签:爬虫   迅雷   最新电影   框架   天堂
留言与评论(共有 0 条评论)
   
验证码:

Copyright ©2019-2022 Comsenz Inc.Powered by ©

网站地图1 网站地图2 网站地图3 网站地图4 网站地图5 网站地图6 网站地图7 网站地图8 网站地图9 网站地图10 网站地图11 网站地图12 网站地图13 网站地图14 网站地图15 网站地图16 网站地图17 网站地图18 网站地图19 网站地图20 网站地图21 网站地图22/a> 网站地图23