python爬虫抓取游民星空每日囧图

阅读: 评论:0

python爬虫抓取游民星空每日囧图

python爬虫抓取游民星空每日囧图

以前写过一个爬取游民每日囧图的python脚本,现在发现游民改版了,老的脚本不能用了,所以今天又写一个新的

#-*-coding:UTF-8-*-
'''首先在python文件下创建一个叫youmin的文件夹'''
import re
import urllib
import threading
import time
from Tkinter import *
import os
import random



#清除文件夹youmin下面的旧图片,请手动建立该文件夹
for filename in os.listdir('youmin'):
    os.remove(os.path.join( 'youmin', filename ))

src='<img class="picact".*?src="(.*?)"'
detail1='<img class="picact".*?</a><br>(.*?)</p>'
member='<p align="center"><a target="_blank".*?</p>'
titlelist=[]
urllist=[]
img=repile(src)
detail=repile(detail1)
mem=repile(member)
def gethtml(url):
    #获取网页所有源码
    return urllib.urlopen(url).read().decode('UTF-8').replace("n","")

def getimg(html,s):
    
     #下载图片
    global img
    try:
        memlist=re.findall(mem,html)
        for i in memlist:
            #print i        
            imglist=re.findall(img,i)
            titles=re.findall(place('&nbsp; ','').replace('&nbsp;',''))
            for j in imglist:
                #下载图片
                tit=titles[0] if len(titles)>0 else random.choice(["JGood", "is", "a", "handsome", "boy"])
                urllib.urlretrieve(j,'.\youmin\'+str(s)+"--"+tit+j[-4:])
    except:
        
         pass

class getmy(threading.Thread):
     #创建多线程
    def __init__(self,url,begin,end):
        threading.Thread.__init__(self)
        self.url=url
        self.begin = begin
        d =end
    def run(self):
        try:
            for i in range(self.d+1):
                s=i
                if i==1:
                    i=''
                else:
                    i='_'+str(i)
                murl = self.url[:-6]+str(i)+self.url[-6:]
                #print murl
                getimg(gethtml(murl),s)
        except:
            pass

        
root = Tk()
def printList(event):
    targeturl= urllist[lb.curselection()[0]]
    
    threads =[]
    i=1
    j=5
    #每个线程下载5页,一共下载50页
    for s in range(10):
         threads.append(getmy(targeturl,i,j))
         i+=5
         j+=5
    for t in threads:
         t.start()        
    for t in threads:
         t.join()
   
lb = Listbox(root,width=40,height=20)
lb.bind('<Double-Button-1>',printList)

def getbaseurl():
    
    url='/'#游民每日图片发布页
    s=urllib.urlopen(url).read()
    urlhtm1='<a class="img1" target="_blank" .*?</a>'#寻找图片发布页网址所在的html区域
    urlhtm2='<a class="img2" target="_blank" .*?</a>'
    herfhtm='http:.*?shtml'#图片发布页网址
    title='<div class="txt">(.*?)</div>'
    urs1=repile(urlhtm1)
    urs2=repile(urlhtm2)    
   # urs=repile(herfhtm)
    urllist1=re.findall(urs1,s)#查找所有最新图片发布页网址
    urllist2=re.findall(urs2,s)
    divlist=urllist1+urllist2
    
    for i in divlist:
        urllist.append(re.search(herfhtm,i).group())
        title1=re.search(title,i).group(1)
        lb.insert(END,title1)
        titlelist.append(title1)
        #print i


getbaseurl()   
lb.pack()

root.mainloop()


列表显示所有页面的标题,双击就可以开启下载,因为用了多线程,下载还是非常快的








本文发布于:2024-02-03 05:09:52,感谢您对本站的认可!

本文链接:https://www.4u4v.net/it/170690819048863.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

标签:爬虫   游民   星空   python
留言与评论(共有 0 条评论)
   
验证码:

Copyright ©2019-2022 Comsenz Inc.Powered by ©

网站地图1 网站地图2 网站地图3 网站地图4 网站地图5 网站地图6 网站地图7 网站地图8 网站地图9 网站地图10 网站地图11 网站地图12 网站地图13 网站地图14 网站地图15 网站地图16 网站地图17 网站地图18 网站地图19 网站地图20 网站地图21 网站地图22/a> 网站地图23