python 파충류:KK 플랫폼 모든 미녀 아나운서 사진

2125 단어 python
이 사 이 트 는 사 이 트 를 끝까지 굴 려 야 아나운서 정 보 를 불 러 올 수 있 기 때문에 selenium 라 이브 러 리 를 사용 하고 chrome 브 라 우 저 를 빌려 야 합 니 다.
#coding=utf-8

import sys
import  io
sys.stdout = io.TextIOWrapper(sys.stdout.buffer, encoding='utf-8')


import requests
from bs4 import BeautifulSoup
import os


from selenium import webdriver
import time


base_dir = "D:/python/src/download/"

def downloadSource(url,i):
    from contextlib import closing
    with closing(requests.get(url,stream = True)) as resp, open(base_dir+str(i)+".png",'wb') as f:
        for chunk in (resp.iter_content(128)):
            f.write(chunk)

def parseHtml(bsoup):
    try:
        usr_container = bsoup.find("div",class_="main_content live-list")
        all_user = usr_container.find_all("a")
        print(len(all_user))
        i = 0
        for item in all_user:
            user_name = item.find("span",class_="actor_name").string
            user_info = item.find("div",class_="video-cover")
            cover = user_info.img['src'].split("!")[0]  #           
            try:
                print("downloading {0}:{1}".format(user_name, cover))
                downloadSource(cover,i)
                i = i+1
                print("download finish")
            except:
                print("download error")
            
    except:
        print("parse failed")

def get_content(driver,url):
    driver.get(url)
    for i in range(1,30):
        time.sleep(1) 
        driver.execute_script('window.scrollTo(0,1000000)')  
    content = driver.page_source.encode('utf-8')
    driver.close()
    soup = BeautifulSoup(content, 'lxml')
    return soup

def main():
    url = "http://www.kktv1.com/list/all/1/0"
    
    if not os.path.exists(base_dir):
        os.makedirs(base_dir)
    driver = webdriver.Chrome()
    bs0 = get_content(driver, url)
    parseHtml(bs0)
    
if __name__ == "__main__":
    main()
    print("Exit!!")

    
 
결과:

좋은 웹페이지 즐겨찾기