Python 대량 검색 엔진 이미지 파충류 도구 상세 정보

python 이미지 파충류 패키지
최근에 이미지 분류 작업을 할 때, 우리의 데이터 집합을 확충하기 위해서, 검색 엔진 아래에서 추가 그림을 찾아서 우리의 훈련 집합을 확충해야 한다.인공지능을 하는 건 정말 어려워요.😭,파충류라니.물론 인터넷에도 많은python이 쓴 파충류 도구가 있다. 물론 많이 사용하면 알 수 있듯이 이런 파충류 도구는 키워드를 많이 할 수 없는 파충류가 아니면 사용할 수 없거나 이따가 사이트에서 검출되어 정지되었다. 마지막에 매우 좋은python 이미지 파충류 라이브러리 icrawler를 발견했다. 직접pip를 통해 설치할 수 있고 사용할 때 몇 줄의 코드를 사용할 수 있으니 너무 시원하지 않다.
말이 많지 않으니 설치 명령을 첨부하십시오.

pip install icrawler
다음은 내 파충류 코드를 첨부합니다.

from icrawler.builtin import BaiduImageCrawler 
from icrawler.builtin import BingImageCrawler 
from icrawler.builtin import GoogleImageCrawler 
# 
list_word = ['   ','   ','   ','   ', '   ']
for word in list_word:
  #bing 
  # 
  bing_storage = {'root_dir': 'bing\\'+word}
  # , , 
  bing_crawler = BingImageCrawler(parser_threads=2,
                  downloader_threads=4,
                  storage=bing_storage)
  # , + 
  bing_crawler.crawl(keyword=word,
            max_num=2000)

  # 
  # baidu_storage = {'root_dir': 'baidu\\' + word}
  # baidu_crawler = BaiduImageCrawler(parser_threads=2,
  #                  downloader_threads=4,
  #                  storage=baidu_storage)
  # baidu_crawler.crawl(keyword=word,
  #           max_num=2000)


  # google 
  # google_storage = {'root_dir': '‘google\\' + word}
  # google_crawler = GoogleImageCrawler(parser_threads=4,
  #                  downloader_threads=4,
  #                  storage=google_storage)
  # google_crawler.crawl(keyword=word,
  #           max_num=2000)
이 파충류 라이브러리는 다중 루틴, 다중 검색엔진(바이두, 필응, 구글)의 파충류를 실현할 수 있다. 물론 구글 파충류는 사다리가 필요하다.여기에 전시된 것은 필수적인 파충류를 바탕으로 하는 것이다. 바이두와 구글의 코드도 아래에 있다. 단지 내가 차단했을 뿐이다. 물론 세 가지를 동시에 모두 열 수 있다.이런python 파충류 창고는 사용하기에 정말 너무 시원하지 않다.
파이썬의 대량의 검색 엔진 이미지 파충류 도구에 관한 이 글은 여기까지 소개되었습니다. 파이썬 검색 엔진 이미지 파충류에 대한 더 많은 내용은 저희 이전의 글을 검색하거나 아래의 관련 글을 계속 훑어보십시오. 앞으로 많은 응원 부탁드립니다!

좋은 웹페이지 즐겨찾기