Python 은 5 줄 코드 를 사용 하여 언니 의 스케치 를 대량으로 만 듭 니 다.
위의 그림 의 오른쪽 이 바로 우리 의 효과 입 니 다.그러면 구체 적 으로 어떤 절차 가 있 습 니까?
1.절차 분석
위의 절차 에 있어 서 는 매우 간단 하 다.다음은 구체 적 인 실현 을 살 펴 보 자.
2.구체 적 실현
설치 에 필요 한 라 이브 러 리:
pip install opencv-python
필요 한 라 이브 러 리 가 져 오기:
import cv2
주체 코드 를 작성 하 는 것 도 매우 간단 합 니 다.코드 는 다음 과 같 습 니 다.
import cv2
SRC = 'images/image_1.jpg'
image_rgb = cv2.imread(SRC)
image_gray = cv2.cvtColor(image_rgb, cv2.COLOR_BGR2GRAY)
image_blur = cv2.GaussianBlur(image_gray, ksize=(21, 21), sigmaX=0, sigmaY=0)
image_blend = cv2.divide(image_gray, image_blur, scale=255)
cv2.imwrite('result.jpg', image_blend)
그 위의 코드 는 사실 어렵 지 않 습 니 다.그 다음 에 어린이 들 이 더 잘 이해 할 수 있 도록 다음 과 같은 코드 를 작 성 했 습 니 다.
"""
project = 'Code', file_name = 'study.py', author = 'AI '
time = '2020/5/19 8:35', product_name = PyCharm, :AI
code is far away from bugs with the god animal protecting
I love animals. They taste delicious.
"""
import cv2
#
SRC = 'images/image_1.jpg'
#
image_rgb = cv2.imread(SRC)
# cv2.imshow('rgb', image_rgb) #
# cv2.waitKey(0)
# exit()
image_gray = cv2.cvtColor(image_rgb, cv2.COLOR_BGR2GRAY)
# cv2.imshow('gray', image_gray) #
# cv2.waitKey(0)
# exit()
image_bulr = cv2.GaussianBlur(image_gray, ksize=(21, 21), sigmaX=0, sigmaY=0)
cv2.imshow('image_blur', image_bulr) #
cv2.waitKey(0)
exit()
# divide:
image_blend = cv2.divide(image_gray, image_bulr, scale=255)
# cv2.imshow('image_blend', image_blend) #
cv2.waitKey(0)
# cv2.imwrite('result1.jpg', image_blend)
그 위의 코드 는 우 리 는 기 존의 토대 위 에 실시 간 으로 보 여 주 는 코드 를 추가 하여 학생 들 이 이해 할 수 있 도록 했다.사실 어떤 동창 회 에서 내 가 소프트웨어 를 사용 하면 바로 스케치 그림 을 만 들 수 있 지 않 느 냐 고 물 었 다.
그 프로그램의 장점 은 무엇 입 니까?
프로그램의 장점 은 그림 의 양 이 많 으 면 이 럴 때 프로그램 을 사용 하여 대량으로 생 성 하 는 것 도 매우 편리 하고 효율 적 이라는 것 이다.
이렇게 해서 우리 의 것 은 완성 되 었 습 니 다.작은 언니 의 그림 을 스케치 로 만 들 었 습 니 다.skr~
3.바 이 두 그림 파충류+스케치 생 성
그러나 이것 은 우리 의 수많은 그림 이 아니다.대량의 이 단 어 를 달성 하기 위해 나 는 바 이 두 그림 파충류 를 썼 다.그러나 본 고 는 파충류 코드 를 어떻게 쓰 는 지 가 르 치 는 것 이 아니다.여기 서 나 는 파충류 코드,부적 과 소프트웨어 공학 규범 을 직접 내 놓 았 다.
# Crawler.Spider.py
import re
import os
import time
import collections
from collections import namedtuple
import requests
from concurrent import futures
from tqdm import tqdm
from enum import Enum
BASE_URL = 'https://image.baidu.com/search/acjson?tn=resultjson_com&ipn=rj&ct=201326592&is=&fp=result&queryWord={keyword}&cl=2&lm=-1&ie=utf-8&oe=utf-8&adpicid=&st=-1&z=&ic=&hd=&latest=©right=&word={keyword}&s=&se=&tab=&width=&height=&face=0&istype=2&qc=&nc=1&fr=&expermode=&force=&pn={page}&rn=30&gsm=&1568638554041='
HEADERS = {
'Referer': 'http://image.baidu.com/search/index?tn=baiduimage&ipn=r&ct=201326592&cl=2&lm=-1&st=-1&fr=&sf=1&fmq=1567133149621_R&pv=&ic=0&nc=1&z=0&hd=0&latest=0©right=0&se=1&showtab=0&fb=0&width=&height=&face=0&istype=2&ie=utf-8&sid=&word=%E5%A3%81%E7%BA%B8',
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.100 Safari/537.36',
'X-Requested-With': 'XMLHttpRequest', }
class BaiDuSpider:
def __init__(self, max_works, images_type):
self.max_works = max_works
self.HTTPStatus = Enum('Status', ['ok', 'not_found', 'error'])
self.result = namedtuple('Result', 'status data')
self.session = requests.session()
self.img_type = images_type
self.img_num = None
self.headers = HEADERS
self.index = 1
def get_img(self, img_url):
res = self.session.get(img_url)
if res.status_code != 200:
res.raise_for_status()
return res.content
def download_one(self, img_url, verbose):
try:
image = self.get_img(img_url)
except requests.exceptions.HTTPError as e:
res = e.response
if res.status_code == 404:
status = self.HTTPStatus.not_found
msg = 'not_found'
else:
raise
else:
self.save_img(self.img_type, image)
status = self.HTTPStatus.ok
msg = 'ok'
if verbose:
print(img_url, msg)
return self.result(status, msg)
def get_img_url(self):
urls = [BASE_URL.format(keyword=self.img_type, page=page) for page in self.img_num]
for url in urls:
res = self.session.get(url, headers=self.headers)
if res.status_code == 200:
img_list = re.findall(r'"thumbURL":"(.*?)"', res.text)
# ,
yield {img_url for img_url in img_list}
elif res.status_code == 404:
print('----- , -----')
yield None
elif res.status_code == 403:
print('***** , *****')
yield None
else:
print('>>> <<<')
yield None
def download_many(self, img_url_set, verbose=False):
if img_url_set:
counter = collections.Counter()
with futures.ThreadPoolExecutor(self.max_works) as executor:
to_do_map = {}
for img in img_url_set:
future = executor.submit(self.download_one, img, verbose)
to_do_map[future] = img
done_iter = futures.as_completed(to_do_map)
if not verbose:
done_iter = tqdm(done_iter, total=len(img_url_set))
for future in done_iter:
try:
res = future.result()
except requests.exceptions.HTTPError as e:
error_msg = 'HTTP error {res.status_code} - {res.reason}'
error_msg = error_msg.format(res=e.response)
except requests.exceptions.ConnectionError:
error_msg = 'ConnectionError error'
else:
error_msg = ''
status = res.status
if error_msg:
status = self.HTTPStatus.error
counter[status] += 1
if verbose and error_msg:
img = to_do_map[future]
print('***Error for {} : {}'.format(img, error_msg))
return counter
else:
pass
def save_img(self, img_type, image):
with open('{}/{}.jpg'.format(img_type, self.index), 'wb') as f:
f.write(image)
self.index += 1
def what_want2download(self):
# self.img_type = input(' , ~ >>> ')
try:
os.mkdir(self.img_type)
except FileExistsError:
pass
img_num = input(' (1 30 , 1 30 ,2 60 ):>>> ')
while True:
if img_num.isdigit():
img_num = int(img_num) * 30
self.img_num = range(30, img_num + 1, 30)
break
else:
img_num = input(' , >>> ')
def main(self):
#
total_counter = {}
self.what_want2download()
for img_url_set in self.get_img_url():
if img_url_set:
counter = self.download_many(img_url_set, False)
for key in counter:
if key in total_counter:
total_counter[key] += counter[key]
else:
total_counter[key] = counter[key]
else:
#
pass
time.sleep(.5)
return total_counter
if __name__ == '__main__':
max_works = 20
bd_spider = BaiDuSpider(max_works)
print(bd_spider.main())
# Sketch_the_generated_code.py
import cv2
def drawing(src, id=None):
image_rgb = cv2.imread(src)
image_gray = cv2.cvtColor(image_rgb, cv2.COLOR_BGR2GRAY)
image_blur = cv2.GaussianBlur(image_gray, ksize=(21, 21), sigmaX=0, sigmaY=0)
image_blend = cv2.divide(image_gray, image_blur, scale=255)
cv2.imwrite(f'Drawing_images/result-{id}.jpg', image_blend)
# image_list.image_list_path.py
import os
from natsort import natsorted
IMAGES_LIST = []
def image_list(path):
global IMAGES_LIST
for root, dirs, files in os.walk(path):
#
# files.sort()
files = natsorted(files)
#
for file in files:
# .jpg
if os.path.splitext(file)[1] == '.jpg':
#
# print(file)
filePath = os.path.join(root, file)
print(filePath)
#
IMAGES_LIST.append(filePath)
return IMAGES_LIST
# main.py
import time
from Sketch_the_generated_code import drawing
from Crawler.Spider import BaiDuSpider
from image_list.image_list_path import image_list
import os
MAX_WORDS = 20
if __name__ == '__main__':
# now_path = os.getcwd()
# img_type = 'ai'
img_type = input(' , ~ >>> ')
bd_spider = BaiDuSpider(MAX_WORDS, img_type)
print(bd_spider.main())
time.sleep(10) # , , , ,
for index, path in enumerate(image_list(img_type)):
drawing(src = path, id = index)
그래서 최종 디 렉 터 리 구 조 는 다음 과 같다.
C:.
│ main.py
│ Sketch_the_generated_code.py
│
├─Crawler
│ │ Spider.py
│ │
│ └─__pycache__
│ Spider.cpython-37.pyc
│
├─drawing
│ │ result.jpg
│ │ result1.jpg
│ │ Sketch_the_generated_code.py
│ │ study.py
│ │
│ ├─images
│ │ image_1.jpg
│ │
│ └─__pycache__
│ Sketch_the_generated_code.cpython-37.pyc
│
├─Drawing_images
├─image_list
│ │ image_list_path.py
│ │
│ └─__pycache__
│ image_list_path.cpython-37.pyc
│
└─__pycache__
Sketch_the_generated_code.cpython-37.pyc
이로써 모든 코드 가 완성 되 었 다.파 이 썬 이 5 줄 코드 를 사용 하여 언니 의 스케치 를 대량으로 만 드 는 것 에 관 한 이 글 은 여기까지 소개 되 었 습 니 다.더 많은 관련 파 이 썬 이 스케치 를 대량으로 만 드 는 내용 은 우리 의 이전 글 을 검색 하거나 아래 의 관련 글 을 계속 조회 하 시기 바 랍 니 다.앞으로 많은 응원 부 탁 드 리 겠 습 니 다!
이 내용에 흥미가 있습니까?
현재 기사가 여러분의 문제를 해결하지 못하는 경우 AI 엔진은 머신러닝 분석(스마트 모델이 방금 만들어져 부정확한 경우가 있을 수 있음)을 통해 가장 유사한 기사를 추천합니다:
Python의 None과 NULL의 차이점 상세 정보그래서 대상 = 속성 + 방법 (사실 방법도 하나의 속성, 데이터 속성과 구별되는 호출 가능한 속성 같은 속성과 방법을 가진 대상을 클래스, 즉 Classl로 분류할 수 있다.클래스는 하나의 청사진과 같아서 하나의 ...
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
CC BY-SA 2.5, CC BY-SA 3.0 및 CC BY-SA 4.0에 따라 라이센스가 부여됩니다.