AnimeGANV2란?
AnimeGAN의 개선된 버전인 AnimeGANv2.
AnimeGAN은 사진 애니메이션용 경량 GAN입니다.
요컨대 사람들은 이미지에서 애니메이션의 한 장면 같은 사진을 생성할 수 있습니다.
이것으로 AnimeGAN을 쉽게 사용해 볼 수 있습니다.
https://animegan.js.org/세부 사항
https://tachibanayoshino.github.io/AnimeGANv2/ 저장소
원래 리포지토리
타치바나요시노
/
아니메GANv2
[오픈 소스]. AnimeGAN의 개선된 버전. 풍경 사진/동영상을 애니메이션으로
애니메이션GANv2
「오픈소스」. AnimeGAN의 개선된 버전.
「 프로젝트 페이지 」 | 풍경 사진/동영상을 애니메이션으로
소식
(2021.12.25) AnimeGANv3가 입고되었습니다.🎄
(2020.12.25) AnimeGANv3가 2021년 봄에 논문과 함께 공개될 예정입니다. (2021.02.21) The pytorch version of AnimeGANv2 has been released , @bryandlee의 기여에 감사드립니다. 집중하다:
애니메이션 스타일
영화
그림 번호
품질
스타일 데이터세트 다운로드
미야자키 하야오
바람이 분다
1752년
1080p
Link 신카이 마코토
너의 이름은 너와 웨더링
1445
BD
콘 사토시
파프리카
1284
브드립
소식:
The improvement directions of AnimeGANv2 mainly include the following 4 points:
-
1. Solve the problem of high-frequency artifacts in the generated image.
-
2. It is easy to train and directly achieve the effects in the paper.
-
3. Further reduce the number of parameters of the generator network. (generator size: 8.17 Mb), The lite version has a smaller generator model.
…
파이토치 구현
브라이언들리
/
animegan2-pytorch
AnimeGANv2의 PyTorch 구현
AnimeGANv2의 PyTorch 구현
Updates
기본 사용법
Inference
python test.py --input_dir [image_folder_path] --device [cpu/cuda]
토치 허브 사용
torch.hub
를 통해 모델을 로드할 수 있습니다.
import torch
model = torch.hub.load("bryandlee/animegan2-pytorch", "generator").eval()
out = model(img_tensor) # BCHW tensor
Currently, the following pretrained
shorthands are available:
model = torch.hub.load("bryandlee/animegan2-pytorch:main", "generator", pretrained="celeba_distill")
model = torch.hub.load("bryandlee/animegan2-pytorch:main", "generator", pretrained="face_paint_512_v1")
model = torch.hub.load("bryandlee/animegan2-pytorch:main", "generator", pretrained="face_paint_512_v2")
model = torch.hub.load
…
단계
- Create a new note on Google Colab
- Upload an input image
- Run the following code
from PIL import Image
import torch
import IPython
from IPython.display import display
# https://github.com/bryandlee/animegan2-pytorch
# load models
model_celeba = torch.hub.load("bryandlee/animegan2-pytorch:main", "generator", pretrained="celeba_distill")
model_facev1 = torch.hub.load("bryandlee/animegan2-pytorch:main", "generator", pretrained="face_paint_512_v1")
model_facev2 = torch.hub.load("bryandlee/animegan2-pytorch:main", "generator", pretrained="face_paint_512_v2")
model_paprika = torch.hub.load("bryandlee/animegan2-pytorch:main", "generator", pretrained="paprika")
face2paint = torch.hub.load("bryandlee/animegan2-pytorch:main", "face2paint", size=512)
INPUT_IMG = "sg.jpg" # input_image jpg/png
img = Image.open(INPUT_IMG).convert("RGB")
out_celeba = face2paint(model_celeba, img)
out_facev1 = face2paint(model_facev1, img)
out_facev2 = face2paint(model_facev2, img)
out_paprika = face2paint(model_paprika, img)
# save images
out_celeba.save("out_celeba.jpg")
out_facev1.save("out_facev1.jpg")
out_facev2.save("out_facev2.jpg")
out_paprika.save("out_paprika.jpg")
# display images
display(img)
display(out_celeba)
display(out_facev1)
display(out_facev2)
display(out_paprika)
[원래의]
[셀레바_증류]
[face_paint_512_v1]
[face_paint_512_v2]
[파프리카]