DeepWrinkles:Accurate and Realistic Clothing Modeling
Facebook Reality Labs, USA, Technical University Munich, Germany
ECCV2018
arXiv , project page , video
어떤 물건?
우리는 현실 세계의 데이터에서 정확하고 현실적인 옷 변형(주름)을 만드는 방법을 제시했다.
Deep wrinkles의 목표는 관측할 수 있는 모든 기하학적 디테일을 회복하는 것이다.
선행 연구와의 차이
기술과 수법의 관건
보라색 입력, 청색 학습 모형.
Data preparation
Statistical model
PCA를 이용한 선형 서브스페이스 분해(SMPL)[31] 계산 통계 모델
※ 이미지 참조[31]
Fine Wrinkle Generation
아래 그림에서 보듯이 lowresolution(LR)법선영사와 Conditional GAN에서 얻은 하이resolution(HR)법선영사를 사용하여 옷의 상세한 주름을 재현한다.
lowresolution(LR) 법선 매핑은blend shape reconstruction을 통해 얻을 수 있습니다.
High resolution(HR) 법선 매핑은 스캔을 통해 얻을 수 있습니다.
다음은 제안 기법의 Conditional GAN입니다.
Generator는 U-Net 구조이고 Discriminator는 70x70의 PatchGAN으로 강제 법선 매핑의 일관성을 가진다.
lowresolution(LR) 법선에서 진정한 highresolution(HR) 법선 맵을 생성하는 것을 목표로 합니다.
법선이 비치는 시간의 일치성을 유지하기 위해 다음과 같은 손실을 추가합니다.
$L_{data}$는 실제 값에 가까운 맵 손실을 생성하는 데 사용됩니다.
$L_{temp}$는 거의 1시간 전의 진가 이미지를 생성하기 위해 손실되었습니다.
연속 2 프레임의 결과를 보면 이런 손실이 없는 상황에서 소음이 나고 일관성이 사라진다.
(왼쪽은 무손실 연속 2 프레임, 오른쪽은 손실 연속 2 프레임)
유효성 확인 방법
두 종류의 셔츠를 배우다.
9213장의 연속 이미지 데이터 집합을 사용합니다(The first8000fortrain, the next1000fortest, the remaining213forvalidation.)
Comparison of approaches
다음은 서로 다른 방법과 비교한 결과다.
Importance of reconstruction details in input
다음 표에는 시간에 추가된 $L_ 이 나와 있습니다.{loss}$의 결과 (왼쪽) 와 학습 데이터의 결과 (오른쪽) 를 변경합니다.
(왼쪽) $L_1$거리로 정의하는 것이 좋습니다, $L_{temp}$및 $L_{data}$도 필요합니다.
(오른쪽)registration이 가장 좋습니다.
Retargeting
humantemplate를 바꾸면 서로 다른 체형에 대한retarget을 실현할 수 있다.
논쟁이 있습니까?
다음 논문
pix2pix가 아니라 vid2vid입니다.
Video-to-Video Synthesis
Reference
이 문제에 관하여(DeepWrinkles:Accurate and Realistic Clothing Modeling), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다
https://qiita.com/d-ogawa/items/41cbd4f13f749579e080
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념
(Collection and Share based on the CC Protocol.)
Reference
이 문제에 관하여(DeepWrinkles:Accurate and Realistic Clothing Modeling), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다 https://qiita.com/d-ogawa/items/41cbd4f13f749579e080텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념 (Collection and Share based on the CC Protocol.)