나만의 AI 이미지 생성 구축

타격



인터넷의 최신 트렌드는 midjourney, Dall-e 2 또는 안정적인 확산과 같은 이미지 생성기에 쉽게 액세스할 수 있다는 것입니다. 우리는 페이월 뒤에 있는 이들 중 일부입니다. AWS Sagemaker 노트북 인스턴스에서 직접 사용을 시작할 수 있는 몇 줄의 코드를 보여드리겠습니다!

안정적인 확산에 의한 공개 릴리스 덕분에 이미지를 생성하는 ai 모델을 다운로드하고 실행할 수 있으며 때로는 결과가 끔찍할 수도 있고 때로는 우아할 수도 있습니다. 아래에 제공된 예는 단순히 "현실적인 피카추"와 "모자를 쓴 노인"입니다. 프롬프트가 실행될 때마다 결과가 달라집니다!




이 사람이 진짜가 아니라고 믿기 어렵습니다. 그러나 이러한 이미지 세대는 예술 작품 이외의 다른 실용적인 응용 프로그램이 있습니까? 물론 그들은 누군가가 가구와 같은 새로운 영감을 주는 디자인을 얻을 수 있는 몇 가지 간단한 프롬프트로 디자인 산업에 영향을 미칠 것입니다!



전제 조건



1.Huggingface에서 계정을 만드세요.
  • 서비스 약관에 동의합니다.
  • 생성하다 token

  • 노트북 실행



    경고: Sagemaker 노트북은 실행하는 데 비용이 듭니다! 비용을 피하려면 인스턴스를 완료하자마자 정리하십시오! 자신의 책임하에 진행하십시오!
  • AWS 콘솔에 로그인합니다.
  • Amazon Sagemaker를 검색하고 선택합니다.


  • 왼쪽 메뉴에서 노트북 인스턴스를 클릭합니다
  • .
  • 인스턴스 만들기 클릭


  • 인스턴스에서 이름을 선택합니다. 인스턴트 유형은 가속 컴퓨팅 인스턴스여야 합니다! ml.p2.xlarge 이상을 선택하십시오
  • .


  • 권한 및 암호화가 기본값으로 유지됨
  • 네트워크 설정을 엽니다. 기본 VPC로 설정합니다. 인터넷 액세스가 필요합니다.


  • 인스턴스 시작을 선택하십시오!

  • 노트북 구성



    지금까지 따라했다면 인스턴스가 준비되는 데 약간의 시간이 걸립니다. 그러나 인스턴스를 일부 변경하고 일부 패키지를 추가해야 합니다. 기존 환경 변수를 수정합니다.
  • 인스턴스가 준비되면. Jupyter Lab 열기를 선택합니다.


  • 터미널 선택
  • Conda 환경 활성화

  • source /home/ec2-user/anaconda3/etc/profile.d/conda.sh
    conda activate pytorch_38
    


  • 이것이 작동하려면 필수 패키지를 설치하십시오.

  • pip install diffusers==0.2.3 transformers scipy
    pip install torch==1.11.0+cu113 torchvision==0.12.0+cu113 torchaudio==0.11.0 --extra-index-url https://download.pytorch.org/whl/cu113
    


  • huggingface-cli 로그인 구성

  • huggingface-cli login
    


    그러면 이전의 token을 입력하라는 메시지가 표시됩니다.

    성공하면 출력
    Login successful
    Your token has been saved to /home/ec2-user/.huggingface/token
    Authenticated through git-credential store but this isn't the helper defined on your machine.
    You might have to re-authenticate when pushing to the Hugging Face Hub. Run the following command in your terminal in case you want to set this credential helper as the default

    코드!


  • 구성이 완료되었습니다! 파일 -> 새로 만들기 -> 새 노트북을 선택합니다.
  • 다음 코드를 셀에 복사 붙여넣기

  • from torch import autocast
    from diffusers import StableDiffusionPipeline, LMSDiscreteScheduler
    
    
    lms = LMSDiscreteScheduler(
        beta_start=0.00085, 
        beta_end=0.012, 
        beta_schedule="scaled_linear"
    )
    
    # this will substitute the default PNDM scheduler for K-LMS  
    pipe = StableDiffusionPipeline.from_pretrained(
        "CompVis/stable-diffusion-v1-4", 
        scheduler=lms,
        use_auth_token=True
    ).to("cuda")
    
    prompt = "a photo of an astronaut riding a horse on mars"
    with autocast("cuda"):
        image = pipe(prompt)["sample"][0]  
    
    image.save("astronaut_rides_horse.png")
    


  • 실행을 클릭하십시오! 참고: 첫 번째 실행은 AI 모델을 다운로드하므로 약간의 시간이 걸립니다. 최종 결과물은 아름다운 사진이어야 하고 내 사진과 다르게 보여야 합니다!



  • 결론



    이를 사용하여 프롬프트 및 파일 이름을 편집하여 다양한 유형의 이미지를 생성할 수 있습니다. 결과는 거의 동일하지 않습니다. 이것은 기본 프레임워크일 뿐이며 웹 요청을 기반으로 이미지를 생성하기 위해 훨씬 더 복잡한 시스템을 만들 수 있습니다. GPU가 연결된 EC2 인스턴스에서 쉽게 시작하여 이미지를 생성하고 S3로 푸시합니다.

    경고 충전을 중지하려면 노트북을 종료하는 것을 잊지 마십시오.

    원천:



    HuggingFace

    좋은 웹페이지 즐겨찾기