UI2CODE 복잡 한 배경 인식 불가?한어 기 사 는 이렇게 높 은 정확도 방안 을 만든다.
처리 절차:
복잡 한 배경의 처리 절 차 는 다음 과 같은 몇 가지 절차 로 나 뉜 다.
: , 。
: 。
: 。
: SRGAN 。
내용 리 콜:
내용 리 콜 은 저 희 는 목표 검색 네트워크 를 사용 하여 이 루어 집 니 다. 예 를 들 어 Faster - rcnn 또는 Mask - rcnn 등 은 다음 그림 과 같 습 니 다.
영역 판단:
라 프 라 스 연산 자 에 따라 주변 경사도 를 계산 하여 처 한 지역 이 복잡 한 지역 인지 아 닌 지 를 판단 한다.
간단 한 배경:
목표 검출 모델 자체 의 한계 성 으로 인해 픽 셀 등급 의 정확성 에 이 르 지 못 할 수 있 으 므 로 위 치 를 수정 해 야 한다.간단 한 배경 이 라면 경사도 의 사상 을 바탕 으로 위치 수정 을 할 수 있 고 구체 적 인 계산 방식 은 다음 과 같다.
복잡 한 배경:
배경 이 복잡 한 배경 일 때 왼쪽 그림 은 원본 그림 이 고 오른쪽 그림 은 추출 한 텍스트 블록 입 니 다.
이때 추출 한 상자 가 완전히 정확 하지 않 으 면 이때 경사도 등 기계 시각 알고리즘 에 따라 위 치 를 정확하게 수정 할 수 없습니다.본 고 는 GAN 네트워크 를 바탕 으로 복잡 한 배경 내용 추출 문 제 를 해결 하고 네트워크 의 주요 구 조 는 다음 과 같다.
왜 GAN 네트워크 를 선 택 했 어 요?
1) srGAN 네트워크 를 바탕 으로 이 네트워크 는 특징 그림 의 손실 함 수 를 추가 하여 고주파 정 보 를 잘 보존 하고 가장 자 리 를 잘 보존 할 수 있다.특징 그림 의 손실 함 수 는 다음 그림 과 같다.
2) 손해 에 대항 하 는 존재 가 있 기 때문에 오 검 률 을 잘 낮 출 수 있다.
3) 가장 중요 한 것 은 투명 성 이 있 는 장면 에서 의미 분할 네트워크 는 '추출' 요소 만 있 을 뿐 '복원' 요 소 를 할 수 없다 는 것 이다.GAN 네트워크 는 원 소 를 추출 하 는 동시에 겹 치지 않 은 픽 셀 의 상황 을 복원 할 수 있 을 뿐만 아니 라
네트워크 트 레이 닝 흐름 도
GAN 네트워크 개선
1. 우 리 는 초 해상도 장면 이 아니 기 때문에 pixelShuffler 모듈 로 샘플링 을 하지 않 습 니 다.
2. 장면 이 복잡 하기 때문에 denseNet 을 도입 하고 네트워크 를 강화 하여 정확 도 를 높 일 수 있다.
3. 내용 손실 함 수 는 오심 의 소음 을 억제 하 는 효과 가 이상 적 이지 않 기 때문에 오심 의 처벌 을 강화 했다. 구체 적 으로 다음 그림 과 같다.
예측 획득 결과 도 I:
예측 획득 결과 도 II:
종결 어
본 편 에서 우 리 는 복잡 한 배경 내용 추출 에 대한 소 개 를 통 해 기계 학습 을 위주 로 하고 이미지 처 리 를 보조 로 특정한 전망 내용 을 정확하게 얻 는 방법 을 제시 하여 높 은 정확도, 높 은 리 콜 율 과 높 은 포 지 셔 닝 정밀도 의 식별 결 과 를 얻 었 다.아래 그림 은 전통 알고리즘 grabcut, 의미 분할 방법 deeplab 와 본 고의 각 지표의 상황 이다.
데이터 논증 을 통 해 우 리 는 더욱 최적화 할 만 한 점 을 발견 했다. 대량의 견본 이 서로 다른 특징 기준 에 적합 해 야 하 는데 이곳 의 투 자 는 상대 적 으로 클 것 이다.어떻게 입찰 효율 을 한층 더 높 일 수 있 습 니까? 우 리 는 후속 시리즈 글 에서 여러분 과 공유 할 것 입 니 다.
동부 휘, 심 우
원문 을 읽다
본 고 는 운 서 지역사회 의 오리지널 내용 으로 허락 없 이 전재 할 수 없다.
이 내용에 흥미가 있습니까?
현재 기사가 여러분의 문제를 해결하지 못하는 경우 AI 엔진은 머신러닝 분석(스마트 모델이 방금 만들어져 부정확한 경우가 있을 수 있음)을 통해 가장 유사한 기사를 추천합니다:
puppet 의 설치 배치 실례puppet 에 대한 설명 은 여기 서 상세 하 게 소개 하지 않 습 니 다. 여 기 는 주로 puppet 의 설치 방식 과 기본 모듈 의 응용 을 소개 합 니 다.다음은 바로 puppet 배치 설 치 를 시작 하 ...
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
CC BY-SA 2.5, CC BY-SA 3.0 및 CC BY-SA 4.0에 따라 라이센스가 부여됩니다.