NN 주위 개인적 정리
2038 단어 신경망
모양과 목적
AE : 복수의 입력 개체의 정보를 압축하여 기억할 수 있는 기술.
단점 입력에없는 데이터 지점에서 무엇이 나왔는지 모르겠습니다
VAE : AE에서 z 분포를 좋은 특성 분포로 가공하는 기술.
개체(점)+분포(곡면)를 기억한다.
단점
GAN : 특정 넷 G의 출력을 특정 비자명한 분포에 맞추기 위한 기술
단점 느린, 시스템이 엉망입니다.
(入力)----<加工したいNN G>----(出力) こんなネットがあったとする
今のところ (出力) はやりたい放題な値になっている
このネットワークの(出力)をある [わけわからん分布] に沿わせたい このとき
1. <Discriminator NN D>
2. ([わけわからん分布]からランダムサンプル出来る生成器)
を使って01判定をおこなう。
Step A. まず
((生成器) concat (出力))----<D>----(判定結果)
上を判定結果が (111..111 000..000) になるよう学習する。 (loss: binary crossentropy)
11... は(生成器)のデータを1と判定しており、00... は(出力)のデータを0と判定している。
Step B. 次に Discriminator NN D の重みを固定して(学習をオフ)
(入力)----<G>----(出力)----<D[固定]>----(判定結果)
(判定結果) を (111..111) になるようGだけ学習する。
こうするとStep Aの結果が完璧*でなくなるので、Step Aをまた実行する
Step A,Bを繰り返すといろいろあって (出力) の分布が (生成器) の分布と同じになる。
論文ではゴチャい数式が出てくるが E[log D(z)] + E[ log (1-D(G(x))) ] ていうのは
crossentropy の式を binary (01) の項に書き下したら 色々項が消えてそうなっただけ。
* 実際は完璧でなくて良い
이미지로서는 다이어프램 펌프군요. Discriminator에서 오류 정보를 누적하고,
이번에는 Discriminator를 고정하여 Generator에 수정정보를 담는 느낌. 통과?
AAE : VAE + GAN. hand-written reparametrization 대신 GAN 사용 보통 VAE와 달리 GAN 덕분에 짜증나는 분포에서도 ok 논문에서는 swiss roll 단점 GAN보다 무즈이 ---①--> x-->z-->x' ↘ \ ②↘→ +--->d [0,1] ⇕ 가중치는 공유 n----+--->d[0,1] 소음 ---③---> ①, ②+③(x-z 고정), ②(z-d 고정) 반복
Reference
이 문제에 관하여(NN 주위 개인적 정리), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다 https://qiita.com/guicho271828/items/fcb016a8609744c6365d텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념 (Collection and Share based on the CC Protocol.)