[논문 시리즈] Lyapunov형 학습 알고리즘

2687 단어 DeepLearning

원문


복합 시스템 응용 제어에 사용되는 Lyapunov형 동적 NN(Lyapunov-Based Dynamic Neural Network for Adaptive Control of Complex Systems)
Farouk Zouari, Kamel Ben Saad, Mohamed Benrejeb (2012)

1. 요약 / 배경

  • 일종의 학습 과정을 개발했는데 그 중에서 복합과 동적 데이터 시스템에서 입력 데이터를 바탕으로 하는 권중 조정을 즉시 실시한다
  • Lyapunov형 학습 알고리즘은 RNN에 응용된다
  • 2. 뼈 이론


    (1) RNN 모델 구상
    숨겨진 층의 입력 데이터는 다음과 같은 6가지 모드이다
    1. 이전 단계의 교사 데이터
    2. $n_a$단계 전 교사 데이터
    3. $(n_a+2)$단계 앞의 숨겨진 레이어
    4. $(nua+nub+1)$단계 앞의 숨겨진 레이어
    5. 1단계 출력 값
    6. $n_c$단계 전 출력 값
    입력 레이어 데이터의 차원은 $nu하면, 만약, 만약...
    $$n_r = n_a + n_b + n_c$$

    (2) Lyapunov형 학습 알고리즘
    권중의 업데이트는 하식에 따라 진행된다.
    w(k+1) = w(k) + \frac{\lambda}{\gamma} \Bigg(\frac{1}{1 + \frac{\beta}{\gamma}||\frac{\partial \hat y(k)}{\partial w(k)}||^2}\Bigg) e(k)\frac{\partial \hat y(k)}{\partial w(k)}
    
    하지만
    0 < \lambda \leqq \gamma \leqq \beta \\
    e(k) = y(k) - \hat y(k)
    
    매개 변수 $\lambda$, $\beta$, $\gamma$는 안정적인 시스템의 NN으로 결정됩니다.
    안정은 모델과 실제 값 간의 오차를 바탕으로 평가한다.평가 함수를 Lyapunov 함수라고 합니다.
    $$V(t) =\frac{1}{2}(e(t))^2$$
    나타내다
    (3) 가중치 조정식
    w(k+1) =  \Bigg(1-\frac{1}{2\big(1 + ||\frac{\partial \hat y(k)}{\partial w(k)}||^2\big)}\Bigg)w(k) \\
    + \frac{1}{2\big(1 + ||\frac{\partial \hat y(k)}{\partial w(k)}||^2\big)}e(k)\frac{\partial \hat y(k)}{\partial w(k)}
    
    (4) 동량을 더한 상태에서 하식이 된다.
    \begin{align}
    w(k+1) &=  \Bigg(1-\frac{\alpha}{2\big(1 + ||\frac{\partial \hat y(k)}{\partial w(k)}||^2\big)}\Bigg)w(k) \\
    &+ \frac{\alpha}{2\big(1 + ||\frac{\partial \hat y(k)}{\partial w(k)}||^2\big)}e(k)\frac{\partial \hat y(k)}{\partial w(k)} \\
    &+ (1-\alpha)\Delta w(k)
    \end{align}
    
    
    (5) 복합 체계에서의 매개 변수 조정
    \begin{align}
    wc(k+1) &= \Bigg(1-\frac{\alpha}{2\big(1 + ||\frac{\partial \hat y(k)}{\partial wc(k)}||^2 + ||\frac{\partial u(k-1)}{\partial wc(k)}||^2\big)}\Bigg)wc(k) \\
    &+  \frac{\alpha}{2\big(1 + ||\frac{\partial \hat y(k)}{\partial wc(k)}||^2 + ||\frac{\partial u(k-1)}{\partial wc(k)}||^2\big)} e_c(k)\frac{\partial \hat y(k)}{\partial wc(k)} \\
    &+ (1-\alpha)\Delta wc(k)
    \end{align}
    
    $wc$는 각 층의 신경원을 제어하는 권중방향량이다.
    wc = [wc_{11}^1,...,wc_{n_hn_r}^1,wc_{11}^2,...,wc_{n_h1}^2,\\
    wc_{11}^3,...,wc_{1n_h}^3,wc_{11}^4,wc_{11}^5,\\
    ...,wc_{1n_r}^5,wc_{11}^6,...,wc_{n_hn_r}^6,wc_{11}^7]^T
    

    좋은 웹페이지 즐겨찾기