최근keras 디버깅 문제

6842 단어 Tensorflow서버

최근keras 디버깅 문제

  • Keras의 모델.evaluate()
  • Python format 포맷 함수
  • keras 분할 장량(네트워크 층)
  • Input 0 is incompatible with layer conv11: expected ndim=3, found ndim=2 오류
  • kears 결합 - How to concatenate two layers in keras?
  • 서버 linux가 프로세스를 죽입니다

  • Keras의 모델입니다.evaluate()


    2차원 그룹을 되돌려받았습니다. 자료를 보니 로스값 &metricsvalues 즉 로스값과 당신이 선택한 지표값 (예를 들어 정밀도accuracy) 입니다.https://blog.csdn.net/Rex_WUST/article/details/84995954그리고predict 출력 예측 결과https://blog.csdn.net/DoReAGON/article/details/88552348

    Python format 포맷 함수


    https://www.runoob.com/python/att-string-format.html여기는python의 기초입니다. Python2.6을 공고히 하기 시작하여 문자열을 포맷하는 함수str.format () 을 추가했습니다. 문자열 포맷 기능을 강화했습니다.
    기본 문법은 {}와: 이전의% 를 대체합니다.
    format 함수는 매개 변수를 제한하지 않고 위치를 순서대로 할 수 있습니다.
    관례
    >>>"{} {}".format("hello", "world")    #  , 
    'hello world'
    

    keras 분할 장량(네트워크 계층)


    https://www.jianshu.com/p/29df4c8f43df https://blog.csdn.net/lujiandong1/article/details/54936185keras 자체의 Lambda 함수를 사용하여 설계합니다.구체적인 예는 다음과 같다.
      def slices(x, index):
            return x[:,:,index]
    
        dr = 0.5  # dropout rate (%)
        tap = 8
        input = Input(input_shape,name='input')
        x = input
        x1 =Lambda(slices, arguments={"index": 0}, name="iq0")(x)
        x2 =Lambda(slices, arguments={"index": 1}, name="iq1")(x)
    

    input 0 is incompatible with layer conv11: expected ndim=3, found ndim=2 오류


    텐서 분할을 마친 후 분할된 두 개의 장량을 각각 네트워크 input층에 보내면 오류가 발생합니다.
    Input 0 is incompatible with layer conv11: expected ndim=3, found ndim=2
    

    이 문제는 밤새 나를 괴롭혔다. 나는 내가 절분하는 과정이나 함수 설정에 문제가 있는 줄 알았다.보다http://quabr.com/53599357/valueerror-input-0-is-incompatible-with-layer-conv2-1-expected-ndim-4-found-n그리고https://stackoverflow.com/questions/42657049/keras-valueerror-input-0-is-incompatible-with-layer-convolution2d-11-expected나에게 매우 깊은 계발 작용을 한다.
    실제로 나의 원래tensor의 형상(1024,2)은 분해를 한 후에 나의 목표는 두 개(1024,1)로 분해하는 것이다. 결과 함수는 작은 최적화를 했고 분해된 결과의 형상을 (1024)로 바꾸었고keras가 보기에 1차원이 적다.그래서 나는reshape를 하나 만들어서 이 문제를 해결했다. 아래와 같다.
        x = input
        x1 =Lambda(slices, arguments={"index": 0}, name="iq0")(x)
        x2 =Lambda(slices, arguments={"index": 1}, name="iq1")(x)
        x1 =Reshape((1024,1))(x1)
        x2 =Reshape((1024,1))(x2)
    

    첨부(안 보기): LSTM 레이어를 사용하려는 경우 이 문제가 발생할 수 있습니다.https://blog.csdn.net/zds13257177985/article/details/80051543lstm에서 값을 출력하지 못하게 하는 것과 같다.

    kears 조인트 - How to concatenate two layers in keras?


    https://stackoverflow.com/questions/43196636/how-to-concatenate-two-layers-in-keras/43196972 https://blog.csdn.net/weixin_42442855/article/details/82721338
    일부 프로그램:
        added = Concatenate()([x1, x2])
        added = Concatenate()([x, added])
    

    서버 linux 프로세스 죽이기

    +-----------------------------------------------------------------------------+
    | Processes:                                                       GPU Memory |
    |  GPU       PID   Type   Process name                             Usage      |
    |=============================================================================|
    |    0     16959      C   python2                                    10737MiB |
    |    1      3694      C   python3m                                   10765MiB |
    |    2      5480      C   python                                     10765MiB |
    +-----------------------------------------------------------------------------+
    xxn@ubuntu:~$ kill -9 3694
    xxn@ubuntu:~$ nvidia-smi
    +-----------------------------------------------------------------------------+
    | Processes:                                                       GPU Memory |
    |  GPU       PID   Type   Process name                             Usage      |
    |=============================================================================|
    |    0     16959      C   python2                                    10737MiB |
    |    2      5480      C   python                                     10765MiB |
    +-----------------------------------------------------------------------------+
    

    좋은 웹페이지 즐겨찾기