교육에 장애가 발생했습니다.lua:62: 필드 "recursive Copy"호출 시도
4623 단어 neuralconvo
묘사
@neuralconvo는 cuda와opencl가 설치된 다른 두 대의 기기에서 실행 중입니다. 아무런 문제가 없습니다...현재, 나는 14.04와cuda8로 새로운 운영체제를 설정했고, tf1이cudnn5를 6으로 변경했기 때문이다.셋...횃불 설치 완료...추적:
열차lua--cuda-데이터 세트 5000-hiddenSize 100-데이터 세트 로드
데이터/음성.t7을 찾을 수 없습니다.
-- 코넬 영화 대화 상자 데이터세트 분석 중인데...
[=====================================================================>] Tot:1s238ms | 스텝 길이: 0ms
- 사전 처리 데이터
[=====================================================================>] 총 시간: 771ms | 스텝 길이: 0ms
카드를 씻다
데이터/예 작성t7...
[======================================================================>] 총 속도: 703ms | 스텝 길이: 0ms
데이터/음성 B 작성t7...
데이터 세트 통계:
어휘량: 7061
예: 8151
-- 제1/50기원(LR=0.001)
~/torch/install/bin/luajit:/seq2seq.lua:62: 필드'recursiveCopy'(nil 값)를 호출해 보십시오
스택 복구:
./seq2seq.lua:62: 함수 "forwardConnect"에서
기차lua:97: 함수 "opfunc"에서
/home/flyn/torch/install/share/lua/5.1/optim/adam.lua:37: 함수 "adam"에서
기차lua:131: 주 블록에서
[C]: 함수 "dofile"에서
...flyn/torch/install/lib/luarocks/rocks/trepl/scm-1/bin/th:150: 메인 블록에서
[C] :0x00406670
`
이전에 이 문제를 언급한 적이 없고 인터넷에서 관련 세부 사항을 찾을 수 없습니다. 당신의 도움에 감사 드립니다
토론 #1
. 저는 마크와 이 점을 이야기한 적이 있습니다. 그는 soonish를 조사할 것입니다...환경 설정, cuda,cudnn 버전토론 #2
@hit lacus는 현재 다른 참여자가 없습니다.나도 같은 문제가 있다.완전히 같은 잘못.저는 Ubuntu 16.04에서 Cuda/OpenCL이 없는 Torch를 사용합니다.토론 #셋
전화하는 방식이 바뀐 것 같아요.파일
토론 #4
의 62행과 64행에서recursiveCopy
로 바꾸면 seq2seq.lua
에 유효합니다.도움이 되었으면 좋겠습니다.
nn.rnn.recursiveCopy
좋습니다. nn.utils.recursiveCopy
@baaleze도 확인할 수 있습니다. 다시 한 번 확인하겠습니다. 훈련 후에도 평가를 하셨습니까?Loading vocabulary from data/vocab.t7 ...
-- Loading model
Type a sentence and hit enter to submit.
CTRL+C then enter to quit.
you> hello
/home/flyn/torch/install/bin/luajit: /home/flyn/torch/install/share/lua/5.1/nn/Container.lua:67:
In 3 module of nn.Sequential:
/home/flyn/torch/install/share/lua/5.1/torch/Tensor.lua:466: Wrong size for view. Input size: 1000. Output size: 25931
stack traceback:
[C]: in function 'error'
/home/flyn/torch/install/share/lua/5.1/torch/Tensor.lua:466: in function 'view'
/home/flyn/torch/install/share/lua/5.1/rnn/utils.lua:191: in function 'recursiveZeroMask'
/home/flyn/torch/install/share/lua/5.1/rnn/MaskZero.lua:37: in function 'updateOutput'
/home/flyn/torch/install/share/lua/5.1/rnn/Recursor.lua:13: in function '_updateOutput'
...yn/torch/install/share/lua/5.1/rnn/AbstractRecurrent.lua:50: in function 'updateOutput'
/home/flyn/torch/install/share/lua/5.1/rnn/Sequencer.lua:53: in function </home/flyn/torch/install/share/lua/5.1/rnn/Sequencer.lua:34>
[C]: in function 'xpcall'
/home/flyn/torch/install/share/lua/5.1/nn/Container.lua:63: in function 'rethrowErrors'
/home/flyn/torch/install/share/lua/5.1/nn/Sequential.lua:44: in function 'forward'
./seq2seq.lua:87: in function 'eval'
eval.lua:55: in function 'say'
eval.lua:69: in main chunk
[C]: in function 'dofile'
...flyn/torch/install/lib/luarocks/rocks/trepl/scm-1/bin/th:150: in main chunk
[C]: at 0x00406670
WARNING: If you see a stack trace below, it doesn't point to the place where this error occurred. Please use only the one above.
stack traceback:
[C]: in function 'error'
/home/flyn/torch/install/share/lua/5.1/nn/Container.lua:67: in function 'rethrowErrors'
/home/flyn/torch/install/share/lua/5.1/nn/Sequential.lua:44: in function 'forward'
./seq2seq.lua:87: in function 'eval'
eval.lua:55: in function 'say'
eval.lua:69: in main chunk
[C]: in function 'dofile'
...flyn/torch/install/lib/luarocks/rocks/trepl/scm-1/bin/th:150: in main chunk
[C]: at 0x00406670
토론 #5
저도 이 오류가 있습니다토론 #6
. 안녕하세요. 저는 "th train.lua-cuda-dataset 50000-hidden Size 1000"으로 모델을 훈련한 후에 대화를 시도하다가 @Arash Hosseini(보기 크기 오류)와 같은 오류를 만났습니다.어떻게 고치는지 아시는 분?
도와 주셔서 감사합니다.
토론 #7
나는 간단한 해결 방법을 찾았다.이거 해봐.파일 seq2seq에서로아 87호선, 갈아타기
토론 #8
대상토론 #9
local prediction = self.decoder:forward(torch.Tensor(output))[#output]
@Tak-o-m 위대한 보고서도 동의할 수 있습니다.
Reference
이 문제에 관하여(교육에 장애가 발생했습니다.lua:62: 필드 "recursive Copy"호출 시도), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다 https://github.com/macournoyer/neuralconvo/issues/80텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념 (Collection and Share based on the CC Protocol.)