모델의 checkpoint를 가져온 후 같은 데이터를 여러 번 연산한 결과가 다르다
# new tensor define
new_tensor = …
# old model defin
old_model = model()
# load checkpoint
var_to_restore = tf.get_collection(tf.GraphKeys.TRAINABLE_VARIABLES,scope=…)
restorer_attrib = tf.train.Saver(var_to_restore)
ckpt = tf.train.get_checkpoint_state(…)
if ckpt and ckpt.model_checkpoint_path:
restorer_attrib.restore(sess, ckpt.model_checkpoint_path)
…
# initial value
sess.run(tf.global_variables_initializer())
# run sess get value
sess.run([…])
그러나 코드가 실행될 때 같은 그룹의 데이터가 매번 코드를 실행한 후에 이전에 훈련된 모델에서 얻은 출력은 매번 실행 결과가 다르다는 것을 발견했다. 검사에서 일련의 문제를 발견했다.TensorFlow의 tensorflow를 사용합니다.contrib.slim.nets의 resnetv2에서resnet 정의v2중, 테스트 중 is 를training 매개 변수는 False 2.테스트 중 네트워크에서 사용할 tf.nn.dropout의keepprob는 1로 이 내용을 설정한 후에도 매번 다른 결과를 얻는 것을 발견했다. 자세한 검사를 통해 문제의 출처는load checkpoint의 코드가 완성된 후에 코드에서 아래의 코드sess가 실행되었다는 데 있다.run(tf.global variables initializer ()) 이렇게 하면 불러온 checkpoint의 데이터가 효력을 상실하고 모든 데이터가 다시 초기화되어 모델이 무작위 값으로 되어 실행할 때마다 결과가 달라집니다.해결 방법도 간단하다. 로드 체크포인트를 조작하기 전에 초기화된 코드를 실행한 다음에 체크포인트를 가져온다.올바른 코드 구조는 다음과 같습니다.
# new tensor define
new_tensor = …
# old model defin
old_model = model()
# initial value
sess.run(tf.global_variables_initializer())
# load checkpoint
var_to_restore = tf.get_collection(tf.GraphKeys.TRAINABLE_VARIABLES,scope=…)
restorer_attrib = tf.train.Saver(var_to_restore)
ckpt = tf.train.get_checkpoint_state(…)
if ckpt and ckpt.model_checkpoint_path:
restorer_attrib.restore(sess, ckpt.model_checkpoint_path)
…
# run sess get value
sess.run([…])
이 내용에 흥미가 있습니까?
현재 기사가 여러분의 문제를 해결하지 못하는 경우 AI 엔진은 머신러닝 분석(스마트 모델이 방금 만들어져 부정확한 경우가 있을 수 있음)을 통해 가장 유사한 기사를 추천합니다:
다양한 언어의 JSONJSON은 Javascript 표기법을 사용하여 데이터 구조를 레이아웃하는 데이터 형식입니다. 그러나 Javascript가 코드에서 이러한 구조를 나타낼 수 있는 유일한 언어는 아닙니다. 저는 일반적으로 '객체'{}...
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
CC BY-SA 2.5, CC BY-SA 3.0 및 CC BY-SA 4.0에 따라 라이센스가 부여됩니다.