https://github.com/fchollet/deep-learning-with-python-notebooks/blob/master/5.4-visualizing-what-con
grads = K.gradients(loss, model.input)[0]
K.gradients의 역할은 Returns the gradients of loss w.r.t. variables이며 모델에 대한 loss의 반환입니다.input의 계단.K.gradients에서 반환된 tensor의 shape 및 두 번째 매개변수 모델.input 동일.사다리의 방향은 함수가 정점에 가장 빨리 상승하는 방향이다. 그러면 사다리의 반대 방향은 함수가 정점에 가장 빨리 하락하는 방향이다
# We start from a gray image with some noise
input_img_data = np.random.random((1, 150, 150, 3)) * 20 + 128.
# Run gradient ascent for 40 steps
step = 1. # this is the magnitude of each gradient update
for i in range(40):
# Compute the loss value and gradient value
loss_value, grads_value = iterate([input_img_data])
# Here we adjust the input image in the direction that maximizes the loss
input_img_data += grads_value * step # +, ; , https://www.cnblogs.com/HongjianChen/p/8718988.html
Visualizing convnet Filters 모듈
저자가 한 일은 사다리 상승 알고리즘을 이용하여 처음np로 변화하는 것이다.zeros((1,150,150,3)의 입력으로 ImageNet에서 미리 훈련된 VG16의'Block3 conv1'층의 필터 0의 평균치를 최소화합니다
이 안에는 매우 재미있는 결론이 하나 있다.
convnet의 모든 층은 필터를 배워서 입력을 필터의 조합으로 표시할 수 있습니다.이것은 부립엽 변환이 신호를 어떻게 여현 함수 그룹으로 분해하는지와 유사하다.모델 내에서 향상됨에 따라 이러한 필터 그룹의 필터는 점점 더 복잡하고 정교해집니다.
4
4
Visualizing heatmaps of class activation 모듈
# This is the "african elephant" entry in the prediction vector
african_elephant_output = model.output[:, 386]
# The is the output feature map of the `block5_conv3` layer,
# the last convolutional layer in VGG16
last_conv_layer = model.get_layer('block5_conv3')
# This is the gradient of the "african elephant" class with regard to
# the output feature map of `block5_conv3`
grads = K.gradients(african_elephant_output, last_conv_layer.output)[0]
여기서 Africanelephant_output의 차원은(?,) lastconv_layer.output의 차원(?, 14, 14, 512)grads의 차원(?, 14, 14, 512)
이 내용에 흥미가 있습니까?
현재 기사가 여러분의 문제를 해결하지 못하는 경우 AI 엔진은 머신러닝 분석(스마트 모델이 방금 만들어져 부정확한 경우가 있을 수 있음)을 통해 가장 유사한 기사를 추천합니다:
TensorFlow+Keras로 Cutout 구현/평가에서 각종 Data Augmentation을 구현했을 때, TensorFlow Addons를 사용하면 간단하게 Cutout을 구현할 수 있는 것을 깨달았다. 여기에서는 Dataset에 대해서 map 적용하는 구현과 ...
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
CC BY-SA 2.5, CC BY-SA 3.0 및 CC BY-SA 4.0에 따라 라이센스가 부여됩니다.