XAI Turning off each head's attention maps of Decoder in DETR : Focusing on generic attention model explainability 아래 그림들은 generic attention model explainability.. 연구의 '예측 타당성 유지 방법'을 적용해 DETR 내 Transformer Decoder의 6개 layer를 거치면서 시각화한 것 입니다. 특정한 Average 방법을 토대로 8개의 attention heads를 평균내기 때문에 각각의 head에 대한 insight는 존재하지 않습니다). 위 그림에서와 ... codeDETRAttentionObject DetectionPyTorchAIXAIAI [6주차] 논문리뷰: CAM, Grad-CAM, Grad-CAM++ 우리의 접근법인 Gradient-weighted Class Activation Mapping(이하 Grad-CAM)은 어떤 target concept일지라도 final convolutional layer로 흐르는 gradient를 사용하여 이미지의 중요한 영역을 강조하는 localization map을 만든다. 이전의 접근법과 달리 Grad-CAM은 모델의 구조 변화나 재학습 없이 다양한 C... XAIpaper-reviewXAI
Turning off each head's attention maps of Decoder in DETR : Focusing on generic attention model explainability 아래 그림들은 generic attention model explainability.. 연구의 '예측 타당성 유지 방법'을 적용해 DETR 내 Transformer Decoder의 6개 layer를 거치면서 시각화한 것 입니다. 특정한 Average 방법을 토대로 8개의 attention heads를 평균내기 때문에 각각의 head에 대한 insight는 존재하지 않습니다). 위 그림에서와 ... codeDETRAttentionObject DetectionPyTorchAIXAIAI [6주차] 논문리뷰: CAM, Grad-CAM, Grad-CAM++ 우리의 접근법인 Gradient-weighted Class Activation Mapping(이하 Grad-CAM)은 어떤 target concept일지라도 final convolutional layer로 흐르는 gradient를 사용하여 이미지의 중요한 영역을 강조하는 localization map을 만든다. 이전의 접근법과 달리 Grad-CAM은 모델의 구조 변화나 재학습 없이 다양한 C... XAIpaper-reviewXAI