Caffe 도면층 유형

6062 단어 DeepLearningCaffe
Caffe에서 네트워크를 정의할 때 어떤 레이어가 준비되어 있는지 알아야 합니다.
(없으면 해야 한다)
그래서 일람표를 만들어 보자.

레이어 매개변수


우선, 직접과 무관하게 각 층이 공통적으로 통하는 매개 변수는 다음과 같다.
※ 여기

변수 이름
함의
name
레이어 이름
type
레이어 유형 (다음 표의 "type"지정)
bottom
기본 블로그 이름
top
상위 블로그 이름
loss_weight
필요한 상단 천의 권한 중량을 지정합니다. 층마다 상단 천의 기본값을 지정합니다. (일반적으로 0 또는 1)
param
훈련 매개 변수(전역 학습 상수의 곱셈, 권중 공유에 사용되는 이름 및 기타 설정)
blobs
층수치 파라미터를 포함하는 드럼 머신
include
현재 NetState에 따라 네트워크에 레이어를 포함하는지 여부를 제어하는 규칙 0 이외의 수량을 지정할 수 있지만, include/exclude를 동시에 설정할 수 없습니다. 지정한 규칙이 없으면레이어에는 항상 현재 NetState가 지정된 규칙의 And(즉, 하나 이상)를 충족하는 경우 해당 레이어가 포함됩니다.
exclude
현재 NetState에 따라 네트워크에 레이어를 포함하는지 여부를 제어하는 규칙 0 이외의 수량을 지정할 수 있지만, include/exclude를 동시에 설정할 수 없습니다. 지정한 규칙이 없으면레이어에는 항상 현재 NetState가 지정된 규칙을 충족하는 앰퍼샌드(즉, 하나 이상)가 포함되어 있으면 레이어가 제외됩니다.
phase
컴퓨팅 교육/테스트 단계
propagate_down
크기는 0 또는 아래와 같아야 합니다.
※ 데이터는 bottom에서 top로 이동합니다. 주의하세요

레이어 유형


레이어의 종류와 매개변수는 다음과 같습니다.
※ 여기

레이어 이름
type
매개변수 이름
변수 이름
AbsValLayer
AbsVal
AccuracyLayer
Accuracy
AccuracyParameter
top_kaxisignore_label
ArgMaxLayer
ArgMax
ArgMaxParameter
out_max_valtop_kaxis
BaseConvolutionLayer
×
BaseDataLayer
×
BasePrefetchingDataLayer
×
BatchNormLayer
BatchNorm
BatchNormParameter
use_global_statsmoving_average_fractioneps
BatchReindexLayer
BatchReindex
BiasLayer
Bias
BiasParameter
axisnum_axesfiller
BNLLLayer
BNLL
ConcatLayer
Concat
ConcatParameter
concat_dimaxis
ContrastiveLossLayer
ContrastiveLoss
ContrastiveLossParameter
marginlegacy_version
ConvolutionLayer
Convolution
ConvolutionParameter
num_outputbias_termpadkernel_sizegroupstrideweight_fillerbias_fillerpad_hpad_wkernel_hkernel_wstride_hstride_wengineaxisforce_nd_im2col
CropLayer
Crop
CropParameter
axisoffset
CuDNNConvolutionLayer
×
CuDNNLCNLayer
×
CuDNNLRNLayer
×
CuDNNPoolingLayer
×
CuDNNReLULayer
×
CuDNNSigmoidLayer
×
CuDNNSoftmaxLayer
×
CuDNNTanHLayer
×
DataLayer
Data
DataParameter
sourcescalemean_filebatch_size crop_sizemirrorrand_skipbackendforce_encoded_colorprefetch
DeconvolutionLayer
Deconvolution
DropoutLayer
Dropout
DropoutParameter
dropout_ratio
DummyDataLayer
DummyData
DummyDataParameter
data_fillernumchannelsheightwidthshape
EltwiseLayer
Eltwise
EltwiseParameter
operationcoeffstable_prod_grad
ELULayer
ELU
ELUParameter
alpha
EmbedLayer
Embed
EmbedParameter
num_outputinput_dimbias_termweight_fillerbias_filler
EuclideanLossLayer
EuclideanLoss
ExpLayer
Exp
ExpParameter
basescaleshift
FilterLayer
Filter
FlattenLayer
Flatten
FlattenParameter
axisend_axis
HDF5DataLayer
HDF5Data
HDF5DataParameter
sourcebatch_sizeshuffle
HDF5OutputLayer
HDF5Output
HDF5OutputParameter
file_name
HingeLossLayer
HingeLoss
HingeLossParameter
norm
Im2colLayer
Im2col
ImageDataLayer
ImageData
ImageDataParameter
sourcescalemean_filebatch_sizecrop_sizemirrorrand_skipshufflenew_heightnew_widthis_colorroot_folder
InfogainLossLayer
InfogainLoss
InfogainLossParameter
source
InnerProductLayer
InnerProduct
InnerProductParameter
num_outputbias_termweight_fillerbias_filleraxistranspose
InputLayer
Input
InputParameter
shape
LogLayer
Log
LogParameter
basescaleshift
LossLayer
×
LRNLayer
LRN
LRNParameter
local_sizealphabetanorm_regionkengine
LSTMLayer
LSTM
LSTMUnitLayer
LSTMUnit
MemoryDataLayer
MemoryData
MemoryDataParameter
batch_sizechannelsheightwidth
MultinomialLogisticLossLayer
MultinomialLogisticLoss
MVNLayer
MVN
MVNParameter
normalize_varianceacross_channelseps
NeuronLayer
×
ParameterLayer
Parameter
ParameterParameter
shape
PoolingLayer
Pooling
PoolingParameter
poolkernel_sizestridepadkernel_hkernel_wstride_hstride_wpad_hpad_wengineglobal_pooling
PowerLayer
Power
PowerParameter
powerscaleshift
PReLULayer
PReLU
PythonLayer
Python
PythonParameter
modulelayerparam_strshare_in_parallel
RecurrentLayer
Recurrent
RecurrentParameter
num_outputweight_fillerbias_fillerdebug_infoexpose_hidden
ReductionLayer
Reduction
ReductionParameter
operationaxiscoeff
ReLULayer
ReLU
ReLUParameter
negative_slopeengine
ReshapeLayer
Reshape
ReshapeParameter
shapeaxisnum_axes
RNNLayer
RNN
ScaleLayer
Scale
ScaleParameter
axisnum_axesfillerbias_termbias_filler
SigmoidLayer
Sigmoid
SigmoidParameter
engine
SigmoidCrossEntropyLossLayer
SigmoidCrossEntropyLoss
SilenceLayer
Silence
SliceLayer
Slice
SliceParameter
slice_dimslice_pointaxis
SoftmaxLayer
Softmax
SoftmaxParameter
engineaxis
SoftmaxWithLossLayer
SoftmaxWithLoss
SplitLayer
Split
SPPLayer
SPP
TanHLayer
TanH
TanHParameter
engine
ThresholdLayer
Threshold
ThresholdParameter
threshold
TileLayer
Tile
TileParameter
axistiles
WindowDataLayer
WindowData
WindowDataParameter
sourcescalemean_filebatch_sizecrop_sizemirrorfg_thresholdbg_thresholdfg_fractioncontext_padcrop_modecache_imagesroot_folder
×:프로토콜에서 지정할 수 없는 층 (때로는 부류, 때로는 파생적)

좋은 웹페이지 즐겨찾기