1 tf.nn.conv2d(input, filter, strides, padding, use_cudnn_on_gpu=None, name=None)
input:指需要做卷积的输入图像,[batch, in_height, in_width, in_channels]
[训练时一个batch的图片数量, 图片高度, 图片宽度, 图像通道数]
filter:[filter_height, filter_width, in_channels, out_channels]
[卷积核的高度,
]卷积核的宽度,图像通道数,卷积核个数
注意:第三维
,就是参数input的第四维in_channels
strides:卷积时在图像每一维的步长,这是一个一维的向量,长度4
padding:"SAME","VALID"
use_cudnn_on_gpu: bool类型,是否使用cudnn加速,默认为true
结果返回一个Tensor,即feature map,shape是
[batch, height, width, channels]
2 tf.nn.max_pool(value,ksize,strides,padding,name=None)
value:需要池化的输入,一般池化层接在卷积层后面,所以输入通常是feature map,[batch, height, width, channels]
ksize:池化窗口的大小,取一个四维向量,一般是[1, height, width, 1],因为我们不想在
batch和
channels
上做池化,所以这两个维度设为了1
strides:和卷积类似,窗口在每一个维度上滑动的步长,一般也是[1, stride,
stride
, 1]
padding:取'VALID' 或者'SAME'
返回一个Tensor,类型不变,shape仍然是[batch, height, width, channels]
这种形式
3 https://blog.csdn.net/mzpmzk/article/details/78647721
参考
http://blog.csdn.net/mao_xiao_feng/article/details/53453926