如何使用keras中的卷积层和池化层-创新互联
这篇文章主要为大家展示了如何使用keras中的卷积层和池化层,内容简而易懂,希望大家可以学习一下,学习完之后肯定会有收获的,下面让小编带大家一起来看看吧。
10年积累的成都做网站、网站设计经验,可以快速应对客户对网站的新想法和需求。提供各种问题对应的解决方案。让选择我们的客户得到更好、更有力的网络服务。我虽然不认识你,你也不认识我。但先做网站后付款的网站建设流程,更有大庆免费网站建设让你可以放心的选择与我们合作。卷积层
创建卷积层
首先导入keras中的模块
from keras.layers import Conv2D
卷积层的格式及参数:
Conv2D(filters, kernel_size, strides, padding, activation='relu', input_shape)
filters: 过滤器数量
kernel_size:指定卷积窗口的高和宽的数字
strides: 卷积stride,如果不指定任何值,则strides设为1
padding: 选项包括'valid'和'same',默认值为'valid'
activation: 通常为'relu',如果不指定任何值,则不应用任何激活函数,通常应该向网络中每个卷积层添加一个Relu激活函数
如果卷积层出现在输入层之后,必须提供另一个input_shape参数:
input_shape: 指定输入的高度、宽度和深度的元组;如果卷积层不是网络的第一个层级,则不应该包含input_shape参数。
示例1:
假设我要构建一个 CNN,输入层接受的是 200 x 200 像素(对应于高 200、宽 200、深 1 的三维数组)的灰度图片。然后,假设我希望下一层级是卷积层,具有 16 个过滤器,每个宽和高分别为 2。在进行卷积操作时,我希望过滤器每次跳转 2 个像素。并且,我不希望过滤器超出图片界限之外;也就是说,我不想用 0 填充图片。
要构建该卷积层,我将使用下面的代码
Conv2D(filters=16, kernel_size=2, strides=2, activation='relu', input_shape=(200, 200, 1))
示例 2
假设我希望 CNN 的下一层级是卷积层,并将示例 1 中构建的层级作为输入。假设新层级是 32 个过滤器,每个的宽和高都是 3。在进行卷积操作时,我希望过滤器每次移动 1 个像素。我希望卷积层查看上一层级的所有区域,因此不介意过滤器在进行卷积操作时是否超过上一层级的边缘。
然后,要构建此层级,我将使用以下代码:
Conv2D(filters=32, kernel_size=3, padding='same', activation='relu')
卷积层中的参数数量
卷积层中的参数数量取决于filters, kernel_size, input_shape的值
K: 卷积层中的过滤器数量, K=filters
F:卷积过滤器的高度和宽度, F = kernal_size
D_in: 上一层级的深度, D_in是input_shape元组中的最后一个值
卷积层中的参数数量计算公式为:K * F * F * D_in + K
卷积层的形状
卷积层的形状取决于kernal_size, input_shape, padding, stride的值
K: 卷积层中的过滤器数量,K = filters
F: 卷积过滤器的高度和宽度, F = kernal_size
H_in: 上一层级的高度
W_in: 上一层级的宽度
S: stride
卷积层的深度始终为过滤器数量K
如果padding=‘same', 那么卷积层的空间维度计算公式如下:
height = ceil(float(H_in) / float(S))
width = ceil(float(W_in) / float(S))
如果padding = ‘valid', 那么卷积层的空间维度计算公式如下:
height = ceil(float(H_in - F + 1) / float(S))
width = ceil(float(W_in - F + 1) / float(S))
可以使用如下形式检测卷积层的维度:
from keras.models import Sequential from keras.layers import Conv2D model = Sequential() model.add(Conv2D(filters=32, kernel_size=3, strides=2, padding='same', activation='relu', input_shape=(128, 128, 3))) model.summary()
文章题目:如何使用keras中的卷积层和池化层-创新互联
地址分享:http://hbruida.cn/article/dgsgje.html