首頁 > 軟體

關於keras中折積層Conv2D的學習記錄

2023-02-24 06:00:02

keras中折積層Conv2D的學習

關於折積的具體操作不細講,本文只是自己太懶了不想記手寫筆記。

由於自己接觸到的都是影象

處理相關的工作,因此,在這裡只介紹2D折積。

keras.layers.convolutional.Conv2D(filters,kernel_size,strides(1,1), 
                                  padding='valid',
                                  data_format=None,
                                  dilation_rate=(1,1),
                                  activation=None,
                                  use_bias=True,
                                  kernel_initializer='glorot_uniform',
                                  bias_initializer='zeros',
                                  kernel_regularizer=None,
                                  bias_regularizer=None,
                                  activity_regularizer=None,
                                  kernel_constraint=None,
                                  bias_constraint=None)

此操作將二維向量進行折積,當使用該層作為第一層時,應提供input_shape引數。

引數

  • filters:折積核的數目(即輸出的維度)。
  • kernel_size:單個整數或由兩個整數構成的list/tuple,折積核的寬度和長度。如為單個整數,則表示在各個空間維度的相同長度。
  • strides:單個整數或由兩個整數構成的list/tuple,為折積的步長。如為單個整數,則表示在各個空間維度的相同步長。任何不為1的strides均與任何不為1的dilation_rata均不相容。
  • padding:補0策略,為“valid”, “same”。“valid”代表只進行有效的折積,即對邊界資料不處理。“same”代表保留邊界處的折積結果,通常會導致輸出shape與輸入shape相同。
  • activation:啟用函數,為預定義的啟用函數名(參考啟用函數),或逐元素(element-wise)的Theano函數。如果不指定該引數,將不會使用任何啟用函數(即使用線性啟用函數:a(x)=x)。
  • dilation_rate:單個整數或由兩個個整數構成的list/tuple,指定dilated convolution中的膨脹比例。任何不為1的dilation_rata均與任何不為1的strides均不相容。
  • data_format:字串,“channels_first”或“channels_last”之一,代表影象的通道維的位置。該引數是Keras 1.x中的image_dim_ordering,“channels_last”對應原本的“tf”,“channels_first”對應原本的“th”。以128x128的RGB影象為例,“channels_first”應將資料組織為(3,128,128),而“channels_last”應將資料組織為(128,128,3)。該引數的預設值是~/.keras/keras.json中設定的值,若從未設定過,則為“channels_last”。
  • use_bias:布林值,是否使用偏置項。
  • kernel_initializer:權值初始化方法,為預定義初始化方法名的字串,或用於初始化權重的初始化器。
  • bias_initializer:權值初始化方法,為預定義初始化方法名的字串,或用於初始化權重的初始化器。
  • kernel_regularizer:施加在權重上的正則項,為Regularizer物件。
  • bias_regularizer:施加在偏置向量上的正則項,為Regularizer物件。
  • activity_regularizer:施加在輸出上的正則項,為Regularizer物件。
  • kernel_constraints:施加在權重上的約束項,為Constraints物件。
  • bias_constraints:施加在偏置上的約束項,為Constraints物件。

keras中conv2d,conv2dTranspose的Padding詳解

conv2d和conv2dTranspose屬於最常用的層,但在keras的實現中關於padding的部分有點模糊,週末趁著空閒做了一些嘗試,來實驗padding的valid和same引數在實際過程中如何操作的。

conv2D演示程式碼

conv2D部分

v_input = np.ones([1,5,5,1])
kernel = np.ones([3,3])
stride = 1
model = Sequential()
model.add(Conv2D(1, kernel_size=(3, 3),
                 activation='relu',
                 padding="valid" ,  # "same"
                 strides = 1, 
                 # dilation_rate = 1,
                 kernel_initializer = keras.initializers.Ones(),
                 input_shape=v_input.shape[1:]))

其中stride可以嘗試多組測試

padding在valid 和 same 間切換測試

Conv2d演示結論

padding 為valid則不進行填充, 根據stride的滑動大小來做平移, 則:

output_shape = ceil( (input_shape - (kernel_size - 1)) / stride )

如果是same模式則 會進行左右上下的補齊, 其中左,上依次補齊 flood (kernel_size -1 ) / 2 , 右下補齊ceil (( kernel_size - 1) /2 ) ,補齊後進行的操作就是類似valid下的滑動折積

output_shape = ceil (input_shape / stride)
  • ceil表示上取整 
  • flood表示下取整

CONV2Dtranspose演示程式碼

v_input = np.ones([1,5,5,1])
kernel = np.ones([3,3])
stride = 1
model = Sequential()
model.add(Conv2DTranspose(1, kernel_size=(3, 3),
                 activation='relu',
                 padding="valid" ,  # "same"
                 strides = 1, 
                 # dilation_rate = 1,
                 kernel_initializer = keras.initializers.Ones(),
                 input_shape=v_input.shape[1:]))

如果padding的設定為valid則,保持最小相交的原則上下左右均填充kernel_size大小,如果stride設定為非1,起實際的作用和dilation_rate一樣均是在矩陣中進行填充(實際滑動是永遠都是1) 具體填充出來的矩陣大小是 (input_size -1) * stride + 1 + 2 * (kernel_size - 1)

之後就是按照這個矩陣做著類似conv2d valid的折積 則:

output_shape = (input_size -1) * stride + 1 + 2 * (kernel_size - 1) - (kernel_size -1) = (input_size - 1) * stride + kernel_size

如果padding為same的話則output_shape = input_shape * stride

其中原始矩陣左上padding = ceil (( kernel_size ) /2 )  右下補齊 flood (( kernel_size ) /2 )  這裡conv2d

總結

以上為個人經驗,希望能給大家一個參考,也希望大家多多支援it145.com。


IT145.com E-mail:sddin#qq.com