Zi 字媒體
2017-07-25T20:27:27+00:00
Keras 實現 MNIST 手寫辨識
每一個程式語言都有 HelloWorld,深度學習領域中最經典的 Demo 就是 MNIST 手寫辨識,MNIST 資料即是由 28x28 灰階圖片,分別有 0~9 分佈 60,000 張訓練資料與 10,000 張測試資料 。目前各大演算法對於 MNIST 的準確率已經提昇許多,我們也來用 Keras 來測試看看囉。
Python Keras MNIST 手寫辨識
這是一個神經網路的範例,利用了 Python Keras 來訓練一個手寫辨識分類 Model。
我們要的問題是將手寫數字的灰度圖像(28x28 Pixel)分類為 10 類(0至9)。使用的數據集是 MNIST 經典數據集,它是由國家標準技術研究所(MNIST 的 NIST)在1980年代組裝而成的,包含 60,000 張訓練圖像和 10,000 張測試圖像。您可以將「解決」MNIST 視為深度學習的 "Hello World"。
由於 Keras 已經整理了一些經典的 Play Book Data,因此我們可以很快透過以下方式取得 MNIST 資料集。
1
2
3
from keras.datasets import mnist
(train_images, train_labels), (test_images, test_labels) = mnist.load_data()
images 是用來訓練與測試的資料,label 則為每一筆影像資料對應的正確答案,每一張手寫圖片都是 28 x 28 的灰階 Bit Map,透過以下 Python 來看一下資料集的結構
1
2
3
4
5
6
train_images.shape
len(train_labels)
train_labels
test_images.shape
len(test_labels)
test_labels
輸出
建立準備訓練的神經網路
開始訓練神經網路以前,需要先建構網路,然後才開始訓練,如下:
1
2
3
4
5
6
from keras import models
from keras import layers
network = models.Sequential()
network.add(layers.Dense(512, activation='relu', input_shape=(28 * 28,)))
network.add(layers.Dense(10, activation='softmax'))
上面這裡是神經網路的核心組成方式,我們在全連接層建立了兩層,由一個有 512 個神經元的網路架構連接到 10 個神經元的輸出層。輸出層採用 softmax 表示數字 0~9 的機率分配,這 10 個數字的總和將會是 1。以下將我們建立的網路進行 compile,這裡詳細的參數以後會介紹。
1
2
3
network.compile(optimizer='rmsprop',
loss='categorical_crossentropy',
metrics=['accuracy'])
上面的參數其實就直接對應到上一篇文章介紹的類神經網路基礎架構,可以這樣理解:
以下將資料正規劃成為 0~1 的數值,變成 60000, 28x28 Shape 好送進上面定義的網路輸入層。
1
2
fix_train_images = train_images.reshape((60000, 28 * 28)).astype('float32') / 255
fix_test_images = test_images.reshape((10000, 28 * 28)).astype('float32') / 255
由於我們使用的 categorical_crossentropy 損失函數,因此將標記資料進行格式轉換。如下:
1
2
3
4
from keras.utils import to_categorical
fix_train_labels = to_categorical(train_labels)
fix_test_labels = to_categorical(test_labels)
開始訓練 MNIST 類神經網路
進行訓練模型,預計訓練的正確率應該會在 0.989 左右
1
2
3
4
5
6
result = network.fit(
fix_train_images,
fix_train_labels,
epochs=20,
batch_size=128,
validation_data=(fix_test_images, fix_test_labels))
對應神經網路模型概念如下:
執行結果如下:
將訓練後的模型輸入測試資料進行評比,一般說這樣的正確率應該會在 0.977% 左右
1
2
3
test_loss, test_acc = network.evaluate(fix_test_images, fix_test_labels)
print('test_loss:', test_loss)
print('test_acc:', test_acc)
執行結果如下:
為什麽訓練時的正確率會高於驗證測試呢?在這樣數據中,由於模型訓練時對訓練資料造成些微的過度擬合 (Over Fitting) 。一般來說這樣的情況是正常的,未來我們可以透過參數的調整或其他方法提高正確性。
透過 Keras 圖表協助分析訓練過程
由於訓練 Model 時會進行好幾次的 Epoch,每一次 Epoch 都是對訓練資料集進行一輪完整的訓練,妥善觀察每一次 Epoch 的數據是很重要地。我們可以透過 matplotlib 函式庫繪製圖表,幫我們進行分析。
以下方式可以繪製訓練過程 Loss Function 對應的損失分數。Validation loss 不一定會跟隨 Training loss 一起降低,當 Model Over Fitting Train Data 時,就會發生 Validation loss 上升的情況。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
history_dict = result.history
loss_values = history_dict['loss']
val_loss_values = history_dict['val_loss']
epochs = range(1, len(loss_values) + 1)
import matplotlib.pyplot as plt
plt.plot(epochs, loss_values, 'bo', label='Training loss')
plt.plot(epochs, val_loss_values, 'b', label='Validation loss')
plt.title('Training and validation loss')
plt.xlabel('Epochs')
plt.ylabel('Loss')
plt.legend()
plt.show()
執行後的圖表如下:
可以看到差不多在第八次 Epochs 就得到最佳解。此外,我們也可以透過以下程式可以繪製訓練過程的正確率變化。訓練的過程中,當 Accuracy 後期並有沒太大的變化,表示 Model 很快就在假設空間裡進行不錯的收斂。
1
2
3
4
5
6
7
8
9
10
11
12
plt.clf()
acc = history_dict['accuracy']
val_acc = history_dict['val_accuracy']
plt.plot(epochs, acc, 'bo', label='Training acc')
plt.plot(epochs, val_acc, 'b', label='Validation acc')
plt.title('Training and validation accuracy')
plt.xlabel('Epochs')
plt.ylabel('Accuracy')
plt.legend()
plt.show()
結論我們可以看到「算越久不一定越好」一旦 Over Fitting 之後就會得到反效果,市面上有很多 AI Cloud 都會在 Training 的過程把每一個 Epoch 的 Model 都保留儲存,好讓使用者可以隨意取出小果最好的 Model,如果想要這樣做,透過 Keras Check Point Callback 也是可以達到的。
今天介紹的 MNIST 訓練與相關程式碼,可以在 GitHub 取得 ipynb 檔案,透過免費的 Google Colab 就可以執行測試囉,需要的請自行下載,記得按讚分享加關注喔。Keras Machine Learning 未完待續.......
分享到 Twitter(在新視窗中開啟)
按一下以分享至 Facebook(在新視窗中開啟)
分享到 LinkedIn(在新視窗中開啟)
點這裡寄給朋友(在新視窗中開啟)
按一下即可分享至 Skype(在新視窗中開啟)
分享到 Reddit(在新視窗中開啟)
分享到 Tumblr(在新視窗中開啟)
按一下以分享到 Telegram(在新視窗中開啟)
寫了
5860316篇文章,獲得
23313次喜歡