k近傍法を使った手書き文字認識

目的

この章では
  • 前章で学んだk近傍法を使い,基本的なOCR(光学文字認識)を構築します.
  • OpenCVに含まれている数字とアルファベットのデータを使います.

手書き文字に対するOCR

我々の目的は手書きの数字を読むためのアプリケーションの作成です.この目的を実現するためには,train_data(学習データ)と test_data(テストデータ)が必要です.OpenCVは5000個(0から9まで各数字が500個)の手書きの数字データを含む1枚の画像 digits.png ( opencv/samples/python2/data/ フォルダ内に保存)を用意しています.各数字データは20x20のサイズの画像として連結されています.まず初めに,この連結された画像を5000個の画像に分割します.20x20のサイズの各数字データを,1行400画素のデータに変換します.この400画素のデータが全画素の画素値を特徴量として持つデータとなります.これは,我々が生成できる最も単純な特徴量です.各数字の最初の250個のデータをtrain_data(学習用のデータ),残りの250個のデータをtest_data(テスト用のデータ)とします.

import numpy as np
import cv2
from matplotlib import pyplot as plt

img = cv2.imread('digits.png')
gray = cv2.cvtColor(img,cv2.COLOR_BGR2GRAY)

# Now we split the image to 5000 cells, each 20x20 size
cells = [np.hsplit(row,100) for row in np.vsplit(gray,50)]

# Make it into a Numpy array. It size will be (50,100,20,20)
x = np.array(cells)

# Now we prepare train_data and test_data.
train = x[:,:50].reshape(-1,400).astype(np.float32) # Size = (2500,400)
test = x[:,50:100].reshape(-1,400).astype(np.float32) # Size = (2500,400)

# Create labels for train and test data
k = np.arange(10)
train_labels = np.repeat(k,250)[:,np.newaxis]
test_labels = train_labels.copy()

# Initiate kNN, train the data, then test it with test data for k=1
knn = cv2.KNearest()
knn.train(train,train_labels)
ret,result,neighbours,dist = knn.find_nearest(test,k=5)

# Now we check the accuracy of classification
# For that, compare the result with test_labels and check which are wrong
matches = result==test_labels
correct = np.count_nonzero(matches)
accuracy = correct*100.0/result.size
print accuracy

これで基本的な文字認識アプリケーションの準備が出来ました.この例では91%の精度を達成しました.精度向上の方法として,学習データ,特に誤ったデータ,を増やすことが挙げられます.アプリケーションを起動するたびにデータの学習を行う代わりに学習結果を保存するようにします.そうすると,以降は保存した学習データを読み込めば文字認識を実行できるからです.データの保存はNumpyの関数を幾つか,例えばnp.savetxt, np.savez, np.load等を使えば可能です.詳細については各関数のドキュメントを参照してください.

# save the data
np.savez('knn_data.npz',train=train, train_labels=train_labels)

# Now load the data
with np.load('knn_data.npz') as data:
    print data.files
    train = data['train']
    train_labels = data['train_labels']

私のコンピュータでは保存データは4.4MBの容量になりました.特徴量として画像の画素値(uint8型のデータ)を使っているので,データを np.uint8型に変換してから保存すると良いでしょう.そうすると,データ容量はたったの1.1 MBになりました.データを読み込むときに,忘れずにfloat32型のデータに変換してください.

英語のアルファベットの文字認識

次に,同様の文字認識を英語のアルファベットに対して適用しますが,データと特徴量に多少違いがあります.文字データは画像ではなく opencv/samples/cpp/ フォルダ内の letter-recognition.data というデータとして提供されています.

上記のデータファイルを開くと,一見意味不明な20000行のデータの羅列に見えるかと思います.各行のデータは,一列目に各アルファベットに割り当てられるラベルの値,続く16個の数値は異なる特徴量を表しています.これらの特徴量は UCI Machine Learning Repository. You can find the details of these features in this page から得たものです.

20000個のサンプルが使用可能なので,最初の10000個のデータを学習用,残りの10000個のデータをテスト用のデータとしましょう.アルファベットを直接扱う事が出来ないため,アルファベットをASCII文字に変換する必要があります.

import cv2
import numpy as np
import matplotlib.pyplot as plt

# Load the data, converters convert the letter to a number
data= np.loadtxt('letter-recognition.data', dtype= 'float32', delimiter = ',',
                    converters= {0: lambda ch: ord(ch)-ord('A')})

# split the data to two, 10000 each for train and test
train, test = np.vsplit(data,2)

# split trainData and testData to features and responses
responses, trainData = np.hsplit(train,[1])
labels, testData = np.hsplit(test,[1])

# Initiate the kNN, classify, measure accuracy.
knn = cv2.KNearest()
knn.train(trainData, responses)
ret, result, neighbours, dist = knn.find_nearest(testData, k=5)

correct = np.count_nonzero(result == labels)
accuracy = correct*100.0/10000
print accuracy

私のマシンで実行した結果,93.22%の精度となりました.前述しましたが,精度の向上を図るのであれば各レベルごとにエラーデータを繰り返し追加してください.

補足資料

課題