<em>Mac</em>Book项目 2009年学校开始实施<em>Mac</em>Book项目,所有师生配备一本<em>Mac</em>Book,并同步更新了校园无线网络。学校每周进行电脑技术更新,每月发送技术支持资料,极大改变了教学及学习方式。因此2011
2021-06-01 09:32:01
今天的博文分為三個部分。 在第一部分中,我們將討論 OCR-A 字型,這是一種專為輔助光學字元識別演演算法而建立的字型。 然後我們將設計一種計算機視覺和影象處理演演算法,它可以:
最後,我們將看一些將信用卡 OCR 演演算法應用於實際影象的範例。
在本節中,我們將使用 Python + OpenCV 實現我們的模板匹配演演算法來自動識別信用卡數位。
為了實現這一點,我們需要應用許多影象處理操作,包括閾值、計算梯度幅度表示、形態學操作和輪廓提取。這些技術已在其他部落格文章中用於檢測影象中的條形碼並識別護照影象中的機器可讀區域。
由於將應用許多影象處理操作來幫助我們檢測和提取信用卡數位,因此我在輸入影象通過我們的影象處理管道時包含了許多中間螢幕截圖。
這些額外的螢幕截圖將讓您更深入地瞭解我們如何能夠將基本影象處理技術連結在一起以構建計算機視覺專案的解決方案。 讓我們開始吧。
開啟一個新檔案,命名為 ocr_template_match.py ,我們將開始工作:
# import the necessary packages from imutils import contours import numpy as np import argparse import imutils import cv2
要安裝/升級 imutils ,只需使用 pip :
pip install --upgrade imutils
注意:如果您使用 Python 虛擬環境(就像我所有的 OpenCV 安裝教學一樣),請確保首先使用 workon 命令存取您的虛擬環境,然後安裝/升級 imutils 。
現在我們已經安裝並匯入了包,我們可以解析我們的命令列引數:
# construct the argument parser and parse the arguments ap = argparse.ArgumentParser() ap.add_argument("-i", "--image", required=True, help="path to input image") ap.add_argument("-r", "--reference", required=True, help="path to reference OCR-A image") args = vars(ap.parse_args())
建立了一個引數解析器,新增兩個引數,然後解析它們,將它們儲存為變數 args 。 兩個必需的命令列引數是:
–image :要進行 OCR 處理的影象的路徑。
–reference :參考 OCR-A 影象的路徑。 該影象包含 OCR-A 字型中的數位 0-9,從而允許我們稍後在管道中執行模板匹配。
接下來讓我們定義信用卡型別:
# define a dictionary that maps the first digit of a credit card # number to the credit card type FIRST_NUMBER = { "3": "American Express", "4": "Visa", "5": "MasterCard", "6": "Discover Card" }
信用卡型別,例如美國運通、Visa 等,可以通過檢查 16 位信用卡號中的第一位數位來識別。我們定義了一個字典 FIRST_NUMBER ,它將第一個數位對映到相應的信用卡型別。 讓我們通過載入參考 OCR-A 影象來啟動我們的影象處理管道:
# load the reference OCR-A image from disk, convert it to grayscale, # and threshold it, such that the digits appear as *white* on a # *black* background # and invert it, such that the digits appear as *white* on a *black* ref = cv2.imread(args["reference"]) ref = cv2.cvtColor(ref, cv2.COLOR_BGR2GRAY) ref = cv2.threshold(ref, 10, 255, cv2.THRESH_BINARY_INV)[1]
首先,我們載入參考 OCR-A 影象,然後將其轉換為灰度和閾值 + 反轉。 在這些操作中的每一箇中,我們儲存或覆蓋 ref ,我們的參考影象。
現在讓我們在 OCR-A 字型影象上定位輪廓:
# find contours in the OCR-A image (i.e,. the outlines of the digits) # sort them from left to right, and initialize a dictionary to map # digit name to the ROI refCnts = cv2.findContours(ref.copy(), cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_SIMPLE) refCnts = imutils.grab_contours(refCnts) refCnts = contours.sort_contours(refCnts, method="left-to-right")[0] digits = {}
找到了參考影象中的輪廓。 然後,由於 OpenCV 2.4、3 和 4 版本如何不同地儲存返回的輪廓資訊,我們檢查版本並對 refCnts 進行適當更改。 接下來,我們從左到右對輪廓進行排序,並初始化一個字典,digits,它將數位名稱對映到感興趣的區域。
此時,我們應該遍歷輪廓,提取ROI並將其與其對應的數位相關聯:
# loop over the OCR-A reference contours for (i, c) in enumerate(refCnts): # compute the bounding box for the digit, extract it, and resize # it to a fixed size (x, y, w, h) = cv2.boundingRect(c) roi = ref[y:y + h, x:x + w] roi = cv2.resize(roi, (57, 88)) # update the digits dictionary, mapping the digit name to the ROI digits[i] = roi
遍歷參考影象輪廓。
在迴圈中, i 儲存數位名稱/編號, c 儲存輪廓。 我們圍繞每個輪廓 c 計算一個邊界框,用於儲存矩形的 (x, y) 座標和寬度/高度。使用邊界矩形引數從 ref(參考影象)中提取 roi。 該 ROI 包含數位。
我們將每個 ROI 大小調整為 57×88 畫素的固定大小。 我們需要確保每個數位都調整為固定大小,以便在本教學後面的數位識別中應用模板匹配。
我們將每個數位 0-9(字典鍵)與每個 roi 影象(字典值)相關聯。
在這一點上,我們完成了從參考影象中提取數位並將它們與相應的數位名稱相關聯的工作。
我們的下一個目標是隔離輸入 --image 中的 16 位信用卡號。 我們需要先找到並隔離數位,然後才能啟動模板匹配以識別每個數位。 這些影象處理步驟非常有趣且有見地,特別是如果您之前從未開發過影象處理管道,請務必密切關注。
讓我們繼續初始化幾個結構化核心:
# initialize a rectangular (wider than it is tall) and square # structuring kernel rectKernel = cv2.getStructuringElement(cv2.MORPH_RECT, (9, 3)) sqKernel = cv2.getStructuringElement(cv2.MORPH_RECT, (5, 5))
您可以將核心視為我們在影象上滑動的小矩陣,以執行(折積)操作,例如模糊、銳化、邊緣檢測或其他影象處理操作。
構造了兩個這樣的核心——一個矩形和一個正方形。 我們將使用矩形作為 Top-hat 形態運算元,使用方形作為閉運算。 我們很快就會看到這些。 現在讓我們準備要進行 OCR 的影象:
# load the input image, resize it, and convert it to grayscale image = cv2.imread(args["image"]) image = imutils.resize(image, width=300) gray = cv2.cvtColor(image, cv2.COLOR_BGR2GRAY)
載入了包含信用卡照片的命令列引數影象。 然後,我們將其調整為 width=300 ,保持縱橫比,然後將其轉換為灰度。 讓我們看看我們的輸入影象:
接下來是我們的調整大小和灰度操作:
現在我們的影象已經灰度化並且大小一致,讓我們進行形態學操作:
# apply a tophat (whitehat) morphological operator to find light # regions against a dark background (i.e., the credit card numbers) tophat = cv2.morphologyEx(gray, cv2.MORPH_TOPHAT, rectKernel)
使用我們的 rectKernel 和我們的灰度影象,我們執行 Top-hat 形態學操作,將結果儲存為 tophat。
Top-hat操作在深色背景(即信用卡號)下顯示淺色區域,如下圖所示:
給定我們的高帽影象,讓我們計算沿 x 方向的梯度:
# compute the Scharr gradient of the tophat image, then scale # the rest back into the range [0, 255] gradX = cv2.Sobel(tophat, ddepth=cv2.CV_32F, dx=1, dy=0, ksize=-1) gradX = np.absolute(gradX) (minVal, maxVal) = (np.min(gradX), np.max(gradX)) gradX = (255 * ((gradX - minVal) / (maxVal - minVal))) gradX = gradX.astype("uint8")
我們努力隔離數位的下一步是計算 x 方向上高帽影象的 Scharr 梯度。完成計算,將結果儲存為 gradX 。
在計算 gradX 陣列中每個元素的絕對值後,我們採取一些步驟將值縮放到 [0-255] 範圍內(因為影象當前是浮點資料型別)。 為此,我們計算 gradX 的 minVal 和 maxVal,然後計算第 73 行所示的縮放方程(即最小/最大歸一化)。 最後一步是將 gradX 轉換為範圍為 [0-255] 的 uint8。 結果如下圖所示:
讓我們繼續改進信用卡數位查詢演演算法:
# apply a closing operation using the rectangular kernel to help # cloes gaps in between credit card number digits, then apply # Otsu's thresholding method to binarize the image gradX = cv2.morphologyEx(gradX, cv2.MORPH_CLOSE, rectKernel) thresh = cv2.threshold(gradX, 0, 255, cv2.THRESH_BINARY | cv2.THRESH_OTSU)[1] # apply a second closing operation to the binary image, again # to help close gaps between credit card number regions thresh = cv2.morphologyEx(thresh, cv2.MORPH_CLOSE, sqKernel)
為了縮小差距,我們執行了一個關閉操作。請注意,我們再次使用了 rectKernel。 隨後我們對 gradX 影象執行 Otsu 和二進位制閾值,然後是另一個關閉操作。 這些步驟的結果如下所示:
接下來讓我們找到輪廓並初始化數位分組位置列表。
# find contours in the thresholded image, then initialize the # list of digit locations cnts = cv2.findContours(thresh.copy(), cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_SIMPLE) cnts = imutils.grab_contours(cnts) locs = []
我們找到了輪廓並將它們儲存在一個列表 cnts 中 。 然後,我們初始化一個列表來儲存數位組位置。
現在讓我們遍歷輪廓,同時根據每個輪廓的縱橫比進行過濾,允許我們從信用卡的其他不相關區域中修剪數位組位置:
# loop over the contours for (i, c) in enumerate(cnts): # compute the bounding box of the contour, then use the # bounding box coordinates to derive the aspect ratio (x, y, w, h) = cv2.boundingRect(c) ar = w / float(h) # since credit cards used a fixed size fonts with 4 groups # of 4 digits, we can prune potential contours based on the # aspect ratio if ar > 2.5 and ar < 4.0: # contours can further be pruned on minimum/maximum width # and height if (w > 40 and w < 55) and (h > 10 and h < 20): # append the bounding box region of the digits group # to our locations list locs.append((x, y, w, h))
我們以與參考影象相同的方式迴圈遍歷輪廓。 在計算每個輪廓的邊界矩形 c之後,我們通過將寬度除以高度來計算縱橫比 ar 。 使用縱橫比,我們分析每個輪廓的形狀。 如果 ar 介於 2.5 和 4.0 之間(寬大於高),以及 40 到 55 畫素之間的 w 和 10 到 20 畫素之間的 h,我們將一個方便的元組中的邊界矩形引數附加到 locs。
下圖顯示了我們找到的分組——出於演示目的,我讓 OpenCV 在每個組周圍繪製了一個邊界框:
接下來,我們將從左到右對分組進行排序並初始化信用卡數位列表:
# sort the digit locations from left-to-right, then initialize the # list of classified digits locs = sorted(locs, key=lambda x:x[0]) output = []
我們根據 x 值對 locs 進行排序,因此它們將從左到右排序。 我們初始化一個列表 output ,它將儲存影象的信用卡號。 現在我們知道每組四位數位的位置,讓我們迴圈遍歷四個排序的組並確定其中的數位。
這個迴圈相當長,分為三個程式碼塊——這是第一個塊:
# loop over the 4 groupings of 4 digits for (i, (gX, gY, gW, gH)) in enumerate(locs): # initialize the list of group digits groupOutput = [] # extract the group ROI of 4 digits from the grayscale image, # then apply thresholding to segment the digits from the # background of the credit card group = gray[gY - 5:gY + gH + 5, gX - 5:gX + gW + 5] group = cv2.threshold(group, 0, 255, cv2.THRESH_BINARY | cv2.THRESH_OTSU)[1] # detect the contours of each individual digit in the group, # then sort the digit contours from left to right digitCnts = cv2.findContours(group.copy(), cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_SIMPLE) digitCnts = imutils.grab_contours(digitCnts) digitCnts = contours.sort_contours(digitCnts, method="left-to-right")[0]
在此迴圈的第一個塊中,我們提取並在每側填充組 5 個畫素,應用閾值處理,並查詢和排序輪廓。 詳情請務必參考程式碼。 下面顯示的是已提取的單個組:
讓我們用巢狀迴圈繼續迴圈以進行模板匹配和相似度得分提取:
# loop over the digit contours for c in digitCnts: # compute the bounding box of the individual digit, extract # the digit, and resize it to have the same fixed size as # the reference OCR-A images (x, y, w, h) = cv2.boundingRect(c) roi = group[y:y + h, x:x + w] roi = cv2.resize(roi, (57, 88)) # initialize a list of template matching scores scores = [] # loop over the reference digit name and digit ROI for (digit, digitROI) in digits.items(): # apply correlation-based template matching, take the # score, and update the scores list result = cv2.matchTemplate(roi, digitROI, cv2.TM_CCOEFF) (_, score, _, _) = cv2.minMaxLoc(result) scores.append(score) # the classification for the digit ROI will be the reference # digit name with the *largest* template matching score groupOutput.append(str(np.argmax(scores)))
使用 cv2.boundingRect 我們獲得提取包含每個數位的 ROI 所需的引數。為了使模板匹配以某種程度的精度工作,我們將 roi 的大小調整為與我們在第 144 行上的參考 OCR-A 字型數位影像(57×88 畫素)相同的大小。
我們初始化了一個分數列表。將其視為我們的置信度分數——它越高,它就越有可能是正確的模板。
現在,讓我們通過每個參考數位迴圈(第三個巢狀迴圈)並執行模板匹配。這是為這個指令碼完成繁重工作的地方。
OpenCV 有一個名為 cv2.matchTemplate 的方便函數,您可以在其中提供兩個影象:一個是模板,另一個是輸入影象。將 cv2.matchTemplate 應用於這兩個影象的目的是確定它們的相似程度。
在這種情況下,我們提供參考 digitROI 影象和包含候選數位的信用卡的 roi。使用這兩個影象,我們呼叫模板匹配函數並儲存結果。 接下來,我們從結果中提取分數並將其附加到我們的分數列表中。這樣就完成了最內部的迴圈。
使用分數(每個數位 0-9 一個),我們取最大分數——最大分數應該是我們正確識別的數位。我們找到得分最高的數位,通過 np.argmax 獲取特定索引。該索引的整數名稱表示基於與每個模板的比較最可能的數位(再次記住,索引已經預先排序為 0-9)。
最後,讓我們在每組周圍畫一個矩形,並以紅色文字檢視影象上的信用卡號:
# draw the digit classifications around the group cv2.rectangle(image, (gX - 5, gY - 5), (gX + gW + 5, gY + gH + 5), (0, 0, 255), 2) cv2.putText(image, "".join(groupOutput), (gX, gY - 15), cv2.FONT_HERSHEY_SIMPLEX, 0.65, (0, 0, 255), 2) # update the output digits list output.extend(groupOutput)
對於此迴圈的第三個也是最後一個塊,我們在組周圍繪製一個 5 畫素的填充矩形,然後在螢幕上繪製文字。
最後一步是將數位附加到輸出列表中。 Pythonic 方法是使用擴充套件函數將可迭代物件(在本例中為列表)的每個元素附加到列表的末尾。
要檢視指令碼的執行情況,讓我們將結果輸出到終端並在螢幕上顯示我們的影象。
# display the output credit card information to the screen print("Credit Card Type: {}".format(FIRST_NUMBER[output[0]])) print("Credit Card #: {}".format("".join(output))) cv2.imshow("Image", image) cv2.waitKey(0)
將信用卡型別列印到控制檯,然後在隨後的第 173 行列印信用卡號。
在最後幾行,我們在螢幕上顯示影象並等待任何鍵被按下,然後退出指令碼第 174 和 175 行。
花點時間祝賀自己——你做到了。 回顧一下(在高層次上),這個指令碼:
現在是時候檢視執行中的指令碼並檢查我們的結果了。
現在我們已經對信用卡 OCR 系統進行了編碼,讓我們試一試。
我們顯然不能在這個例子中使用真實的信用卡號,所以我使用谷歌收集了一些信用卡範例影象。
這些信用卡顯然是假的,僅用於演示目的。 但是,您可以應用此部落格文章中的相同技術來識別實際信用卡上的數位。
要檢視我們的信用卡 OCR 系統的執行情況,請開啟一個終端並執行以下命令:
$ python ocr_template_match.py --reference ocr_a_reference.png --image images/credit_card_05.png Credit Card Type: MasterCard Credit Card #: 5476767898765432
我們的第一個結果影象,100% 正確:
請注意我們如何能夠正確地將信用卡標記為萬事達卡,只需檢查信用卡號中的第一位數位即可。 讓我們嘗試第二張圖片,這次是一張簽證:
$ python ocr_template_match.py --reference ocr_a_reference.png --image images/credit_card_01.png Credit Card Type: Visa Credit Card #: 4000123456789010
再一次,我們能夠使用模板匹配正確地對信用卡進行 OCR。
$ python ocr_template_match.py --reference ocr_a_reference.png
$ python ocr_template_match.py --reference ocr_a_reference.png --image images/credit_card_02.png Credit Card Type: Visa Credit Card #: 4020340002345678
在本教學中,我們學習瞭如何通過 OpenCV 和 Python 使用模板匹配來執行光學字元識別 (OCR)。
具體來說,我們應用我們的模板匹配 OCR 方法來識別信用卡型別以及 16 位信用卡數位。
為了實現這一點,我們將影象處理管道分為 4 個步驟:
在評估了我們的信用卡 OCR 系統後,我們發現它是 100% 準確的,前提是發行信用卡公司使用 OCR-A 字型作為數位。
要擴充套件此應用程式,您可能希望在野外收集信用卡的真實影象,並可能訓練機器學習模型(通過標準特徵提取或訓練或折積神經網路)以進一步提高該系統的準確性。
到此這篇關於Python OpenCV實現識別信用卡號教學詳解的文章就介紹到這了,更多相關識別卡號內容請搜尋it145.com以前的文章或繼續瀏覽下面的相關文章希望大家以後多多支援it145.com!
相關文章
<em>Mac</em>Book项目 2009年学校开始实施<em>Mac</em>Book项目,所有师生配备一本<em>Mac</em>Book,并同步更新了校园无线网络。学校每周进行电脑技术更新,每月发送技术支持资料,极大改变了教学及学习方式。因此2011
2021-06-01 09:32:01
综合看Anker超能充系列的性价比很高,并且与不仅和iPhone12/苹果<em>Mac</em>Book很配,而且适合多设备充电需求的日常使用或差旅场景,不管是安卓还是Switch同样也能用得上它,希望这次分享能给准备购入充电器的小伙伴们有所
2021-06-01 09:31:42
除了L4WUDU与吴亦凡已经多次共事,成为了明面上的厂牌成员,吴亦凡还曾带领20XXCLUB全队参加2020年的一场音乐节,这也是20XXCLUB首次全员合照,王嗣尧Turbo、陈彦希Regi、<em>Mac</em> Ova Seas、林渝植等人全部出场。然而让
2021-06-01 09:31:34
目前应用IPFS的机构:1 谷歌<em>浏览器</em>支持IPFS分布式协议 2 万维网 (历史档案博物馆)数据库 3 火狐<em>浏览器</em>支持 IPFS分布式协议 4 EOS 等数字货币数据存储 5 美国国会图书馆,历史资料永久保存在 IPFS 6 加
2021-06-01 09:31:24
开拓者的车机是兼容苹果和<em>安卓</em>,虽然我不怎么用,但确实兼顾了我家人的很多需求:副驾的门板还配有解锁开关,有的时候老婆开车,下车的时候偶尔会忘记解锁,我在副驾驶可以自己开门:第二排设计很好,不仅配置了一个很大的
2021-06-01 09:30:48
不仅是<em>安卓</em>手机,苹果手机的降价力度也是前所未有了,iPhone12也“跳水价”了,发布价是6799元,如今已经跌至5308元,降价幅度超过1400元,最新定价确认了。iPhone12是苹果首款5G手机,同时也是全球首款5nm芯片的智能机,它
2021-06-01 09:30:45