如何解决字符/数字的边界框检测
我有图像,如下所示:
我想找到 8 位数字的边界框。我的第一次尝试是使用带有以下代码的 cv2:
import cv2
import matplotlib.pyplot as plt
import cvlib as cv
from cvlib.object_detection import draw_bbox
im = cv2.imread('31197402.png')
bbox,label,conf = cv.detect_common_objects(im)
output_image = draw_bbox(im,bbox,conf)
plt.imshow(output_image)
plt.show()
不幸的是,这不起作用。有人有想法吗?
解决方法
您的解决方案中的问题很可能是输入图像的质量很差。人物和背景之间几乎没有任何对比。 cvlib
中的斑点检测算法可能无法区分字符斑点和背景,从而产生无用的二进制掩码。让我们尝试使用纯粹的 OpenCV
来解决这个问题。
我建议采取以下步骤:
- 应用自适应阈值以获得相当好的二元掩码。
- 使用区域过滤器从斑点噪声中清除二进制掩码。
- 使用形态学提高二值图像的质量。
- 获取每个字符的外部轮廓,并将边界矩形适合每个字符 blob。
- 裁剪每个字符使用之前计算的边界矩形。
让我们看看代码:
# importing cv2 & numpy:
import numpy as np
import cv2
# Set image path
path = "C:/opencvImages/"
fileName = "mrrm9.png"
# Read input image:
inputImage = cv2.imread(path+fileName)
inputCopy = inputImage.copy()
# Convert BGR to grayscale:
grayscaleImage = cv2.cvtColor(inputImage,cv2.COLOR_BGR2GRAY)
从这里开始没有太多要讨论的内容,只需读取 BGR
图像并将其转换为 grayscale
。现在,让我们使用 adaptive threshold
方法应用 gaussian
。这是棘手的部分,因为参数是根据输入的质量手动调整的。该方法的工作方式是将图像划分为 windowSize
的单元格网格,然后应用局部阈值来找到前景和背景之间的最佳分离。可以将 windowConstant
指示的附加常数添加到阈值以微调输出:
# Set the adaptive thresholding (gasussian) parameters:
windowSize = 31
windowConstant = -1
# Apply the threshold:
binaryImage = cv2.adaptiveThreshold(grayscaleImage,255,cv2.ADAPTIVE_THRESH_GAUSSIAN_C,cv2.THRESH_BINARY,windowSize,windowConstant)
你得到这个漂亮的二进制图像:
现在,如您所见,图像有一些斑点噪声。让我们应用 area filter
来消除噪音。噪声比感兴趣的目标 blob 小,因此我们可以根据区域轻松过滤它们,如下所示:
# Perform an area filter on the binary blobs:
componentsNumber,labeledImage,componentStats,componentCentroids = \
cv2.connectedComponentsWithStats(binaryImage,connectivity=4)
# Set the minimum pixels for the area filter:
minArea = 20
# Get the indices/labels of the remaining components based on the area stat
# (skip the background component at index 0)
remainingComponentLabels = [i for i in range(1,componentsNumber) if componentStats[i][4] >= minArea]
# Filter the labeled pixels based on the remaining labels,# assign pixel intensity to 255 (uint8) for the remaining pixels
filteredImage = np.where(np.isin(labeledImage,remainingComponentLabels) == True,0).astype('uint8')
这是过滤后的图像:
我们可以通过一些形态学来提高这个图像的质量。某些字符似乎已损坏(查看第一个 3
- 它被分成两个单独的 blob)。我们可以加入他们应用关闭操作:
# Set kernel (structuring element) size:
kernelSize = 3
# Set operation iterations:
opIterations = 1
# Get the structuring element:
maxKernel = cv2.getStructuringElement(cv2.MORPH_RECT,(kernelSize,kernelSize))
# Perform closing:
closingImage = cv2.morphologyEx(filteredImage,cv2.MORPH_CLOSE,maxKernel,None,opIterations,cv2.BORDER_REFLECT101)
这是“关闭”的图像:
现在,您想要获取每个字符的 bounding boxes
。让我们检测每个 blob 的外轮廓并在其周围放置一个漂亮的矩形:
# Get each bounding box
# Find the big contours/blobs on the filtered image:
contours,hierarchy = cv2.findContours(closingImage,cv2.RETR_CCOMP,cv2.CHAIN_APPROX_SIMPLE)
contours_poly = [None] * len(contours)
# The Bounding Rectangles will be stored here:
boundRect = []
# Alright,just look for the outer bounding boxes:
for i,c in enumerate(contours):
if hierarchy[0][i][3] == -1:
contours_poly[i] = cv2.approxPolyDP(c,3,True)
boundRect.append(cv2.boundingRect(contours_poly[i]))
# Draw the bounding boxes on the (copied) input image:
for i in range(len(boundRect)):
color = (0,0)
cv2.rectangle(inputCopy,(int(boundRect[i][0]),int(boundRect[i][1])),\
(int(boundRect[i][0] + boundRect[i][2]),int(boundRect[i][1] + boundRect[i][3])),color,2)
最后一个 for
循环几乎是可选的。它从列表中获取每个边界矩形并将其绘制在输入图像上,因此您可以看到每个单独的矩形,如下所示:
让我们在二值图像上想象一下:
另外,如果你想使用我们刚刚得到的边界框裁剪每个字符,你可以这样做:
# Crop the characters:
for i in range(len(boundRect)):
# Get the roi for each bounding rectangle:
x,y,w,h = boundRect[i]
# Crop the roi:
croppedImg = closingImage[y:y + h,x:x + w]
cv2.imshow("Cropped Character: "+str(i),croppedImg)
cv2.waitKey(0)
这是获取单个边界框的方法。现在,也许您正在尝试将这些图像传递给 OCR
。我尝试将过滤后的二进制图像(在关闭操作之后)传递给 pyocr
(这是我正在使用的 OCR),然后我将其作为输出字符串:31197402
>
我用来获取关闭图像的 OCR
的代码是这样的:
# Set the OCR libraries:
from PIL import Image
import pyocr
import pyocr.builders
# Set pyocr tools:
tools = pyocr.get_available_tools()
# The tools are returned in the recommended order of usage
tool = tools[0]
# Set OCR language:
langs = tool.get_available_languages()
lang = langs[0]
# Get string from image:
txt = tool.image_to_string(
Image.open(path + "closingImage.png"),lang=lang,builder=pyocr.builders.TextBuilder()
)
print("Text is:"+txt)
请注意,OCR
接收白色背景上的黑色字符,因此您必须先反转图像。
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。