如何解决getPerspectiveTransform和warpPerspective如何工作? [蟒蛇]
我找不到关于getPerspectiveTransform
和warpPerspective
在OpenCV中(特别是在Python中)如何工作的完美解释。我对这些方法的理解是:
给定源图像中的4个点和4个新点getPerspectiveTransform
返回一个(3,3)矩阵,该矩阵在作为参数发送到warpPerspective
时以某种方式裁剪图像。我认为这4个点(来自src图像)在图像上形成一个多边形,然后将其删除/裁剪,然后将这个新裁剪的图像拟合到新给定的4个点之间,并且我还看到warpPerspective
接受了输入新图像的大小。所以我推断这是因为,如果新点的最大高度/最大宽度(从这些点计算出来……想象这些点是矩形或四边形的角)小于提供的宽度或高度,则剩余区域为留出基本上是黑/白的空白,但不是这种情况...如果从新点计算出的宽度/高度小于所提供的宽度和高度,则剩余空间将由源图像的某些部分填充本质上是4个源点的外部...
我无法理解这种行为...
那么我会错误地解释这些方法吗?如果是这样,请提供对这些方法的正确解释。
PS。我是OpenCV的新手,如果有人解释getPerspectiveTransform
warpPerspective
使用的基础数学,那就太好了。
谢谢。
解决方法
这些功能是称为几何变换的图像处理概念的一部分。 在现实生活中拍摄照片时,总是存在某种几何变形,可以使用“几何转换”将其消除。它还具有其他应用程序,包括镶嵌结构,地理地图,立体声和视频。
这是this site中的一个示例:
因此,基本上warpPerspective
会将源图像转换为所需的版本,并使用getPerspectiveTransform
给出的3 * 3转换矩阵完成工作。
查看更多详细信息here。
现在,如果您想知道如何从源图像和目标图像中找到那对4个点,则应该检查另一个称为特征提取的图像处理概念。这些方法可以完美地找到图像的重要区域,您可以将它们与从不同视角拍摄的同一对象的另一幅图像进行匹配。 (检查SIFT,SURF,ORB等)
因此warpPerspective
不仅会裁剪您的图像,还将基于转换矩阵传输整个图像(不仅仅是由4个点指定的区域),并且这些点将仅用于查找正确的矩阵
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。