关于仿射变换矩阵的一点理解

仿射变换,是一种二维坐标到二维坐标之间的线性变换;它保持了二维图形的”平直性”(直线经过变换后依然是直线)和”平行性”(二维图形之间相对位置保持不变,平行线依然是平行线,且直线上点的位置关系不变)。仿射变换可以写为如下形式。

关于仿射变换矩阵的一点理解

变换形式如下,a0, a1, a2, b0, b1,b2是对应2*3变换矩阵的几个值。

关于仿射变换矩阵的一点理解

针对图像而言,变换矩阵和图像之间关系为:dst_img=M*src_img

仿射变换有如下几种变换形式:平移、旋转、放缩、剪切、翻转。

关于仿射变换矩阵的一点理解

为了涵盖平移,将变换矩阵引入齐次坐标,在原有二维基础上增加一个维度,如下:

关于仿射变换矩阵的一点理解

不同的基础变换,a,b,c,d,e,f约束不同,可以有如下几种,a,b,d,e主要控制x,y的旋转,缩放指标,c,f 则是控制是否平移的指标。比如当c,f不为0时候,表示原图左下角坐标(h1,w1)平移变成了(h1+y, w1+x)。当a,b,d,e 分别是1,0,0,1时候,表示原图尺寸不变,如果变成了 w2, 0, 0, h2,则表示原图的height和width分别re_scale了H,W倍。

关于仿射变换矩阵的一点理解

借助opencv, 一张图像的仿射变换求解流程:

1,给出图像上三个点的坐标,以及仿射变换后对应的这三个点的坐标

2,利用M=cv2.getAffineTransform(src_point,dst_point)得到转换矩阵M

3,利用dst= cv2.warpAffine(img,M,(new_width,new_height))得到转换后的图像。其中img是原图,(new_width,new_height)是转换后的图像尺寸。

另外一种方法,根据如上图的自定义的仿射变换结果,直接给出M矩阵,求解仿射后图像的方法。

比如,想通过仿射变换实现将一张图resize成小点的尺寸,使用两种方法的对比代码如下:

-*- coding: utf-8 -*-

import cv2
import numpy as np

img = cv2.imread('test.jpg')
img=cv2.resize(img,(250,300))
height, width = img.shape[:2]

new_height=220
new_width=180
print("ori:%d,%d, new: %d, %d"%(height,width,new_height,new_width))
scale=min(new_height/height,new_width/width)
M1=np.array([[scale, 0, 0],
             [0,scale, 0]])
iM1=cv2.invertAffineTransform(M1)#逆矩阵,可反向由dst*iM1求得src

dst1=cv2.warpAffine(img,M1,(new_width,new_height))
new_dst=np.zeros([height,width,3]).astype(np.uint8)
new_dst[:new_height,:new_width,:]=dst1
img1 = np.hstack([img,new_dst])

src_point=np.float32([[0,0],[0,height],[width,0]])
dst_point=np.float32([[0,0],[0,new_height],[new_width,0]])
M2=cv2.getAffineTransform(src_point,dst_point)
dst2=cv2.warpAffine(img,M2,(new_width,new_height))
new_dst1=np.zeros([height,width,3]).astype(np.uint8)
new_dst1[:new_height,:new_width,:]=dst2
img2 = np.hstack([img,new_dst1])
img3=np.hstack([img1,img2])
cv2.imshow("M2",img3)
cv2.waitKey(0)

'''
在原图像和目标图像上各选择三个点
mat_src = np.float32([[0, 0],[0, height-1],[width-1, 0]])
mat_dst = np.float32([[0, 0],[100, height-100],[width-100, 100]])
得到变换矩阵
mat_trans = cv2.getAffineTransform(mat_src, mat_dst)
进行仿射变换
dst = cv2.warpAffine(img, mat_trans, (width,height))

显示
imgs = np.hstack([img,dst])
cv2.namedWindow('imgs', cv2.WINDOW_NORMAL)
cv2.imshow("imgs",imgs)
cv2.waitKey(0)
'''

两种方法对比如下,左边是直接定义M,右边是通过两组图的三个对应点求M的方式,所有的左边是原图,右边是仿射处理后的图。

关于仿射变换矩阵的一点理解

透射变换

透视变换的API和仿射变换的API很像,原理也相同,不同的只是由之前的三点变为四点法求透视变换矩阵,变换矩阵也由23变为33

M = cv2.getPerspectiveTransform(src_points, dst_points)
im_dst= cv2.warpPerspective(im_src, M, dsize = (w,h), flags = cv2.INTER_LINEAR)

参考:仿射变换及其变换矩阵的理解 – shine-lee – 博客园

OpenCV: Geometric Image Transformations

Original: https://blog.csdn.net/u010420283/article/details/124033200
Author: Briwisdom
Title: 关于仿射变换矩阵的一点理解

原创文章受到原创版权保护。转载请注明出处:https://www.johngo689.com/702922/

转载文章受原作者版权保护。转载请注明原作者出处!

(0)

大家都在看

亲爱的 Coder【最近整理,可免费获取】👉 最新必读书单  | 👏 面试题下载  | 🌎 免费的AI知识星球