【MediaPipe】(1) AI视觉,手部关键点实时跟踪,附python完整代码

各位同学好,今天和大家分享一下如何使用 MediaPipe完成手部关键点实时检测跟踪。先放张图看效果, 15代表FPS值

【MediaPipe】(1) AI视觉,手部关键点实时跟踪,附python完整代码

1. 导入工具包

安装opencv
pip install opencv-contrib-python
安装mediapipe
pip install mediapipe
pip install mediapipe --user  #有user报错的话试试这个

安装之后导入各个包
import cv2  #opencv
import mediapipe as mp
import time

MediaPipe 是一款由 Google Research 开发并开源的多媒体机器学习模型应用框架。它能够完成 人脸识别,虹膜检测,体态跟踪等。今天我们介绍一下手部关键点检测,剩下的后续章节讲述,感兴趣的点个关注呦。

【MediaPipe】(1) AI视觉,手部关键点实时跟踪,附python完整代码

2. 显示手部关键点及连线

2.1 相关函数解释

(1) cv2.VideoCapture(0)获取电脑自带的摄像头,修改参数1代表外接摄像头

(2) mediapipe.solutions.hands.Hands()手部关键点检测方法

参数:

static_image_mode:默认为 False,将输入图像视为视频流。它将尝试在第一个输入图像中检测手,并在成功检测后进一步定位手的坐标。在随后的图像中,一旦检测到所有 max_num_hands 手并定位了相应的手的坐标,它就会跟踪这些坐标,而不会调用另一个检测,直到它失去对任何一只手的跟踪。这减少了延迟,非常适合处理视频帧。如果设置为 True,则在每个输入图像上运行手部检测,用于处理一批静态的、可能不相关的图像。

max_num_hands:最多检测几只手, 默认为2

min_detection_confidence:手部检测模型的最小置信值(0-1之间),超过阈值则检测成功。 默认为 0.5

min_tracking_confidence:坐标跟踪模型的最小置信值 (0-1之间),用于将手部坐标视为成功跟踪,不成功则在下一个输入图像上自动调用手部检测。将其设置为更高的值可以提高解决方案的稳健性,但代价是更高的延迟。如果 static_image_mode 为真,则忽略这个参数,手部检测将在每个图像上运行。 默认为 0.5

返回值:

MULTI_HAND_LANDMARKS:被检测/跟踪的手的集合,其中每只手被表示为21个手部地标的列表,每个地标由x, y, z组成。 x和y分别由图像的宽度和高度归一化为[0,1]。Z表示地标深度。

MULTI_HANDEDNESS:被检测/追踪的手是左手还是右手的集合。每只手由 label(标签)score(分数)组成。 label 是 ‘Left’ 或 ‘Right’ 值的字符串。 score 是预测左右手的估计概率。

(3) mediapipe.solutions.drawing_utils.draw_landmarks()绘制手部关键点的连线

参数:

image:需要画图的原始图片

landmark_list:检测到的手部关键点坐标

connections:连接线,需要把那些坐标连接起来

landmark_drawing_spec:坐标的颜色,粗细

connection_drawing_spec:连接线的粗细,颜色等

(4)手部标记点如图所示

【MediaPipe】(1) AI视觉,手部关键点实时跟踪,附python完整代码

2.2 只绘制手部关键点和连线

由于读入视频图像通道一般为RGB,而opencv中图像通道的格式为BGR,因此需要 cv2.cvtColor()函数 将opencv读入的视频图像转为RGB格式results中存放每个关键点的 xyz坐标,通过 .multi_hand_landmarks读取出来。

#(1)视频捕获
cap = cv2.VideoCapture(0)  # 0代表电脑自带的摄像头

#(2)创建检测手部关键点的方法
mpHands = mp.solutions.hands  #接收方法
hands = mpHands.Hands(static_image_mode=False, #静态追踪,低于0.5置信度会再一次跟踪
                      max_num_hands=2, # 最多有2只手
                      min_detection_confidence=0.5, # 最小检测置信度
                      min_tracking_confidence=0.5)  # 最小跟踪置信度

创建检测手部关键点和关键点之间连线的方法
mpDraw = mp.solutions.drawing_utils

查看时间
pTime = 0 #处理一张图像前的时间
cTime = 0 #一张图处理完的时间

#(3)处理视频图像
while True:  # 对每一帧视频图像处理

    # 返回是否读取成功和读取的图像
    success, img = cap.read()

    # 在循环中发送rgb图像到hands中,opencv中图像默认是BGR格式
    imgRGB = cv2.cvtColor(img, cv2.COLOR_BGR2RGB)
    # 把图像传入检测模型,提取信息
    results = hands.process(imgRGB)

    # 检查是否检测到什么东西了,没有检测到手就返回None
    # print(results.multi_hand_landmarks)

    # 检查每帧图像是否有多只手,一一提取它们
    if results.multi_hand_landmarks: #如果没有手就是None
        for handlms in results.multi_hand_landmarks:

            # 绘制每只手的关键点
            mpDraw.draw_landmarks(img, handlms, mpHands.HAND_CONNECTIONS) #传入想要绘图画板img,单只手的信息handlms
            # mpHands.HAND_CONNECTIONS绘制手部关键点之间的连线

    # 记录执行时间
    cTime = time.time()
    # 计算fps
    fps = 1/(cTime-pTime)
    # 重置起始时间
    pTime = cTime

    # 把fps显示在窗口上;img画板;取整的fps值;显示位置的坐标;设置字体;字体比例;颜色;厚度
    cv2.putText(img, str(int(fps)), (10,70), cv2.FONT_HERSHEY_PLAIN, 3, (255,0,0), 3)

    # 显示图像
    cv2.imshow('Image', img)  #窗口名,图像变量
    if cv2.waitKey(1) & 0xFF==27:  #每帧滞留1毫秒后消失;ESC键退出
        break

释放视频资源
cap.release()
cv2.destroyAllWindows()

这里设置了最大可识别2只手,如果有需要可通过 result .multi_handedness,分别处理左右手的坐标。

【MediaPipe】(1) AI视觉,手部关键点实时跟踪,附python完整代码

3. 编辑关键点坐标,更改显示图像

上面我们通过 results.multi_hand_landmarks得到的 xyz坐标是归一化后的 比例坐标,即某一像素点在图像的某一比例位置[0.5, 0.5]。我们需要将其转为 像素坐标,如[200,200],像素坐标一定是整数。通过 图像宽度乘以比例即可得到像素长度。为了能更明显的显示关键点,把关键点画的大一些,只需 以关键点的像素坐标为圆心画圆 cv2.circle()即可。

因此我们在上面的代码中补充

#(1)视频捕获
cap = cv2.VideoCapture(0)  # 0代表电脑自带的摄像头

#(2)创建检测手部关键点的方法
mpHands = mp.solutions.hands  #接收方法
hands = mpHands.Hands(static_image_mode=False, #静态追踪,低于0.5置信度会再一次跟踪
                      max_num_hands=2, # 最多有2只手
                      min_detection_confidence=0.5, # 最小检测置信度
                      min_tracking_confidence=0.5)  # 最小跟踪置信度

创建检测手部关键点和关键点之间连线的方法
mpDraw = mp.solutions.drawing_utils

查看时间
pTime = 0 #处理一张图像前的时间
cTime = 0 #一张图处理完的时间

存放坐标信息
lmList = []

#(3)处理视频图像
文件设为True,对每一帧视频图像处理
while True:

    # 返回是否读取成功和读取的图像
    success, img = cap.read()

    # 在循环中发送rgb图像到hands中,opencv中图像默认是BGR格式
    imgRGB = cv2.cvtColor(img, cv2.COLOR_BGR2RGB)
    # 把图像传入检测模型,提取信息
    results = hands.process(imgRGB)

    # 检查每帧图像是否有多只手,一一提取它们
    if results.multi_hand_landmarks: #如果没有手就是None
        for handlms in results.multi_hand_landmarks:

            # 获取每个关键点的索引和坐标
            for index, lm in enumerate(handlms.landmark):

                # 索引为0代表手底部中间部位,为4代表手指关键或指尖
                # print(index, lm)  # 输出21个手部关键点的xyz坐标(0-1之间),是相对于图像的长宽比例
                # 只需使用x和y查找位置信息

                # 将xy的比例坐标转换成像素坐标
                h, w, c = img.shape # 分别存放图像长\宽\通道数

                # 中心坐标(小数),必须转换成整数(像素坐标)
                cx ,cy =  int(lm.x * w), int(lm.y * h) #比例坐标x乘以宽度得像素坐标

                # 打印显示21个关键点的像素坐标
                print(index, cx, cy)

                # 存储坐标信息
                lmList.append([index, cx, cy])

                # 在21个关键点上换个圈,img画板,坐标(cx,cy),半径5,蓝色填充
                cv2.circle(img, (cx,cy), 12, (0,0,255), cv2.FILLED)

            # 绘制每只手的关键点
            mpDraw.draw_landmarks(img, handlms, mpHands.HAND_CONNECTIONS) #传入想要绘图画板img,单只手的信息handlms
            # mpHands.HAND_CONNECTIONS绘制手部关键点之间的连线

    # 记录执行时间
    cTime = time.time()
    # 计算fps
    fps = 1/(cTime-pTime)
    # 重置起始时间
    pTime = cTime

    # 把fps显示在窗口上;img画板;取整的fps值;显示位置的坐标;设置字体;字体比例;颜色;厚度
    cv2.putText(img, str(int(fps)), (10,70), cv2.FONT_HERSHEY_PLAIN, 3, (255,0,0), 3)

    # 显示图像
    cv2.imshow('Image', img)  #窗口名,图像变量
    if cv2.waitKey(1) & 0xFF==27:  #每帧滞留1毫秒后消失
        break

释放视频资源
cap.release()
cv2.destroyAllWindows()

得到的结果如下,fps=19,右下输出框中打印每帧图像的21个手部关键点xy坐标,并保存在列表中。

【MediaPipe】(1) AI视觉,手部关键点实时跟踪,附python完整代码

Original: https://blog.csdn.net/dgvv4/article/details/122023047
Author: 立Sir
Title: 【MediaPipe】(1) AI视觉,手部关键点实时跟踪,附python完整代码

原创文章受到原创版权保护。转载请注明出处:https://www.johngo689.com/687836/

转载文章受原作者版权保护。转载请注明原作者出处!

(0)

大家都在看

亲爱的 Coder【最近整理,可免费获取】👉 最新必读书单  | 👏 面试题下载  | 🌎 免费的AI知识星球