news 2026/4/16 15:22:52

毕业设计 基于机器视觉的人体姿态行为识别

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
毕业设计 基于机器视觉的人体姿态行为识别

文章目录

  • 0 简介
  • **1、人体姿态估计简介**
  • 2、人体姿态估计数据集
  • 4、实现原理
  • 5、实现神经网络
  • 6 部分关键代码
  • 7 最后

0 简介

今天学长向大家分享一个毕业设计项目

毕业设计 基于机器视觉的人体姿态行为识别

项目运行效果:

毕业设计 深度学习人体姿势姿态识别

🧿 项目分享:见文末!

1、人体姿态估计简介

人体姿态估计(Human Posture Estimation),是通过将图片中已检测到的人体关键点正确的联系起来,从而估计人体姿态。

人体关键点通常对应人体上有一定自由度的关节,比如颈、肩、肘、腕、腰、膝、踝等,如下图。

通过对人体关键点在三维空间相对位置的计算,来估计人体当前的姿态。

进一步,增加时间序列,看一段时间范围内人体关键点的位置变化,可以更加准确的检测姿态,估计目标未来时刻姿态,以及做更抽象的人体行为分析,例如判断一个人是否在打电话等。

人体姿态检测的挑战:

1. 每张图片中包含的人的数量是未知的。 2. 人与人之间的相互作用是非常复杂的,比如接触、遮挡等,这使得联合各个肢体,即确定一个人有哪些部分变得困难。 3. 图像中人越多,计算复杂度越大(计算量与人的数量正相关),这使得实时检测变得困难。

2、人体姿态估计数据集

由于缺乏高质量的数据集,在人体姿势估计方面进展缓慢。在近几年中,一些具有挑战性的数据集已经发布,这使得研究人员进行研发工作。人体姿态估计常用数据集:

  • COCO Keypoints challenge
  • MPII Human Pose Dataset
  • VGG Pose Dataset
  • CMU Panoptic Dataset(本案例所用数据集)

人体姿态估计技术在体育健身、动作采集、3D试衣、舆情监测等领域具有广阔的应用前景,人们更加熟悉的应用就是抖音尬舞机。

4、实现原理

    1. 输入一幅图像,经过卷积网络提取特征,得到一组特征图,然后分成两个岔路,分别使用 CNN网络提取Part Confidence Maps 和 Part Affinity Fields;
    1. 得到这两个信息后,我们使用图论中的 Bipartite Matching(偶匹配) 求出Part Association,将同一个人的关节点连接起来,由于PAF自身的矢量性,使得生成的偶匹配很正确,最终合并为一个人的整体骨架;
    1. 最后基于PAFs求Multi-Person Parsing—>把Multi-person parsing问题转换成graphs问题—>[Hungarian Algorithm(匈牙利算法)]

(匈牙利算法是部图匹配最常见的算法,该算法的核心就是寻找增广路径,它是一种用增广路径求二分图最大匹配的算法。)

5、实现神经网络

阶段一:VGGNet的前10层用于为输入图像创建特征映射。

阶段二:使用2分支多阶段CNN,其中第一分支预测身体部位位置(例如肘部,膝部等)的一组2D置信度图(S)。 如下图

![](https://img-blog.csdnimg.cn/20190421232819272.png?x-oss-
process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L20wXzM4MTA2OTIz,size_16,color_FFFFFF,t_70)

第二分支预测一组部分亲和度的2D矢量场(L),其编码部分之间的关联度。 如下图所示,显示颈部和左肩之间的部分亲和力。

![](https://img-blog.csdnimg.cn/20190421232935425.png?x-oss-
process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L20wXzM4MTA2OTIz,size_16,color_FFFFFF,t_70)

阶段三: 通过贪心推理解析置信度和亲和力图,对图像中的所有人生成2D关键点。

6 部分关键代码

POSE_PAIRS = [ ["Neck", "RShoulder"], ["Neck", "LShoulder"], ["RShoulder", "RElbow"], ["RElbow", "RWrist"], ["LShoulder", "LElbow"], ["LElbow", "LWrist"], ["Neck", "RHip"], ["RHip", "RKnee"], ["RKnee", "RAnkle"], ["Neck", "LHip"], ["LHip", "LKnee"], ["LKnee", "LAnkle"], ["Neck", "Nose"], ["Nose", "REye"], ["REye", "REar"], ["Nose", "LEye"], ["LEye", "LEar"] ] inWidth = args.width inHeight = args.height net = cv.dnn.readNetFromTensorflow("graph_opt.pb") cap = cv.VideoCapture(args.input if args.input else 0) while cv.waitKey(1) < 0: hasFrame, frame = cap.read() if not hasFrame: cv.waitKey() break frameWidth = frame.shape[1] frameHeight = frame.shape[0] net.setInput(cv.dnn.blobFromImage(frame, 1.0, (inWidth, inHeight), (127.5, 127.5, 127.5), swapRB=True, crop=False)) out = net.forward() out = out[:, :19, :, :] # MobileNet output [1, 57, -1, -1], we only need the first 19 elements assert(len(BODY_PARTS) == out.shape[1]) points = [] for i in range(len(BODY_PARTS)): # Slice heatmap of corresponging body's part. heatMap = out[0, i, :, :] # Originally, we try to find all the local maximums. To simplify a sample # we just find a global one. However only a single pose at the same time # could be detected this way. _, conf, _, point = cv.minMaxLoc(heatMap) x = (frameWidth * point[0]) / out.shape[3] y = (frameHeight * point[1]) / out.shape[2] # Add a point if it's confidence is higher than threshold. points.append((int(x), int(y)) if conf > args.thr else None) for pair in POSE_PAIRS: partFrom = pair[0] partTo = pair[1] assert(partFrom in BODY_PARTS) assert(partTo in BODY_PARTS) idFrom = BODY_PARTS[partFrom] idTo = BODY_PARTS[partTo] if points[idFrom] and points[idTo]: cv.line(frame, points[idFrom], points[idTo], (0, 255, 0), 3) cv.ellipse(frame, points[idFrom], (3, 3), 0, 0, 360, (0, 0, 255), cv.FILLED) cv.ellipse(frame, points[idTo], (3, 3), 0, 0, 360, (0, 0, 255), cv.FILLED)

7 最后

项目运行效果:

毕业设计 深度学习人体姿势姿态识别

🧿 项目分享:见文末!

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/16 10:34:23

SonarQube界面定制完全指南:从品牌标识到深度个性化

SonarQube界面定制完全指南&#xff1a;从品牌标识到深度个性化 【免费下载链接】sonarqube Continuous Inspection 项目地址: https://gitcode.com/gh_mirrors/so/sonarqube SonarQube作为业界领先的持续代码质量检测平台&#xff0c;不仅提供了强大的代码分析能力&…

作者头像 李华
网站建设 2026/4/16 15:05:02

61、Tectia for Windows:功能与配置全解析

Tectia for Windows:功能与配置全解析 1. 客户端断开连接 当最后一个会话终止时,客户端会自动断开连接。若因某些原因需要手动断开连接,可使用“断开连接”工具栏图标或“文件/断开连接”菜单项。 2. 密钥管理 要管理用于公钥认证的密钥对,可通过“设置”工具栏图标或“…

作者头像 李华
网站建设 2026/4/12 1:31:01

52、Python 网络数据处理与编码实用指南

Python 网络数据处理与编码实用指南 1. hashlib 模块 1.1 功能概述 hashlib 模块实现了多种安全哈希和消息摘要算法,如 MD5 和 SHA1。要计算哈希值,可调用以下函数,函数名与所代表的算法名称相同。 1.2 哈希函数 函数 描述 md5() MD5 哈希(128 位) sha1() SHA1 …

作者头像 李华
网站建设 2026/4/16 13:30:41

32、模型/视图编程与数据库操作:自定义委托与数据库访问

模型/视图编程与数据库操作:自定义委托与数据库访问 1. 自定义委托概述 在数据展示和编辑中,若要对数据项的呈现和编辑进行完全控制,就需要创建自定义委托。委托可单纯用于控制外观(如只读视图),或通过提供自定义编辑器来控制编辑,也可两者兼顾。 2. 自定义委托的使用…

作者头像 李华
网站建设 2026/4/13 20:09:38

55、扩展和嵌入 Python:从 C 语言调用 Python 及相关操作指南

扩展和嵌入 Python:从 C 语言调用 Python 及相关操作指南 1. 宏的使用示例 以下是一个使用宏的示例代码: PyObject *py_wrapper(PyObject *self, PyObject *args) {...PyArg_ParseTuple(args, ...)Py_BEGIN_ALLOW_THREADSresult = run_long_calculation(args);Py_END_ALL…

作者头像 李华
网站建设 2026/4/16 13:37:29

36、自定义视图与通用委托的深入解析

自定义视图与通用委托的深入解析 在数据可视化与交互的开发过程中,自定义视图和通用委托是两个非常重要的概念。它们能够帮助开发者更好地控制数据的展示和编辑,提高代码的复用性和可维护性。 自定义视图的实现与特点 在处理自定义视图时,我们以一个简单的示例为例。当用…

作者头像 李华