Mediapipe+OpenCV与Unity引擎实现动作捕捉

2年前教程13175
Mediapipe+OpenCV与Unity引擎实现动作捕捉 BIGBOSSyifi 已于2022-07-29 01:53:03修改 6707 收藏 64 分类专栏: OpenCV python Unity 文章标签: opencv unity 计算机视觉 于2022-06-01 13:21:14首次发布 OpenCV 同时被 3 个专栏收录 15 篇文章 13 订阅 订阅专栏 python 22 篇文章 2 订阅 订阅专栏 Unity 2 篇文章 0 订阅 订阅专栏 前言

之前写了一篇文章: Mediapipe+OpenCV图像识别技术与Unity引擎的结合

其中的技术是Python利用OpenCV图像捕捉,配合强大的Mediapipe库来实现人体动作检测与识别;将识别结果实时同步至Unity中,实现人物模型在Unity中运动身体结构识别

技术更新

因为之前的人物动作捕捉是先通过Python和Mediapipe先将人物动作进行捕捉,将捕捉到的数据format后写入到txt中,在Unity端对txt进行数据读取,进而实现Unity人物运动;其中的缺点是:没有时效性

而本次的改进:通过利用socket和UPD通信,在localhost中数据传输,让动捕数据实时传输,到达实时动捕的效果

Demo演示

之前的Demo展示:https://hackathon2022.juejin.cn/#/works/detail?unique=WJoYomLPg0JOYs8GazDVrw

更新后效果

可以和珈乐同步互动…

本篇文章所用的技术会整理后开源,后续可以持续关注: 项目地址:https://github.com/BIGBOSS-dedsec/OpenCV-Unity-To-Build-3DPerson

GitHub:https://github.com/BIGBOSS-dedsec

CSDN: https://blog.csdn.net/weixin_50679163?type=edu

同时本篇文章实现的技术参加了稀土掘金2022编程挑战赛-游戏赛道-优秀奖 作品展示:https://hackathon2022.juejin.cn/#/works/detail?unique=WJoYomLPg0JOYs8GazDVrw

认识Mediapipe

项目的实现,核心是强大的Mediapipe ,它是google的一个开源项目:

功能详细人脸检测 FaceMesh从图像/视频中重建出人脸的3D Mesh人像分离从图像/视频中把人分离出来手势跟踪21个关键点的3D坐标人体3D识别33个关键点的3D坐标物体颜色识别可以把头发检测出来,并图上颜色

Mediapipe Dev 以上是Mediapipe的几个常用功能 ,这几个功能我们会在后续一一讲解实现 Python安装Mediapipe

pip install mediapipe==0.8.9.1

也可以用 setup.py 安装 https://github.com/google/mediapipe

项目环境

Python 3.7 Mediapipe 0.8.9.1 Numpy 1.21.6 OpenCV-Python 4.5.5.64 OpenCV-contrib-Python 4.5.5.64 实测也支持Python3.8-3.9

身体动作捕捉部分

身体数据文件

这部分是我们通过读取视频中人物计算出每个特征点信息进行数据保存,这些信息很重要,后续在untiy中导入这些动作数据 关于身体特征点

核心代码

摄像头捕捉部分:

import cv2 cap = cv2.VideoCapture(0) #OpenCV摄像头调用:0=内置摄像头(笔记本) 1=USB摄像头-1 2=USB摄像头-2 while True: success, img = cap.read() imgRGB = cv2.cvtColor(img, cv2.COLOR_BGR2RGB) #cv2图像初始化 cv2.imshow("HandsImage", img) #CV2窗体 cv2.waitKey(1) #关闭窗体

视频帧率计算

import time #帧率时间计算 pTime = 0 cTime = 0 while True cTime = time.time() fps = 1 / (cTime - pTime) pTime = cTime cv2.putText(img, str(int(fps)), (10, 70), cv2.FONT_HERSHEY_PLAIN, 3, (255, 0, 255), 3) #FPS的字号,颜色等设置

身体动作捕捉:

while True: if bboxInfo: lmString = '' for lm in lmList: lmString += f'{lm[1]},{img.shape[0] - lm[2]},{lm[3]},' posList.append(lmString)

数据传输:

# 定义localhost和端口 sock = socket.socket(socket.AF_INET, socket.SOCK_DGRAM) serverAddressPort = ("127.0.0.1", 5054) # 数据发送 date = lmString sock.sendto(str.encode(str(date)), serverAddressPort)

完整代码 MotionCapPRO.py import cv2 from cvzone.PoseModule import PoseDetector import socket # cap = cv2.VideoCapture('1.mp4') cap = cv2.VideoCapture(0) sock = socket.socket(socket.AF_INET, socket.SOCK_DGRAM) serverAddressPort = ("127.0.0.1", 5054) # 定义localhost与端口,当然可以定义其他的host detector = PoseDetector() posList = [] # 保存到txt在unity中读取需要数组列表 while True: success, img = cap.read() img = detector.findPose(img) lmList, bboxInfo = detector.findPosition(img) if bboxInfo: lmString = '' for lm in lmList: lmString += f'{lm[1]},{img.shape[0] - lm[2]},{lm[3]},' posList.append(lmString) # print(len(posList)) print(lmString) date = lmString sock.sendto(str.encode(str(date)), serverAddressPort) cv2.imshow("Image", img) key = cv2.waitKey(1) # 记录数据到本地 # if key == ord('r'): with open("MotionData.txt", 'w') as f: f.writelines(["%s\n" % item for item in posList]) 运行效果

Unity 部分 建模

在Unity中,我们需要搭建一个人物的模型,这里需要一个33个Sphere作为身体的特征点和33个Cube作为中间的支架 具体文件目录如下: Line的编号对应人物模型特征点

UPD.cs (用于接收端口数据) using UnityEngine; using System; using System.Text; using System.Net; using System.Net.Sockets; using System.Threading; public class UDPReceive : MonoBehaviour { Thread receiveThread; UdpClient client; public int port = 5052; public bool startRecieving = true; public bool printToConsole = false; public string data; public void Start() { receiveThread = new Thread( new ThreadStart(ReceiveData)); receiveThread.IsBackground = true; receiveThread.Start(); } private void ReceiveData() { client = new UdpClient(port); while (startRecieving) { try { IPEndPoint anyIP = new IPEndPoint(IPAddress.Any, 0); byte[] dataByte = client.Receive(ref anyIP); data = Encoding.UTF8.GetString(dataByte); if (printToConsole) { print(data); } } catch (Exception err) { print(err.ToString()); } } } }

(水印是我的,非盗用)

Line.cs

这里是每个Line对应cs文件,实现功能:使特征点和Line连接在一起

using System.Collections; using System.Collections.Generic; using UnityEngine; public class LineCode : MonoBehaviour { LineRenderer lineRenderer; public Transform origin; public Transform destination; void Start() { lineRenderer = GetComponent<LineRenderer>(); lineRenderer.startWidth = 0.1f; lineRenderer.endWidth = 0.1f; } // 连接两个点 void Update() { lineRenderer.SetPosition(0, origin.position); lineRenderer.SetPosition(1, destination.position); } } Action.cs

这里是读取上文识别并保存的人物动作数据,并将每个子数据循环遍历到每个Sphere点,使特征点随着视频中人物动作运动

using System.Collections; using System.Collections.Generic; using UnityEngine; public class body : MonoBehaviour { // Start is called before the first frame update public UDPReceive udpReceive; public GameObject[] bodyPoints; void Start() { } // Update is called once per frame void Update() { string data = udpReceive.data; // data = data.Remove(0, 1); // data = data.Remove(data.Length - 1, 1); print(data); string[] points = data.Split(','); print(points[0]); //0 1*3 2*3 //x1,y1,z1,x2,y2,z2,x3,y3,z3 for (int i = 0; i < 32; i++) { float x = float.Parse(points[0 + (i * 3)]) / 100; float y = float.Parse(points[1 + (i * 3)]) / 100; float z = float.Parse(points[2 + (i * 3)]) / 300; bodyPoints[i].transform.localPosition = new Vector3(x, y, z); } } } 最终实现效果

这里的视频与Unity运行有延时

后记

利用这一技术,后期可以开发出更多有意思的玩法,虽然比赛已经结束(也取得一个自己比较满意的成果),但是我的作品更新不会结束,我会一直完善下去,直到成为一款优秀的ASOUL游戏作品!坚持下去的所有动力都是对ASOUL的热爱,永远的五人团—“我们是AAAAAASOULLLLLLL!!!”

Good Luck,Have Fun and Happy Coding!!!

相关文章

计算机网络——常用的网络命令

计算机网络——常用的网络命令...

JMETER性能测试

JMETER性能测试...

基于Python深度图生成3D点云

基于Python深度图生成3D点云...

Springcloud的学习笔记(二)

Springcloud的学习笔记(二)...

面向需求,面向系统,物联网安全体系你知道多少?

面向需求,面向系统,物联网安全体系你知道多少?...

神经网络是一种算法吗,神经网络包括哪些算法

神经网络是一种算法吗,神经网络包括哪些算法...