《电子技术应用》
您所在的位置:首页 > 人工智能 > 设计应用 > 基于YOLOv5的姿态交互球类陪练机器人
基于YOLOv5的姿态交互球类陪练机器人
2022年电子技术应用第1期
曾杨吉,刘自红,蔡 勇,郭星辰,莫金龙
西南科技大学 制造科学与工程学院,四川 绵阳621000
摘要: 针对当下球类陪练机器人人机交互能力不足的问题,提出一种基于树莓派和YOLOv5目标检测算法的新型人机交互模式,使机器人实现前进、后退、左移、右移、抛球、踢球6种不同的动作;通过对在3种不同环境(室内、室外晴天、室外阴天)下搜集的人体姿态数据集进行标定、训练后,得到6种姿态在3种环境中测试集上的识别准确率分别为:室内96.33%、室外晴天95%、室外阴天94.3%。相比基于特征匹配和其他利用手势等小目标检测的算法,基于该算法的机器人具有更高的检测速度和准确性,使机器人更加智能化。
中图分类号: TN92;TH39
文献标识码: A
DOI:10.16157/j.issn.0258-7998.211736
中文引用格式: 曾杨吉,刘自红,蔡勇,等. 基于YOLOv5的姿态交互球类陪练机器人[J].电子技术应用,2022,48(1):76-79.
英文引用格式: Zeng Yangji,Liu Zihong,Cai Yong,et al. An interactive ball training partner robot based on YOLOv5[J]. Application of Electronic Technique,2022,48(1):76-79.
An interactive ball training partner robot based on YOLOv5
Zeng Yangji,Liu Zihong,Cai Yong,Guo Xingchen,Mo Jinlong
School of Manufacturing Science and Engineering,Southwest University of Science and Technology,Mianyang 621000,China
Abstract: In order to solve the problem of insufficient human-computer interaction ability of ball training partner robots, a new human-computer interaction mode based on Raspberry Pi and YOLOv5 algorithm was proposed, which enabled the robot to realize six different actions: forward, backward, left, right, throwing the ball, and kicking the ball. After calibrating and training the data sets collected in three different environments(indoor, outdoor sunny day and outdoor cloudy day), the recognition accuracy of the six poses in the test set under three different environments is 96.33% indoor,95% outdoor sunny day,and 94.3% outdoor cloudy day, respectively. Compared with other algorithms based on feature matching and small target detection using gestures, the robot has higher detection speed and accuracy, which makes the robot more intelligent.
Key words : YOLOv5 algorithm;posture recognition;ball training partner robot;Raspberry Pi;STM32 MCU

0 引言

    球类陪练机器人以其机动性好、针对性强、训练数据可量化等特点已在多个体育领域有广泛的应用,目前对陪练机器人的研究大多集中于机器人控制方法[1]和机械结构的设计、优化[2-3],以提高机器人的多功能性和可控性为主。但是对于训练内容更加复杂的运动(如篮球、足球、橄榄球等),还需要机器人具备更高的人机交互能力以发挥出最优性能。

    传统的人机交互一般依赖于遥控器、键盘鼠标等外部设备,存在一定的固有缺陷,而基于图像处理的目标识别方法可实现与机器人的实时交互,进一步提高机器人智能化水平。在基于图像处理的姿态识别研究中,主要集中于以下几个方面:(1)传感器:基于惯性传感器、FDC2214电容传感器等[4-5];(2)机器学习:基于支持向量机(SVM)、长短期记忆神经网络(LSTM)等[6-7];(3)深度学习模型:基于YOLO、卷积神经网络(CNN)等的方法在识别问题中也得到了广泛应用[8-9]。YOLO系列算法由Redmon等人在2015年提出[10],后续不断发展为YOLOv2[11]、YOLOv3[12]、YOLOv4[13]和最新的YOLOv5。该算法的核心思想在于将目标检测统一为回归问题进行求解,相较于同一精确度下采用分类+回归方法的Faster R-CNN等机器学习方法,检测速度提升了约4倍。YOLOv5是YOLO系列最新的算法,是目前检测领域综合性最好的算法之一。




本文详细内容请下载:http://www.chinaaet.com/resource/share/2000003912




作者信息:

曾杨吉,刘自红,蔡  勇,郭星辰,莫金龙

(西南科技大学 制造科学与工程学院,四川 绵阳621000)




wd.jpg

此内容为AET网站原创,未经授权禁止转载。