
在姿态估计领域,直接找到一个模型能精确输出特定json格式的关键点数据是较为罕见的。本教程旨在指导用户如何选择合适的姿态估计算法,理解其输出格式,并重点讲解如何通过python代码将模型的标准输出转换为用户所需的特定json结构,以实现数据格式的无缝对接和高效利用。
姿态估计是计算机视觉中的一个重要任务,旨在识别图像或视频中人体关键点的位置。尽管存在多种先进的姿态估计算法,但它们通常会输出各自预设格式的关键点数据。当用户需要将模型输出整合到现有系统或特定应用中时,数据格式的匹配便成为一个常见挑战。本教程将探讨如何应对这一挑战,特别是针对用户提供的JSON格式。
当前主流的姿态估计算法大致可分为自上而下(Top-Down)和自下而上(Bottom-Up)两类。
无论采用哪种方法,模型的输出通常包含以下信息:
这些信息通常以列表、数组或字典的形式组织,并可能遵循COCO、MPII等标准数据集的格式约定。用户提供的JSON格式中,pose_keypoints是一个扁平化的列表,以[x1, y1, c1, x2, y2, c2, ...]的形式存储,其中c代表置信度。这种格式是许多模型(如OpenPose)的常见输出方式,但其外部包裹的{"version": 1.0, "people": [...]}结构以及face_keypoints、hand_right_keypoints、hand_left_keypoints等字段的空列表,则体现了特定的定制化需求。
鉴于直接找到一个能完全符合特定JSON输出结构的模型难度较大,最实用的方法是:
这个策略的核心在于第三步,即数据转换。
选择模型时,应考虑以下因素:
例如,Ultralytics的YOLOv8-pose是一个不错的选择,它提供了易于使用的Python API和预训练模型,并且其文档中详细介绍了如何处理姿态估计的输入输出。OpenPose也是一个强大的选择,其输出格式与用户提供的pose_keypoints部分非常相似。
以YOLOv8-pose为例,其推理结果通常会包含每个检测到的人的关键点信息,可能是一个Keypoints对象,其中包含xyc(坐标和置信度)属性。这些数据通常以NumPy数组或PyTorch张量的形式呈现。
假设一个模型(例如经过处理的OpenPose或YOLOv8-pose结果)为图像中的每个人返回一个包含17个关键点的列表,每个关键点由[x, y, confidence]组成。
以下Python代码示例展示了如何将一个模拟的模型输出(一个或多个人体的关键点列表)转换为用户所需的特定JSON格式。
import json
def convert_model_output_to_custom_json(model_outputs_per_image):
"""
将姿态估计模型的输出(每人一个关键点列表)转换为自定义的JSON格式。
Args:
model_outputs_per_image (list): 图像中每个人的姿态估计结果列表。
每个元素是一个包含17个关键点的列表,
每个关键点为 [x, y, confidence]。
例如:[[[x1,y1,c1], ..., [x17,y17,c17]], ...]
如果模型未检测到人,此列表可以为空。
Returns:
dict: 符合自定义格式的JSON字典。
"""
people_data = []
for person_keypoints_list in model_outputs_per_image:
# 将每个人的关键点列表 [x, y, confidence] 展平为 [x1, y1, c1, x2, y2, c2, ...]
flat_keypoints = []
for kp in person_keypoints_list:
flat_keypoints.extend(kp)
# 确保 pose_keypoints 列表的长度为 51 (17个关键点 * 3个值)
# 如果模型输出的关键点数量不足17个,或者某些关键点未被检测到(通常用 [0,0,0] 表示),
# 则需要进行填充或截断。这里我们假设模型输出的每个人的关键点列表已经包含17个元素,
# 并且未检测到的关键点以 [0.0, 0.0, 0.0] 表示。
expected_keypoints_count = 17
expected_flat_length = expected_keypoints_count * 3
if len(flat_keypoints) < expected_flat_length:
# 如果实际关键点少于预期,用0填充
flat_keypoints.extend([0.0] * (expected_flat_length - len(flat_keypoints)))
elif len(flat_keypoints) > expected_flat_length:
# 如果实际关键点多于预期,进行截断
flat_keypoints = flat_keypoints[:expected_flat_length]
person_entry = {
"face_keypoints": [], # 根据用户需求,保持为空
"pose_keypoints": flat_keypoints,
"hand_right_keypoints": [], # 根据用户需求,保持为空
"hand_left_keypoints": [] # 根据用户需求,保持为空
}
people_data.append(person_entry)
custom_json_output = {
"version": 1.0,
"people": people_data
}
return custom_json_output
# --- 模拟模型输出数据 ---
# 假设模型检测到一个人,并输出了17个关键点。
# 其中一些关键点可能未被检测到,用 [0, 0, 0] 表示,这与用户提供的示例一致。
simulated_person_keypoints = [
[104.81, 34.44, 0.91], # 0: 鼻子
[83.90, 80.05, 0.72], # 1: 左眼
[42.58, 79.82, 0.61], # 2: 右眼
[34.77, 142.66, 0.75], # 3: 左耳
[31.24, 204.80, 0.52], # 4: 右耳
[122.45, 81.22, 0.58], # 5: 左肩
[125.48, 145.92, 0.70],# 6: 右肩
[131.52, 192.00, 0.36],# 7: 左肘
[58.70, 193.86, 0.29], # 8: 右肘
[0.0, 0.0, 0.0], # 9: 左腕 (未检测到)
[107.84, 196.42, 0.32],# 10: 右腕
[0.0, 0.0, 0.0], # 11: 左髋 (未检测到)
[0.0, 0.0, 0.0], # 12: 右髋 (未检测到)
[93.98, 28.16, 0.93], # 13: 左膝
[107.08, 26.99, 0.93], # 14: 右膝
[71.30, 32.58, 0.88], # 15: 左踝
[0.0, 0.0, 0.0] # 16: 右踝 (未检测到)
]
# 如果图像中有多个人,则 model_outputs_per_image 会是一个包含多个上述列表的列表
# 例如:[simulated_person_keypoints_1, simulated_person_keypoints_2]
simulated_model_outputs_for_image = [simulated_person_keypoints]
# 执行转换
custom_json_result = convert_model_output_to_custom_json(simulated_model_outputs_for_image)
# 打印结果
print(json.dumps(custom_json_result, indent=4))代码解释:
以上就是处理特定JSON格式关键点数据的姿态估计算法与实践的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号