【校园AI Day-AI workshop】基于PP-HUMAN的客流及属性统计

P粉084495128
发布: 2025-07-25 09:38:15
原创
249人浏览过

【校园AI Day-AI workshop】基于PP-HUMAN的客流及属性统计

本地演示视频(手机版貌似看不到,在codelab里也没法直接看到,只有网页版的项目预览可以看到)

       

视频传送门

gitee仓库

一、项目背景

社区是城市的关键组成部分,社区治理是围绕社区场景下的人、地、物、情、事的管理与服务。

随着城市化的快速推进及人口流动的快速增加,传统社区治理在人员出入管控、安防巡逻、车辆停放管理等典型场景下都面临着人力不足、效率低下、响应不及时等诸多难题。而人工智能技术代替人力,实现人、车、事的精准治理,大幅降低人力、物质、时间等成本,以最低成本发挥最强大的管理效能,有效推动城市治理向更“数字化、自动化、智慧化”的方向演进。

传统社区视频监控80%都依靠人工实现,随着摄像头在社区中的大规模普及,日超千兆的视频图像数据、人员信息的日渐繁杂已远超人工的负荷。

1.1 技术实现

为解决以上问题,我们灵活应用飞桨行人分析PP-Human中的行人检测和属性分析模型,实时识别行人的性别、年龄、衣着打扮等26种属性并记录统计。

其中,属性分析包含26种不同属性:

- 性别:男、女- 年龄:小于18、18-60、大于60- 朝向:朝前、朝后、侧面- 配饰:眼镜、帽子、无- 正面持物:是、否- 包:双肩包、dan肩包、shou提包- 上衣风格:带条纹、带logo、带格子、拼接风格- 下装风格:带条纹、带图案- 短袖上衣:是、否- 长袖上衣:是、否- 长外套:是、否- 长裤:是、否- 短裤:是、否- 短裙&裙子:是、否- 穿靴:是、否
登录后复制
       
【校园AI Day-AI workshop】基于PP-HUMAN的客流及属性统计 - php中文网
街道人员属性识别

PP-Human是基于飞桨深度学习框架的业界首个开源的实时行人分析工具,具有功能丰富,应用广泛和部署高效三大优势。PP-Human 支持图片/单镜头视频/多镜头视频多种输入方式,功能覆盖多目标跟踪、属性识别和行为分析。能够广泛应用于智慧交通、智慧社区、工业巡检等领域。支持服务器端部署及TensorRT加速,T4服务器上可达到实时。

【校园AI Day-AI workshop】基于PP-HUMAN的客流及属性统计 - php中文网        

详细文档可参考:https://github.com/PaddlePaddle/PaddleDetection/tree/develop/deploy/pphuman

1.2 技术方案

在本项目中,我们基于PP-HUMAN实现一套行人客流和人员属性统计系统,可以通过数据库查询,有可视化统计页面。

【校园AI Day-AI workshop】基于PP-HUMAN的客流及属性统计 - php中文网        
1.2.1.识别:使用PP-HUMAN的行人属性检测方案,对于视频流的行人属性识别需要用到MOT(多目标跟踪)模型和ATTR(行人属性识别)模型,由MOT模型识别并跟踪行人,由ATTR模型进行多分类识别行人属性。

1.2.2.后端:

Flask是一个轻量级的可定制框架,使用Python语言编写,较其他同类型框架更为灵活、轻便、安全且容易上手。它可以很好地结合MVC模式进行开发,开发人员分工合作,小型团队在短时间内就可以完成功能丰富的中小型网站或Web服务的实现。另外,Flask还有很强的定制性,用户可以根据自己的需求来添加相应的功能,在保持核心功能简单的同时实现功能的丰富与扩展,其强大的插件库可以让用户实现个性化的网站定制,开发出功能强大的网站。(百度百科) 总而言之flask用python编写,对于技术栈还不够全面和足够熟练的新手小队实现起来方便一些。

1.2.3.前端:

1.2.3.1.Ajax:

Asynchronous Javascript And XML(异步JavaScript和XML)是一种web数据交互方式,使用Ajax技术网页应用能够快速地将增量更新呈现在用户界面上,而不需要重载(刷新)整个页面,这使得程序能够更快地回应用户的操作。用来实时刷新数据。

1.2.3.2.ECharts:

ECharts是一款基于JavaScript的数据可视化图表库,提供直观,生动,可交互,可个性化定制的数据可视化图表。

1.2.4.数据库:

SQLite是一款轻型的数据库,是遵守ACID的关系型数据库管理系统,它包含在一个相对小的C库中。它的设计目标是嵌入式的,而且已经在很多嵌入式产品中使用了它,它占用资源非常的低,在嵌入式设备中,可能只需要几百K的内存就够了。技术成熟、资源占用少并且可以直接在python中import直接使用,有SQL知识基础的小伙伴上手很快。

1.3 数据集介绍

PETA (PEdesTrian Attribute)数据集包含了8705个行人,共19000张图像(分辨率跨度范围大,从17x39到169x365的大小都有)。每个行人标注了61个二值的和4个多类别的属性。

二、配置运行环境

环境要求: PaddleDetection版本 >= release/2.4 或 develop

  • 通过以下命令获取PaddleDetection套件代码
git clone https://gitee.com/paddlepaddle/PaddleDetection.git
登录后复制
       
  • 在这个项目中,我们预先准备了项目代码的压缩包,可以通过直接解压代替git clone的过程。
In [ ]
%cd /home/aistudio/# 克隆PaddleDetection仓库# !git clone https://gitee.com/paddlepaddle/PaddleDetection.git!unzip PaddleDetection.zip
登录后复制
   
In [ ]
# 安装其他依赖%cd PaddleDetection
!pip install -r requirements.txt
登录后复制
   
In [ ]
# 可选,安装paddledet!python setup.py install
登录后复制
   

更换为修改过的pphuman文件夹

该zip中包含flask后端代码app.py、前端数据可视化代码index.html、前端js库以及整合适配后的推理相关代码。

In [ ]
#更换为修改过的pphuman文件夹!rm -rf /home/aistudio/PaddleDetection/deploy/pphuman
!unzip /home/aistudio/pphuman.zip -d /home/aistudio/PaddleDetection/deploy/pphuman
登录后复制
   

三、如何构建模型

PPHuman中实现整个行人分析的工具和部署流程,包括检测、多目标跟踪、跨镜头跟踪、关键点检测、行为识别等多个模块。在这一部分中, 我们以关键点模型为例,展示将dark_hrnet_w32_256x192这一个模型从训练到导出至部署可用的模型的全流程。详细细节可以参考我们的Github文档。

3.1 模型训练

训练模型主要包括准备训练数据以及启动训练命令,可以按照下面的命令执行。

这里由于完整COCO数据集的训练耗时较长,我们准备了一个样例数据集,供执行流程参考使用。

In [ ]
# 准备我们的样例训练数据%cd /home/aistudio/PaddleDetection/

!wget https://bj.bcebos.com/v1/paddledet/data/keypoint/coco_val_person_mini.tar
!tar -xf coco_val_person_mini.tar -C ./dataset/
!mv ./dataset/coco_val_person_mini/* ./dataset/coco
!cp ./dataset/coco/annotations/instances_train2017.json ./dataset/coco/annotations/person_keypoints_train2017.json
!cp ./dataset/coco/annotations/instances_val2017.json ./dataset/coco/annotations/person_keypoints_val2017.json
登录后复制
   
In [ ]
#训练模型, 如果是CPU环境,请加上 -o use_gpu=False%cd /home/aistudio/PaddleDetection/
!python tools/train.py -c configs/keypoint/hrnet/dark_hrnet_w32_256x192.yml
登录后复制
   

完成训练后,我们的模型默认保存在output/dark_hrnet_w32_256x192/。

3.2 模型评估

在训练模型以后,我们可以通过运行评估命令来得到模型的精度,以确认训练的效果。评估可以参考以下命令执行。

这里使用了我们已经训练好的模型。如希望使用自己训练的模型,请对应将weights=后的值更改为对应模型.pdparams文件的存储路径。

创客贴设计
创客贴设计

创客贴设计,一款智能在线设计工具,设计不求人,AI助你零基础完成专业设计!

创客贴设计 51
查看详情 创客贴设计
In [ ]
!python tools/eval.py -c configs/keypoint/hrnet/dark_hrnet_w32_256x192.yml \
  -o weights=https://paddledet.bj.bcebos.com/models/keypoint/dark_hrnet_w32_256x192.pdparams
登录后复制
   

3.3 模型导出

.pdparams只包括了模型的参数数据,实际部署还需要执行导出步骤。导出步骤可以参考下面列举的步骤:

注意,这里使用了我们已经训练好的模型。如希望使用自己训练的模型,请对应将weights=后的值更改为对应模型.pdparams文件的存储路径。如果没有指定--output_dir,那么导出的模型将默认存储在output_inference/路径下。

In [ ]
!python tools/export_model.py -c configs/keypoint/hrnet/dark_hrnet_w32_256x192.yml \
  --output_dir inference_models/ \
  -o weights=https://paddledet.bj.bcebos.com/models/keypoint/dark_hrnet_w32_256x192.pdparams
登录后复制
   

至此,我们就完成了关键点模型的从训练到导出的过程。可以用于PPhuman的实际部署中了。

参考以上步骤,在我们PaddleDetection套件中,除了关键点检测以外,同样可以实现检测、跟踪模型的训练、评估及导出使用。

3.4 行为识别模型

行为识别模型从训练到到导出使用的全流程介绍及对应源码,细节请参考 PP-Human 行为识别模型。

如何自定义训练行为类型

行为识别模型本质上是一个分类模型,如果用户希望训练自定义的行为类型,可以参照以下步骤执行:

  1. 数据准备
  • 按照期望实现的自定义行为准备对应的动作视频或图片序列片段
  • 使用关键点模型或人工标注的方式,将动作片段转化为关键点序列
  • 在训练/测试数据中,正确设置动作的类别
  1. 配置文件修改
  • 在配置文件中,修改num_classes,通常为支持的动作类型数目 + 1
  • 可选的,当动作的类型较多时,top1可能不能完全反应模型准确率,此时可以修改评估时的top_k项来额外评估模型的准确率(例如top5)。

3.5 下载本项目需要的模型

在这一步中,逐一下载上述我们事先为大家准备的各任务的导出模型,可以直接使用。如果您希望在自己的场景上进一步迭代优化,也可以参考前述如何构建模型部分,完成对应模块模型的训练到导出流程,得到部署需要的导出模型。

In [ ]
#下载检测模型!wget https://bj.bcebos.com/v1/paddledet/models/pipeline/mot_ppyoloe_l_36e_pipeline.zip#下载属性模型!wget https://bj.bcebos.com/v1/paddledet/models/pipeline/strongbaseline_r50_30e_pa100k.zip#下载关键点模型#!wget https://bj.bcebos.com/v1/paddledet/models/pipeline/dark_hrnet_w32_256x192.zip#下载行为识别模型#!wget https://bj.bcebos.com/v1/paddledet/models/pipeline/STGCN.zip
登录后复制
   
In [ ]
#解压至./output_inference文件夹!unzip -d output_inference mot_ppyoloe_l_36e_pipeline.zip!unzip -d output_inference strongbaseline_r50_30e_pa100k.zip#!unzip -d output_inference dark_hrnet_w32_256x192.zip#!unzip -d output_inference STGCN.zip
登录后复制
   

3.6 配置文件说明

PP-Human相关配置位于deploy/pphuman/config/infer_cfg.yml中,存放模型路径,完成不同功能需要设置不同的任务类型。

功能及任务类型对应表单如下:

输入类型 功能 任务类型 配置项
图片 属性识别 目标检测 属性识别 DET ATTR
单镜头视频 属性识别 多目标跟踪 属性识别 MOT ATTR
单镜头视频 行为识别 多目标跟踪 关键点检测 行为识别 MOT KPT ACTION

本项目应用到的是:

  • 社区人员信息留存:单镜头视频或图片输入的属性识别

3.7 执行模型预测

我们以一个视频文件来展示一下属性识别的实际使用方式。

在预测命令中,模型预测参数选择分为两部分:

  • 功能选择:将对应参数设置为True
    • 属性识别:enable_attr
    • 行为识别:enable_action
  • 模型路径修改:设置对应任务(DET, MOT, ATTR, KPT, ACTION)的模型路径,包括两种方式
    • 修改配置文件中对应模型的路径
    • 直接在命令行中指定各模型的路径

例如,我们可以增加下列命令,指定检测模型和属性识别模型的路径:

--model_dir det=output_inference/mot_ppyoloe_l_36e_pipeline/ attr=output_inference/strongbaseline_r50_30e_pa100k/
登录后复制
       

行人信息留存

支持开发者根据具体情况选择视频或单帧图片输入进行属性识别。

注意事项:

  • --video_file or --image_dir后是输入视频or图片的路径,开发者可上传自己的数据集进行尝试
In [ ]
#补充安装相关库(不然运行下面的)视频行人属性识别指令会报错缺库!pip install motmetrics
!pip install lap
登录后复制
   
In [ ]
#视频行人属性识别#pipeline.py里的attr_res是视野里识别出的标签#处理结果可在/home/aistudio/PaddleDetection/output/ 中查看!python deploy/pphuman/pipeline.py \
    --config deploy/pphuman/config/infer_cfg.yml \
    --model_dir mot=output_inference/mot_ppyoloe_l_36e_pipeline/ attr=output_inference/strongbaseline_r50_30e_pa100k/ \
    --video_file=/home/aistudio/属性.mp4 \
    --enable_attr=True \
    --device=gpu
登录后复制
   
In [ ]
#图片行人属性识别#处理结果可在/home/aistudio/PaddleDetection/output/ 中查看!python deploy/pphuman/pipeline.py \
    --config deploy/pphuman/config/infer_cfg.yml \
    --model_dir det=output_inference/mot_ppyoloe_l_36e_pipeline/ attr=output_inference/strongbaseline_r50_30e_pa100k/ \
    --image_dir=/home/aistudio/photodemo \
    --enable_attr=True \
    --device=gpu
登录后复制
   

使用TensorRT加速预测

NVIDIA TensorRT是一个高性能的深度学习预测库。PP-Human同样支持了使用TensorRT加速模型的预测,并且整个步骤十分简单快速。您可以参考以下步骤实现:

  1. 安装适配TensorRT的Paddle, 通过下载链接直接下载对应环境的Paddle whl包进行安装。或是参照指导文档使用docker或自编译方式准备适配TensorRT的Paddle环境。
  2. 在上述两个场景的Python预测命令中,直接增加--run_mode=trt_fp16即可。

四、部署踩坑指南:

(记录了一些踩的坑,菜菜遇到坑只会搜索)

1.: cannot connect to X server !

原因:在BML CodeLab中没有允许实时显示可视化视频的权限,故在BML CodeLab中只能注释掉PaddleDetection/deploy/pphuman/pipeline.py里的(已经注释掉,本地使用建议解开注释)

#在BML CodeLab中无法实时显示,故注释下面三行cv2.imshow('PPHuman', im)if cv2.waitKey(1) & 0xFF == ord('q'):    break
登录后复制
       

ctrl+f搜索,将两个位置的上面三行注释后再次运行即可运行对视频的检测。(本地的打开显示预测处理结果是没有问题的)

2.重新annaconda配置环境

3.遇到报错ERROR: Failed building wheel for pycocotools

4.发现系统没有cudnn,配置教程

5.cudnn库报错缺dll文件

6.mysql主键唯一键重复插入解决方法

7.视频流传输

五、运行后端服务

In [ ]
! python /home/aistudio/PaddleDetection/deploy/pphuman/app.py# 这个在BML CodeLab目前同样无法查看,后端起的服务在环境本地,从我们的浏览器CodeLab访问不了,部署到本地是可以看到的。
登录后复制
   

本地服务效果如图【校园AI Day-AI workshop】基于PP-HUMAN的客流及属性统计 - php中文网【校园AI Day-AI workshop】基于PP-HUMAN的客流及属性统计 - php中文网        

以上就是【校园AI Day-AI workshop】基于PP-HUMAN的客流及属性统计的详细内容,更多请关注php中文网其它相关文章!

最佳 Windows 性能的顶级免费优化软件
最佳 Windows 性能的顶级免费优化软件

每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。

下载
来源:php中文网
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
最新问题
开源免费商场系统广告
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板
关于我们 免责申明 意见反馈 讲师合作 广告合作 最新更新 English
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送
PHP中文网APP
随时随地碎片化学习

Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号