admin管理员组文章数量:1652190
动机:为什么作者想要解决这个问题?
- 尽管3D人体姿态估计取得了进步,但以前的大多数方法只处理单人情况
贡献:作者在这篇论文中完成了什么工作(创新点)?
- 多人姿态估计
- 能够得到以相机为中心人体关键点的绝对坐标,看这篇论文的原因
- 自上而下方法
规划:他们如何完成工作?
- 系统架构
1)DetectNet
裁剪提取出人体边框。
2)RootNet (重点)
RootNet利用裁剪后的人体图像,定位人体的根 R = ( x R , y R , Z R ) \mathbf{R}=\left(x_{R}, y_{R}, Z_{R}\right) R=(xR,yR,ZR),其中 x R x_{R} xR 和 y R y_{R} yR是像素坐标(不知道这个像素坐标和下面的有什么区别), Z R Z_{R} ZR 是绝对深度值。
3)PoseNet
从裁剪的人体图像中估计与根相关的 3D 姿态, P j r e l = ( x j , y j , Z j r e l ) \mathbf{P}_{j}^{r e l}=\left(x_{j}, y_{j}, Z_{j}^{r e l}\right) Pjrel=(xj,yj,Zjrel), x j x_{j} xj和 y j y_{j} yj是裁剪图像空间中的像素坐标, Z j rel Z_{j}^{\text {rel }} Zjrel 是人体root的相对深度值。 Z j r e l Z_{j}^{r e l} Zjrel 加 Z R Z_{R} ZR得到 Z j a b s Z_{j}^{a b s} Zjabs,然后将 x j x_{j} xj 和 y j y_{j} yj转换到原始输入图像空间。最后通过简单的反投影得到最终的绝对3D 位姿。
理由:通过什么实验验证它们的工作结果
- 误差度量指标
有两种评估指标被广泛使用。第一个是平均每个关节位置误差 (MPJPE) [1],它是在将估计的人体root与ground truth 3D 姿势对齐后计算的。第二个是进一步对齐后的 MPJPE(即 Procrustes 分析 (PA) [2]),被称为 PA MPJPE。为了评估绝对 3D 人类根的定位,引入了root R \mathbf{R} R 的估计坐标与 ground truth R ∗ \mathbf{R}^{*} R∗ 之间的欧几里得距离的平均值,即根位置误差 (MRPE) 的平均值,作为一个新的度量:
M R P E = 1 N ∑ i = 1 N ∥ R ( i ) − R ( i ) ∗ ∥ 2 , M R P E=\frac{1}{N} \sum_{i=1}^{N}\left\|\mathbf{R}^{(i)}-\mathbf{R}^{(i) *}\right\|_{2}, MRPE=N1i=1∑NR(i)−R(i)∗ 2,
其中上标 i 是样本索引,N 表示测试样本的总数。
自己的看法
- 最终实现效果
思考这种图怎么画出来的???
参考文献
[1] Human3.6m: Large scale datasets and predictive methods for 3d human sensing in natural environments.
[2] Generalized procrustes analysis
版权声明:本文标题:文献阅读 (CV)Camera Distance-aware Top-down Approach for 3D Multi-person Pose 内容由热心网友自发贡献,该文观点仅代表作者本人, 转载请联系作者并注明出处:https://www.elefans.com/xitong/1729578984a1207373.html, 本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。
发表评论