zl程序教程

您现在的位置是:首页 >  其它

当前栏目

[handbyhand] Hand modeling

Modeling
2023-09-27 14:23:24 时间

MANO

https://github.com/otaheri/MANO

Personalized Hand Models for VR

As a starting point, I’m using the Mano model. It is a parametric hand model published by the Perceiving Systems Department in Tübingen.

https://medium.com/kitchen-budapest/personalized-hand-models-for-vr-bdf6d6f8fad3

与LeapMotion有结合

 

[1] https://blog.csdn.net/g11d111/article/details/115539407

MANO作为一个 3D参数化模型,其参数都有哪些呢?

    • 778个vertices 1538个faces,并根据 16个 关键点 +从顶点中获取 5个
      手指指尖的点, 构成完整的手部链条,或者叫做前向动力学树 (forward kinematic tree).

根据上面的分析,我们最终得到了每个手部图像对应的21个关键点的3Dxyz(root-relative)扭转后的所有778个顶点(MANO的手部模型有778个顶点)。

缺点是:不容易后期“调整”。 

 

https://github.com/hassony2/manopth

https://github.com/hassony2/obman_train

  

 核心是:skeleton (21 landmarks) to mesh

 

DeepHandMesh

A Weakly-Supervised Deep Encoder-Decoder Framework for High-Fidelity Hand Mesh Modeling

在MANO的基础上,优化了~

 

YouTube: https://www.youtube.com/watch?v=h66jFalMpDQ 【作者的吉他视频】

dataset: https://mks0601.github.io/InterHand2.6M/

arxiv: https://arxiv.org/abs/2008.09309

pdf: https://www.ecva.net/papers/eccv_2020...

code: https://github.com/facebookresearch/I...

 

 与MediaPipe 哪个效果好呢?

 

 

HALO

Code: HALO: A Skeleton-Driven Neural Occupancy Representation for Articulated Hands

Paper: https://arxiv.org/pdf/2109.11399.pdf

Video: https://www.youtube.com/watch?v=QBiAN8Bobuc

 

 

MMPOSE 商汤 

https://github.com/open-mmlab/mmpose

 

在博云违反Apache License 2.0协议中的说明的陈述,要点大致如下:

博云的BeyondMicroservice的宣传视频中,一些APM相关的UI组件、布局以及显示的指标信息,都和SkyWalking 6.6与Sky Walking 7完全一致
Apache License 2.0的权利: 可以免费使用、可以修改、可以按照自己的方式进行集成
Apache License 2.0的要求: 应该清楚的在产品、网站和市场介绍材料中明确指出使用了Apache SkyWalking作为一个组件(然而并没有)
————————————————
版权声明:本文为CSDN博主「淼叔」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/liumiaocn/article/details/107368370

  

 

Elixir 

Elixir is a free hand-tracking demo game for Oculus Quest developed by Magnopus and Facebook Reality Labs. You can download it and play it right now!

 

I2UV-HandNet 

一双虚拟的手,正在让每一个你离“元宇宙”更近一些

当然这类技术的实现在早期往往都需要依靠海量的学术研究作为技术突破的基础,近日,计算机视觉领域国际顶会 ICCV 2021 收录了一篇题为《I2UV-HandNet: Image-to-UV Prediction Network for Accurate and High-fidelity 3D Hand Mesh Modeling》的论文。

https://openaccess.thecvf.com/content/ICCV2021/papers/Chen_I2UV-HandNet_Image-to-UV_Prediction_Network_for_Accurate_and_High-Fidelity_3D_Hand_ICCV_2021_paper.pdf

Image直接generate virtual hands.

相关的paper: https://github.com/xinghaochen/awesome-hand-pose-estimation