|
|
--- |
|
|
license: mit |
|
|
--- |
|
|
|
|
|
<Modellname>: RTM133Lifting |
|
|
|
|
|
https://img.shields.io/badge/%25F0%259F%25A4%2597-Model%2520Hub-yellow |
|
|
https://img.shields.io/badge/License-MIT-green.svg |
|
|
https://badge.fury.io/py/%3Cdein-paketname%3E.svg |
|
|
https://img.shields.io/badge/Framework-PyTorch-orange |
|
|
|
|
|
Dieses Repository enthält ein Modell für 3D-Ganzkörper-Poseschätzung, das auf dem WholeBody3D (H3WB) Datensatz und der Referenzarchitektur trainiert wurde. Das Modell schätzt gleichzeitig die 3D-Posen von Körper, Händen und Gesicht aus 2D Pose Daten. |
|
|
📋 Modell-Details |
|
|
|
|
|
Entwickler: Jonas D. Stephan, Nathalie Dollmann |
|
|
|
|
|
Architektur: SimpleBasline aus [https://github.com/wholebody3d/wholebody3d](https://github.com/wholebody3d/wholebody3d) |
|
|
|
|
|
Trainingsdaten: WholeBody3D (H3WB & T3WB) Datensätze. |
|
|
|
|
|
Framework: PyTorch |
|
|
|
|
|
Input: 2D-Koordinaten (133 Keypoints) für Körper-, Hand- und Gesichts-Keypoints (3DMM-Parameter), wie im H3WB-Format definiert. |
|
|
|
|
|
Output: 3D-Koordinaten (133 Keypoints) für Körper-, Hand- und Gesichts-Keypoints (3DMM-Parameter), wie im H3WB-Format definiert. |
|
|
|
|
|
🚀 Schnellstart |
|
|
Installation |
|
|
bash |
|
|
|
|
|
# Installation via PyPI |
|
|
pip install pose-estimation-recognition-utils-rtmlib |
|
|
|
|
|
Grundlegende Verwendung |
|
|
python |
|
|
|
|
|
from pose_estimation_recognition_utils_rtmlib import RTMLifting, RTMPoseEstimator2D |
|
|
|
|
|
# 1. 2D PoseEstimation eines Bilder |
|
|
estimator = RTMPoseEstimator2D()\ |
|
|
result2D = estimator.process_image_from_file(image_path="Testbild.jpg") |
|
|
|
|
|
# 2. Lifting Model laden |
|
|
lifting = RTMLifting(num_keypoints=133, mode="ai") |
|
|
|
|
|
# 3. Liften |
|
|
lifting.lift_pose(result2D) |
|
|
|
|
|
📥 Modell-Download |
|
|
|
|
|
Das vortrainierte Modell wird automatisch über from_pretrained() heruntergeladen. Für einen manuellen Download: |
|
|
python |
|
|
|
|
|
from pose_estimation_recognition_utils_rtmlib import ModelLoader, Simple3DPoseLiftingModel |
|
|
|
|
|
model=Simple3DPoseLiftingModel(num_keypoints=num_keypoints)\ |
|
|
model.to(device)\ |
|
|
model.eval() |
|
|
|
|
|
model_loader=ModelLoader( |
|
|
repo_id="fhswf/rtm133lifting", |
|
|
model_filename="rtm133lifting.pth", |
|
|
cache_dir=cache_dir, |
|
|
) |
|
|
|
|
|
state_dict=model_loader.load_model(device=device)\ |
|
|
model.load_state_dict(state_dict) |
|
|
|
|
|
📊 Evaluation & Leistung |
|
|
|
|
|
Train Loss: 29712.805670 |
|
|
Test Loss: 100725.236959 |
|
|
|
|
|
🏋️ Training |
|
|
|
|
|
Dieses Modell wurde von Grund auf neu auf dem H3WB-Datensatz trainiert. |
|
|
|
|
|
Epochen: 175 |
|
|
|
|
|
Batch-Größe: 256 |
|
|
|
|
|
Optimierer: Adam |
|
|
|
|
|
Learning Rate: 0.002 |
|
|
|
|
|
Hardware: NVIDIA GeForce RTX 3050 |
|
|
|
|
|
📄 Zitation |
|
|
|
|
|
@inproceedings{zhu2023h3wb, |
|
|
title={H3WB: Human3.6M 3D WholeBody Dataset and Benchmark}, |
|
|
author={Zhu, Yue and Samet, Nermin and Picard, David}, |
|
|
booktitle={Proceedings of the IEEE/CVF International Conference on Computer Vision}, |
|
|
year={2023} |
|
|
} |
|
|
|
|
|
/*@misc{<dein-modellname>2024, |
|
|
title = {{<Modellname>}: A 3D Whole-Body Pose Estimation Model}, |
|
|
author = {Stephan, Jonas D. and Dollmann, Nathalie}, |
|
|
howpublished = {\url{https://github.com/<dein-username>/<dein-repo>}}, |
|
|
year = {2024} |
|
|
}*/ |
|
|
|
|
|
🙏 Danksagung |
|
|
|
|
|
Dieses Projekt basiert auf der Arbeit des WholeBody3D (H3WB) Teams. Vielen Dank an Yue Zhu, Nermin Samet und David Picard für die Bereitstellung des hervorragenden Datensatzes und Codes. |
|
|
⚖️ Lizenz |
|
|
|
|
|
Der Code in diesem Repository ist, sofern nicht anders angegeben, unter der MIT-Lizenz lizenziert. Siehe die Datei LICENSE für Details. |
|
|
|
|
|
Das Modell nutzt Daten und Architektur, die unter der MIT-Lizenz vom H3WB-Projekt veröffentlicht wurden. Copyright 2023 der H3WB-Autoren. Copyright 2024 Jonas D. Stephan & Nathalie Dollmann. |