Hand Pose Estimation in the Task of Egocentric Actions

dc.contributor.authorHrúz, Marek
dc.contributor.authorKanis, Jakub
dc.contributor.authorKrňoul, Zdeněk
dc.date.accessioned2021-11-22T11:00:28Z
dc.date.available2021-11-22T11:00:28Z
dc.date.issued2021
dc.description.abstractIn this article we tackle the problem of hand pose estimation when the hand is interacting with various objects from egocentric viewpoint. This entails a frequent occlusion of parts of the hand by the object and also self-occlusions of the hand. We use a Voxel-to-Voxel approach to obtain hypotheses of the hand joint locations, ensemble the hypotheses and use several post-processing strategies to improve on the results. We utilize models of prior hand pose in the form of Truncated Singular Value Decomposition (SVD) and the temporal context to produce refined hand joint locations. We present an ablation study of the methods to show the influence of individual features of the post-processing. With our method we were able to constitute state-of-the-art results on the HANDS19 Challenge: Task 2 - Depth-Based 3D Hand Pose Estimation while Interacting with Objects, with precision on unseen test data of 33.09 mm.en
dc.description.abstractČlánek se zabývá problémem odhadu pozice ruky z egocentrického pohledu, když ruka interaguje s různými objekty. Problém s sebou nese častý překryv částí ruky předmětem nebo rukou. Pro určení počáteční hypotézy umístění kloubů ruky je použita metoda Voxel-to-Voxel, kombinace hypotéz a několik strategií zpracování výstupů poskytuje celkové zlepšení výsledků. Model pózy ruky ve formě singulárního rozkladu (SVD) a časového kontextu dále upřesňuje umístění kloubů. Ablační studie metod ukazuje vliv jednotlivých rysů následného zpracování. Metoda poskytuje state-of-the-art výsledky v soutěži "HANDS19: Task 2-Depth-Based 3D Hand Pose Estimation while Interacting with Objects" s přesností na testovacích datech 33,09 mm.cs
dc.format15 s.cs
dc.format.mimetypeapplication/pdf
dc.identifier.citationHRÚZ, M. KANIS, J. KRŇOUL, Z. Hand Pose Estimation in the Task of Egocentric Actions. IEEE Access, 2021, roč. 9, č. 11.1.2021, s. 10533-10547. ISSN: 2169-3536cs
dc.identifier.document-number609789400001
dc.identifier.doi10.1109/ACCESS.2021.3050624
dc.identifier.issn2169-3536
dc.identifier.obd43933335
dc.identifier.uri2-s2.0-85099554685
dc.identifier.urihttp://hdl.handle.net/11025/45945
dc.language.isoenen
dc.project.IDLTARF18017/AMIR - Multimodální rozhraní založené na gestech a mluvené i znakové řeči pro ovládání asistivního mobilního informačního robotacs
dc.project.IDEF15_003/0000466/Umělá inteligence a uvažovánícs
dc.relation.ispartofseriesIEEE Accessen
dc.subjectTřídimenzionální displejcs
dc.subjectOdhad pózycs
dc.subjectDvoudimenzionální displejcs
dc.subjectAnalýza úkonů,Trojrozměrné modelovánícs
dc.subjectPredikční algoritmycs
dc.subjectStav o polozecs
dc.subject3D konvoluční neuronové sítěcs
dc.subjectPóza z egocentrického pohleducs
dc.subjectTruncatedSVDcs
dc.subjectVolumetrická datacs
dc.subject.translatedThree-dimensional displaysen
dc.subject.translatedPose estimationen
dc.subject.translatedTask analysisen
dc.subject.translatedTwo dimensional displaysen
dc.subject.translatedSolid modelingen
dc.subject.translatedPrediction algorithmsen
dc.subject.translatedLocation awarenessen
dc.subject.translated3D convolutional neural networken
dc.subject.translatedegocentric hand poseen
dc.subject.translatedTruncatedSVDen
dc.subject.translatedvolumetric dataen
dc.titleHand Pose Estimation in the Task of Egocentric Actionsen
dc.title.alternativeOdhad pózy ruky vykonávající egocentrické akcecs
dc.typečlánekcs
dc.typearticleen
dc.type.statusPeer-revieweden
dc.type.versionpublishedVersionen

Files

Collections