Fúze point cloudu z obrazových kamer a iToF senzoru pro edge zařízení

dc.contributor.advisorKanis Jakub, Ing. Ph.D.cs
dc.contributor.authorŽahour, Davidcs
dc.contributor.refereeKrňoul Zdeněk, Ing. Ph.D.cs
dc.date.accepted2025-06-17
dc.date.accessioned2026-02-20T16:38:17Z
dc.date.available2024-10-01
dc.date.available2026-02-20T16:38:17Z
dc.date.issued2025-05-19
dc.date.submitted2025-05-19
dc.description.abstractTato práce se zabývá fúzí hloubkových dat ze stereo kamer a iToF senzoru pro edge zařízení. Stereo kamery poskytují detailní mapy, ale selhávají v oblastech bez textury; iToF senzory naopak fungují spolehlivě v homogenních scénách, avšak s nižší přesností. Kombinací jejich výhod je dosaženo pomocí metody Virtual Pattern Projection (VPP), která doplňuje syntetickou texturu na základě řídkých iToF měření. Tato metoda, převzatá z nedávné literatury, byla implementována bez zásahu do stereo algoritmu. Dále byly testovány neuronové sítě pro zpřesnění výsledků. Výsledky na vlastní indoorové datové sadě potvrzují, že zvolený přístup je přesný, efektivní a vhodný pro nasazení na tzv. embedded platformách.cs
dc.description.abstract-translatedThis thesis addresses the fusion of depth data from stereo camera pairs and indirect Time-of-Flight (iToF) sensors tailored for embedded edge devices. Stereo cameras provide detailed depth maps but are limited by texture requirements, whereas iToF sensors offer robust performance in texture-less environments but at lower resolutions and with measurement errors. To overcome these limitations, this work employs the recently proposed Virtual Pattern Projection (VPP) method, which enhances stereo depth maps using sparse iToF measurements without altering the hardware-accelerated stereo pipeline. Additionally, neural network-based refinement techniques are explored to further improve depth accuracy. Evaluation using a comprehensive indoor dataset confirms the efficiency and robustness of the implemented methods, demonstrating suitability for next-generation embedded vision applications.en
dc.description.departmentKatedra kybernetikycs
dc.description.resultObhájenocs
dc.format63
dc.identifier100010
dc.identifier.urihttp://hdl.handle.net/11025/66122
dc.language.isoen
dc.publisherZápadočeská univerzita v Plznics
dc.rightsPlný text práce je přístupný bez omezenícs
dc.rights.accessopenAccesscs
dc.subjectStereo viděnícs
dc.subjectTime-of-Flight senzorcs
dc.subjectfúze hloubkycs
dc.subjectvestavěné systémycs
dc.subjectprojekce virtuálního vzorucs
dc.subjectneuronové sítěcs
dc.subjecthloubková mapacs
dc.subjectOAK-ToFcs
dc.subjectkalibrace senzorůcs
dc.subjectpočítačové viděnícs
dc.subject.translatedstereo vision - Time-of-Flight - depth fusion - embedded systems - Virtual Pattern Projection - neural networks- depth map - OAK-ToF -sensor calibration - computer visionen
dc.thesis.degree-grantorZápadočeská univerzita v Plzni. Fakulta aplikovaných vědcs
dc.thesis.degree-levelNavazujícícs
dc.thesis.degree-nameIng.cs
dc.thesis.degree-programKybernetika a řídicí technikacs
dc.titleFúze point cloudu z obrazových kamer a iToF senzoru pro edge zařízenícs
dc.title.alternativeFusion of point clouds from image cameras and iToF sensors for edge devicesen
dc.typediplomová prácecs
local.files.count4*
local.files.size36576444*
local.has.filesyes*
local.relation.IShttps://portal.zcu.cz/StagPortletsJSR168/CleanUrl?urlid=prohlizeni-prace-detail&praceIdno=100010

Files

Original bundle
Showing 1 - 4 out of 4 results
No Thumbnail Available
Name:
DP_Zahour_A22N0103P.pdf
Size:
34.72 MB
Format:
Adobe Portable Document Format
Description:
VŠKP
No Thumbnail Available
Name:
PV_Zahour_A22N0103P.pdf
Size:
62.28 KB
Format:
Adobe Portable Document Format
Description:
Posudek vedoucího VŠKP
No Thumbnail Available
Name:
PO_Zahour_A22N0103P.pdf
Size:
66.88 KB
Format:
Adobe Portable Document Format
Description:
Posudek oponenta VŠKP
No Thumbnail Available
Name:
PB_Zahour_A22N0103P.pdf
Size:
39.52 KB
Format:
Adobe Portable Document Format
Description:
Průběh obhajoby VŠKP

Collections