PocketEAR: An Assistive Sound Classification System for Hearing-Impaired

dc.contributor.authorEkštein, Kamil
dc.date.accessioned2020-03-23T11:00:23Z
dc.date.available2020-03-23T11:00:23Z
dc.date.issued2019
dc.description.abstractTento článek popisuje architekturu a činnost asistivního systému nazvaného PocketEAR, který je primárně určen pro sluchově postižené uživatele. Pomáhá jim orientovat se v akusticky aktivním prostředí tím, že průběžně monitoruje a klasifikuje přicházející zvuky a zobrazuje uživateli třídy těchto zachycených zvuků. Klasifikátor zvuků prostředí je navržen jako dvojstupňový klasifikátor hlubokou konvoluční neuronovou sítí (skládá se z tzv. superklasifikátoru a množiny tzv. subklasifikátorů), do kterého vstupuje sekvence MFCC vektorů. Klasifikátor je obklopen distribuovaným klient-server systémem, kdy zachycení zvuků v terénu, jejich (před)zpracování a zobrazení výsledků klasifikace zajišťují instance mobilní klientské aplikace, zatímco o samotnou klasifikaci a správu systému se starají dva kooperující servery. Článek detailně rozebírá architekturu klasifikátoru zvuků z prostředí a také použité specifické postupy zpracování zvuku.cs
dc.description.abstractThis paper describes the design and operation of an assistive system called PocketEAR which is primarily targeted towards hearing-impaired users. It helps them with orientation in acoustically active environments by continuously monitoring and classifying the incoming sounds and displaying the captured sound classes to the users. The environmental sound recognizer is designed as a two-stage deep convolutional neural network classifier (consists of the so-called superclassifier and a set of the so-called subclassifiers) fed with sequences of MFCC vectors. It is wrapped in a distributed client-server system where the sound capturing in terrain, (pre)processing and displaying of the classication results are performed by instances of a mobile client application, and the actual classication and maintenance are carried out by two co-operating servers. The paper discusses in details the architecture of the environmental sound classier as well as the used task-specific sound processingen
dc.format11 s.cs
dc.format.mimetypeapplication/pdf
dc.identifier.citationEKŠTEIN, K.. PocketEAR: An Assistive Sound Classification System for Hearing-Impaired. In: Speech and Computer. Cham: Springer, 2019. s. 82-92. ISBN 978-3-030-26060-6 , ISSN 0302-9743.en
dc.identifier.doi10.1007/978-3-030-26061-3
dc.identifier.isbn978-3-030-26060-6
dc.identifier.issn0302-9743
dc.identifier.obd43926840
dc.identifier.uri2-s2.0-85071465267
dc.identifier.urihttp://hdl.handle.net/11025/36712
dc.language.isoenen
dc.project.IDSGS-2019-018/Zpracov heterogenn dat a jejich specializovanplikacecs
dc.publisherSpringeren
dc.relation.ispartofseriesSpeech and Computeren
dc.rightsPlný text je přístupný v rámci univerzity přihlášeným uživatelům.cs
dc.rights© Springeren
dc.rights.accessrestrictedAccessen
dc.subjectKlasifikace zvuků z prostředícs
dc.subjecthluboké konvoluční neuronové sítěcs
dc.subjectdvojstupňový klasifikátorcs
dc.subjectarchitektura klient-servercs
dc.subject.translatedEnvironmental sound classficationen
dc.subject.translateddeep convolutional neural networksen
dc.subject.translatedtwo-stage classifieren
dc.subject.translatedclient-server architectureen
dc.titlePocketEAR: An Assistive Sound Classification System for Hearing-Impaireden
dc.title.alternativePocketEAR: Asistivní systém klasifikace zvuků pro sluchově postiženécs
dc.typekonferenční příspěvekcs
dc.typeconferenceObjecten
dc.type.statusPeer-revieweden
dc.type.versionpublishedVersionen

Files