Are the Multilingual Models Better? Improving Czech Sentiment with Transformers

dc.contributor.authorPřibáň, Pavel
dc.contributor.authorSteinberger, Josef
dc.date.accessioned2022-03-21T11:00:17Z
dc.date.available2022-03-21T11:00:17Z
dc.date.issued2021
dc.description.abstractV tomto článku se zaměřujeme na zlepšení českého sentimentu pomocí modelů založených na architektuře Transformer a jejich vícejazyčných verzí. Řešíme úlohu detekce polarity pro češtinu na třech českých datových sadách. Trénujeme a provádíme experimenty s pěti vícejazyčnými a třemi monolinguálními modely. Porovnáváme výkonnost monolinguálních a vícejazyčných modelů, včetně srovnání se starším přístupem založeným na rekurentních neuronových sítích. Dále testujeme vícejazyčné modely a jejich schopnost přenášet znalost z angličtiny do češtiny (a naopak). Naše experimenty ukazují, že obrovské vícejazyčné modely mohou překonat výkonnost monolinguálních modelů. Jsou také schopny detekovat polaritu v jiném jazyce bez trénovacích dat, přičemž jejich výkon není horší než 4,4 % ve srovnání s nejlepšími monolinguálními modely. Navíc jsme dosáhli nových state-of-the-art výsledků na všech třech datových sadách.cs
dc.description.abstract-translatedIn this paper, we aim at improving Czech sentiment with transformer-based models and their multilingual versions. More concretely, we study the task of polarity detection for the Czech language on three sentiment polarity datasets. We fine-tune and perform experiments with five multilingual and three monolingual models. We compare the monolingual and multilingual models' performance, including comparison with the older approach based on recurrent neural networks. Furthermore, we test the multilingual models and their ability to transfer knowledge from English to Czech (and vice versa) with zero-shot cross-lingual classification. Our experiments show that the huge multilingual models can overcome the performance of the monolingual models. They are also able to detect polarity in another language without any training data, with performance not worse than 4.4 % compared to state-of-the-art monolingual trained models. Moreover, we achieved new state-of-the-art results on all three datasets.en
dc.format12 s.cs
dc.format.mimetypeapplication/pdf
dc.identifier.citationPŘIBÁŇ, P. STEINBERGER, J. Are the Multilingual Models Better? Improving Czech Sentiment with Transformers. In Deep Learning for Natural Language Processing Methods and Applications. Shoumen: INCOMA Ltd., 2021. s. 1138-1149. ISBN: 978-954-452-072-4 , ISSN: 1313-8502cs
dc.identifier.doi10.26615/978-954-452-072-4_128
dc.identifier.isbn978-954-452-072-4
dc.identifier.issn1313-8502
dc.identifier.obd43933570
dc.identifier.uri2-s2.0-85123600594
dc.identifier.urihttp://hdl.handle.net/11025/47188
dc.language.isoenen
dc.project.ID90140/Velká výzkumná infrastruktura_(J) - e-INFRA CZcs
dc.project.IDSGS-2019-018/Zpracování heterogenních dat a jejich specializované aplikacecs
dc.project.IDLM2018140/E-infrastruktura CZcs
dc.publisherINCOMA Ltd.en
dc.relation.ispartofseriesDeep Learning for Natural Language Processing Methods and Applicationsen
dc.rights© Incoma Ltd.en
dc.rights.accessopenAccessen
dc.subjectAnalýza českého sentimentcs
dc.subjectarchitektura Transformercs
dc.subjectvícejazyčnostcs
dc.subject.translatedCzech sentiment analysisen
dc.subject.translatedTransformersen
dc.subject.translatedmultilingualityen
dc.titleAre the Multilingual Models Better? Improving Czech Sentiment with Transformersen
dc.title.alternativeJsou vícejazyčné modely lepší? Vylepšení českého sentimentu pomocí architketury Transformerscs
dc.typekonferenční příspěvekcs
dc.typeConferenceObjecten
dc.type.statusPeer-revieweden
dc.type.versionpublishedVersionen

Files

Original bundle
Showing 1 - 1 out of 1 results
No Thumbnail Available
Name:
Přibáň-RANLP-2021-Are-the-crosslingual.pdf
Size:
502.67 KB
Format:
Adobe Portable Document Format
OPEN License Selector