Are the Multilingual Models Better? Improving Czech Sentiment with Transformers

Date issued

2021

Journal Title

Journal ISSN

Volume Title

Publisher

INCOMA Ltd.

Abstract

V tomto článku se zaměřujeme na zlepšení českého sentimentu pomocí modelů založených na architektuře Transformer a jejich vícejazyčných verzí. Řešíme úlohu detekce polarity pro češtinu na třech českých datových sadách. Trénujeme a provádíme experimenty s pěti vícejazyčnými a třemi monolinguálními modely. Porovnáváme výkonnost monolinguálních a vícejazyčných modelů, včetně srovnání se starším přístupem založeným na rekurentních neuronových sítích. Dále testujeme vícejazyčné modely a jejich schopnost přenášet znalost z angličtiny do češtiny (a naopak). Naše experimenty ukazují, že obrovské vícejazyčné modely mohou překonat výkonnost monolinguálních modelů. Jsou také schopny detekovat polaritu v jiném jazyce bez trénovacích dat, přičemž jejich výkon není horší než 4,4 % ve srovnání s nejlepšími monolinguálními modely. Navíc jsme dosáhli nových state-of-the-art výsledků na všech třech datových sadách.

Description

Subject(s)

Analýza českého sentiment, architektura Transformer, vícejazyčnost

Citation

PŘIBÁŇ, P. STEINBERGER, J. Are the Multilingual Models Better? Improving Czech Sentiment with Transformers. In Deep Learning for Natural Language Processing Methods and Applications. Shoumen: INCOMA Ltd., 2021. s. 1138-1149. ISBN: 978-954-452-072-4 , ISSN: 1313-8502
OPEN License Selector