A comparative study of cross-lingual sentiment analysis

dc.contributor.authorPřibáň, Pavel
dc.contributor.authorŠmíd, Jakub
dc.contributor.authorSteinberger, Josef
dc.contributor.authorMištera, Adam
dc.date.accessioned2025-06-20T08:25:46Z
dc.date.available2025-06-20T08:25:46Z
dc.date.issued2024
dc.date.updated2025-06-20T08:25:45Z
dc.description.abstractThis paper presents a detailed comparative study of the zero-shot cross-lingual sentiment analysis. Namely, we use modern multilingual Transformer-based models and linear transformations combined with CNN and LSTM neural networks. We evaluate their performance in Czech, French, and English. We aim to compare and assess the models’ ability to transfer knowledge across languages and discuss the trade-off between their performance and training/inference speed. We build strong monolingual baselines comparable with the current SotA approaches, achieving state-of-the-art results in Czech (96.0% accuracy) and French (97.6% accuracy). Next, we compare our results with the latest large language models (LLMs), i.e., Llama 2 and ChatGPT. We show that the large multilingual Transformer-based XLM-R model consistently outperforms all other cross-lingual approaches in zero-shot cross-lingual sentiment classification, surpassing them by at least 3%. Next, we show that the smaller Transformer-based models are comparable in performance to older but much faster methods with linear transformations. The best-performing model with linear transformation achieved an accuracy of 92.1% on the French dataset, compared to 90.3% received by the smaller XLM-R model. Notably, this performance is achieved with just approximately 0.01 of the training time required for the XLM-R model. It underscores the potential of linear transformations as a pragmatic alternative to resource-intensive and slower Transformer-based models in real-world applications. The LLMs achieved impressive results that are on par or better, at least by 1%–3%, but with additional hardware requirements and limitations. Overall, this study contributes to understanding cross-lingual sentiment analysis and provides valuable insights into the strengths and limitations of cross-lingual approaches for sentiment analysisen
dc.description.abstractTento článek představuje podrobnou komparativní studii mezijazyčné analýzy sentimentu. Konkrétně, využíváme moderní vícejazyčné modely založené na architektuře Transformer a lineárních transformacích v kombinaci s CNN a LSTM neuronovými sítěmi. Jejich úspěšnost je vyhodnocena na češtině, francouzštině a angličtině. Naším cílem je porovnat schopnost modelů přenášet znalosti napříč jazyky a zhodnotit kompromis mezi jejich úspěšností a rychlostí trénování a predikce. Pro porovnání jsou vytvořeny základní modely, které dosahují současných state-of-the-art výsledků pro češtinu a francouzštinu. Dále jsou naše výsledky porovnány s výstupy nejnovějších velkých jazykových modelů, tj. modely Llama 2 a ChatGPT. Ukazujeme, že velký vícejazyčný model XLM-R založený na architektuře Transformer konzistentně překonává všechny ostatní mezijazyčné přístupy při tzv. zero-shot detekci polarity. Dále je ukázáno, že menší modely založené na architektuře Transformer jsou výkonnostně srovnatelné se staršími, ale mnohem rychlejšími metodami používající lineární transformace. Této úspěšnosti je dosaženo jen s přibližně 0,01 času potřebného pro natrénování velkého modelu XLM-R. Tyto výsledky podtrhují potenciál metod založených na lineárních transformacích jako pragmatické alternativy. A to zejména v reálných aplikacích používajících modely založených na architektuře Transformer, které jsou pomalejší a náročné na výpočetní zdroje. Velké jazykové modely (Llama 2 a ChatGPT) dosáhly působivých výsledků, které jsou srovnatelné nebo lepší minimálně o 1% - 3% , ale přinášejí další omezení požadavky. Celkově přispíváme k pochopení mezijazyčné analýzy sentimentu a poskytujeme cenné zkušenosti o silných stránkách a omezeních mezijazyčných přístupů.cz
dc.format39
dc.identifier.document-number001171252000001
dc.identifier.doi10.1016/j.eswa.2024.123247
dc.identifier.issn0957-4174
dc.identifier.obd43942424
dc.identifier.orcidPřibáň, Pavel 0000-0002-8744-8726
dc.identifier.orcidŠmíd, Jakub 0000-0002-4492-5481
dc.identifier.orcidSteinberger, Josef 0000-0003-1707-1895
dc.identifier.orcidMištera, Adam 0009-0000-1019-9218
dc.identifier.urihttp://hdl.handle.net/11025/59712
dc.language.isoen
dc.project.IDSGS-2022-016
dc.relation.ispartofseriesExpert Systems with Applications
dc.rights.accessC
dc.subjectsentiment analysisen
dc.subjectzero-shot cross-lingual classificationen
dc.subjectlinear transformationen
dc.subjectransformersen
dc.subjectlarge language modelsen
dc.subjecttransfer learningen
dc.subjectanalýza sentimentucz
dc.subjectmezijazyčná zero-shot klasifikacecz
dc.subjectlineární transformacecz
dc.subjecttransformercz
dc.subjectvelké jazykové modelycz
dc.subjecttransfer leraningcz
dc.titleA comparative study of cross-lingual sentiment analysisen
dc.titleKomparativní studie mezijazyčné analýzy sentimentucz
dc.typeČlánek v databázi WoS (Jimp)
dc.typeČLÁNEK
dc.type.statusPublished Version
local.files.count1*
local.files.size2499964*
local.has.filesyes*
local.identifier.eid2-s2.0-85185192813

Files

Original bundle
Showing 1 - 1 out of 1 results
No Thumbnail Available
Name:
Přibáň a kol. PAPER-1-s2.0-S095741742400112X-main.pdf
Size:
2.38 MB
Format:
Adobe Portable Document Format
License bundle
Showing 1 - 1 out of 1 results
No Thumbnail Available
Name:
license.txt
Size:
1.71 KB
Format:
Item-specific license agreed upon to submission
Description:

Collections