LLaMA-Based Models for Aspect-Based Sentiment Analysis

dc.contributor.authorŠmíd, Jakub
dc.contributor.authorPřibáň, Pavel
dc.contributor.authorKrál, Pavel
dc.date.accessioned2025-06-20T08:37:44Z
dc.date.available2025-06-20T08:37:44Z
dc.date.issued2024
dc.date.updated2025-06-20T08:37:44Z
dc.description.abstractWhile large language models (LLMs) show promise for various tasks, their performance in compound aspect-based sentiment analysis (ABSA) tasks lags behind fine-tuned models. However, the potential of LLMs fine-tuned for ABSA remains unexplored. This paper examines the capabilities of open-source LLMs fine-tuned for ABSA, focusing on LLaMA-based models. We evaluate the performance across four tasks and eight English datasets, finding that the fine-tuned Orca 2 model surpasses state-of-the-art results in all tasks. However, all models struggle in zero-shot and few-shot scenarios compared to fully fine-tuned ones. Additionally, we conduct error analysis to identify challenges faced by fine-tuned models.en
dc.description.abstractZatímco velké jazykové modely (LLMs) jsou slibné pro různé úlohy, jejich výkonnost v úlohách aspektově orientované analýzy sentimentu (ABSA) zaostává za modely trénovanými pro tuto úlohu. Potenciál trénovaných LLMs pro ABSA však zůstává neprozkoumaný. Tento článek zkoumá možnosti otevřených LLMs natrénovaných pro ABSA se zaměřením na modely založenými na LLaMA. Vyhodnocujeme výkonnost ve čtyřech úlohách a osmi anglických datových sadách a zjišťujeme, že natrénovaný model Orca 2ve všech úlohách překonává nejmodernější výsledky. Všechny modely však mají problémy ve scénářích s nulovým počtem vzorků a s několika málo vzorky ve srovnání s plně natrénovanými modely. Kromě toho provádíme analýzu chyb, abychom zjistili problémy, kterým natrénované modely čelí.cz
dc.format8
dc.identifier.doi10.18653/v1/2024.wassa-1.6
dc.identifier.isbn979-8-89176-156-8
dc.identifier.obd43943809
dc.identifier.orcidŠmíd, Jakub 0000-0002-4492-5481
dc.identifier.orcidPřibáň, Pavel 0000-0002-8744-8726
dc.identifier.orcidKrál, Pavel 0000-0002-3096-675X
dc.identifier.urihttp://hdl.handle.net/11025/60521
dc.language.isoen
dc.project.IDSGS-2022-016
dc.project.ID90254
dc.publisherAssociation for Computational Linguistics
dc.relation.ispartofseries14th Workshop on Computational Approaches to Subjectivity, Sentiment, and Social Media Analysis, WASSA 2024
dc.subjectaspect-based sentiment analysisen
dc.subjectlarge language modelsen
dc.subjectLLaMAen
dc.subjectaspektově orientovaná analýza sentimentucz
dc.subjectvelké jazykové modelycz
dc.subjectLLaMAcz
dc.titleLLaMA-Based Models for Aspect-Based Sentiment Analysisen
dc.titleModely založené na LLaMA pro aspektově orientovanou analýzu sentimentucz
dc.typeStať ve sborníku (D)
dc.typeSTAŤ VE SBORNÍKU
dc.type.statusPublished Version
local.files.count1*
local.files.size166836*
local.has.filesyes*
local.identifier.eid2-s2.0-85204906276

Files

Original bundle
Showing 1 - 1 out of 1 results
No Thumbnail Available
Name:
Šmíd 2024.wassa-1.6.pdf
Size:
162.93 KB
Format:
Adobe Portable Document Format
License bundle
Showing 1 - 1 out of 1 results
No Thumbnail Available
Name:
license.txt
Size:
1.71 KB
Format:
Item-specific license agreed upon to submission
Description: