LLaMA-Based Models for Aspect-Based Sentiment Analysis
Date issued
2024
Authors
Journal Title
Journal ISSN
Volume Title
Publisher
Association for Computational Linguistics
Abstract
While large language models (LLMs) show promise for various tasks, their performance in compound aspect-based sentiment analysis (ABSA) tasks lags behind fine-tuned models. However, the potential of LLMs fine-tuned for ABSA remains unexplored. This paper examines the capabilities of open-source LLMs fine-tuned for ABSA, focusing on LLaMA-based models. We evaluate the performance across four tasks and eight English datasets, finding that the fine-tuned Orca 2 model surpasses state-of-the-art results in all tasks. However, all models struggle in zero-shot and few-shot scenarios compared to fully fine-tuned ones. Additionally, we conduct error analysis to identify challenges faced by fine-tuned models.
Zatímco velké jazykové modely (LLMs) jsou slibné pro různé úlohy, jejich výkonnost v úlohách aspektově orientované analýzy sentimentu (ABSA) zaostává za modely trénovanými pro tuto úlohu. Potenciál trénovaných LLMs pro ABSA však zůstává neprozkoumaný. Tento článek zkoumá možnosti otevřených LLMs natrénovaných pro ABSA se zaměřením na modely založenými na LLaMA. Vyhodnocujeme výkonnost ve čtyřech úlohách a osmi anglických datových sadách a zjišťujeme, že natrénovaný model Orca 2ve všech úlohách překonává nejmodernější výsledky. Všechny modely však mají problémy ve scénářích s nulovým počtem vzorků a s několika málo vzorky ve srovnání s plně natrénovanými modely. Kromě toho provádíme analýzu chyb, abychom zjistili problémy, kterým natrénované modely čelí.
Zatímco velké jazykové modely (LLMs) jsou slibné pro různé úlohy, jejich výkonnost v úlohách aspektově orientované analýzy sentimentu (ABSA) zaostává za modely trénovanými pro tuto úlohu. Potenciál trénovaných LLMs pro ABSA však zůstává neprozkoumaný. Tento článek zkoumá možnosti otevřených LLMs natrénovaných pro ABSA se zaměřením na modely založenými na LLaMA. Vyhodnocujeme výkonnost ve čtyřech úlohách a osmi anglických datových sadách a zjišťujeme, že natrénovaný model Orca 2ve všech úlohách překonává nejmodernější výsledky. Všechny modely však mají problémy ve scénářích s nulovým počtem vzorků a s několika málo vzorky ve srovnání s plně natrénovanými modely. Kromě toho provádíme analýzu chyb, abychom zjistili problémy, kterým natrénované modely čelí.
Description
Subject(s)
aspect-based sentiment analysis, large language models, LLaMA, aspektově orientovaná analýza sentimentu, velké jazykové modely, LLaMA