Mezijazyčná analýza sentimentu
| dc.contributor.advisor | Steinberger Josef, doc. Ing. Ph.D. | cs |
| dc.contributor.author | Přibáň, Pavel | cs |
| dc.date.accepted | 2024-09-17 | |
| dc.date.accessioned | 2025-03-14T06:35:56Z | |
| dc.date.available | 2023-09-08 | |
| dc.date.available | 2025-03-14T06:35:56Z | |
| dc.date.issued | 2024-04-02 | |
| dc.date.submitted | 2024-04-02 | |
| dc.description.abstract | Zpracování přirozeného jazyka se stalo důležitou součástí umělé inteligence, kterou denně využívají miliony lidí i firmy v průmyslu. Analýza sentimentu jako přirozená součást zpracování přirozeného jazyka není výjimkou. Tato práce představuje podrobnou studii, která se věnuje mezijazčné analýze sentimentu. Hlavním cílem je prozkoumat, vyhodnotit a navrhnout mezijazyčné metody pro analýzu sentimentu, které dovolují řešit tuto úlohu v jiných jazycích než v angličtině, se zvláštním zaměřením na češtinu. Jádro práce spočívá v mezijazyčných experimentech s úlohou detekce polarity v tzv. zero-shot nastavení, ve kterém jsou k dispozici anotovaná data pouze pro jeden jazyk (zdrojový). Konkrétně v práci využíváme moderní vícejazyčné modely založené na architektuře Transformer a dále modely využívající lineární transformace v kombinaci s neuronovými sítěmi CNN a LSTM. Tyto modely vyhodnocujeme na datových sadách v češtině, francouzštině a angličtině. Naším cílem je porovnat schopnost modelů přenášet znalosti napříč jazyky a zhodnotit kompromis mezi jejich úspěšností a rychlostí trénování a predikce. Pro porovnání jsou vytvořeny základní modely, které dosahují současných state-of-the-art výsledků pro češtinu a francouzštinu. Dále jsou naše výsledky porovnány s výstupy nejnovějších velkých jazykových modelů, tj. modely Llama 2 a ChatGPT. Ukazujeme, že velký vícejazyčný model XLM-R založený na architektuře Transformer konzistentně překonává všechny ostatní mezijazyčné přístupy při tzv. zero-shot detekci polarity. Dále je ukázáno, že menší modely založené na architektuře Transformer jsou výkonnostně srovnatelné se staršími, ale mnohem rychlejšími metodami používající lineární transformace. Této úspěšnosti je dosaženo jen s přibližně 0,01 času potřebného pro natrénování velkého modelu XLM-R. Tyto výsledky podtrhují potenciál metod založených na lineárních transformacích jako pragmatické alternativy. A to zejména v reálných aplikacích používajících modely založených na architektuře Transformer, které jsou pomalejší a náročné na výpočetní zdroje. Velké jazykové modely (Llama 2 a ChatGPT) dosáhly působivých výsledků, které jsou srovnatelné nebo lepší minimálně o 1% - 3%, ale přinášejí další omezení a požadavky. Celkově přispíváme k pochopení mezijazyčné analýzy sentimentu a poskytujeme cenné zkušenosti o silných stránkách a omezeních mezijazyčných přístupů. Dále je představena nová česká datová sada pro detekci subjektivity a navrhnuta nová metoda pro zlepšení výsledků aspektově orientované analýzy sentimentu s vyžitím informací z úlohy značkování sémantických rolí. Nakonec jsme použili moderní techniku nazvanou prompting pro úlohy aspektově orientované analýzy sentimentu a klasifikaci sentimentu. | cs |
| dc.description.abstract-translated | Natural language processing has become an essential part of the artificial intelligence field that is used daily in industry and by millions of people. Sentiment analysis as a fundamental part of natural language processing is no exception. This thesis presents a detailed study of cross-lingual sentiment analysis. The main goal is to explore, evaluate and propose methods to perform sentiment analysis in languages other than English, with a special focus on Czech. This is achieved by proposing cross-lingual methods and techniques for knowledge transfer between languages. The core of the thesis consists of performing the zero-shot polarity detection task in a cross-lingual setting. Namely, we use modern multilingual Transformer-based models and linear transformations combined with CNN and LSTM neural networks. We evaluate their performance for Czech, French, and English. We aim to compare and assess the models' ability to transfer knowledge across languages and discuss the trade-off between their performance and training and inference speed. We build strong monolingual baselines comparable with the current SotA approaches, achieving new state-of-the-art results for Czech and French. Furthermore, we compare our results with the outputs of the latest large language models (LLMs), i.e., Llama 2 and ChatGPT. We show that the large multilingual Transformer-based XLM-R model consistently outperforms all other cross-lingual approaches in zero-shot cross-lingual sentiment classification. We also show that the smaller Transformer-based models are comparable in performance to older but much faster methods with linear transformations. Notably, this performance is achieved with just approximately 0.01 of the training time required for the XLM-R model. It underscores the potential of linear transformations as a pragmatic alternative to resource-intensive and slower Transformer-based models in real-world applications. The LLMs achieved impressive results that are on par or better, at least by 1% - 3%, but with additional hardware requirements and limitations. Overall, we contribute to understanding cross-lingual sentiment analysis and provide valuable insights into the strengths and limitations of cross-lingual approaches for sentiment analysis. Additionally, a new dataset for Czech subjectivity classification is introduced to partly fulfil this thesis's objectives. Next, we present a novel multi-task approach to improve the results of Czech aspect-based sentiment analysis by leveraging information from the semantic role labeling task. Lastly, we applied prompt-based learning to aspect-based sentiment analysis and sentiment classification in the context of LLMs and the Czech language. | en |
| dc.description.department | Katedra informatiky a výpočetní techniky | cs |
| dc.description.result | Obhájeno | cs |
| dc.format | 240 | |
| dc.identifier | 97921 | |
| dc.identifier.uri | http://hdl.handle.net/11025/58674 | |
| dc.language.iso | en | |
| dc.publisher | Západočeská univerzita v Plzni | cs |
| dc.rights | Plný text práce je přístupný bez omezení | cs |
| dc.rights.access | openAccess | cs |
| dc.subject | Zpracování přiozeného jazyka | cs |
| dc.subject | analýza sentimentu | cs |
| dc.subject | strojové učení | cs |
| dc.subject | mezijazyčná analýza sentimentu | cs |
| dc.subject | neuronové sítě | cs |
| dc.subject | vícejazyčná analýza sentimentu | cs |
| dc.subject | Transformer | cs |
| dc.subject.translated | Natural Language Processing | en |
| dc.subject.translated | Sentiment Analysis | en |
| dc.subject.translated | Machine Learning | en |
| dc.subject.translated | Cross-lingual Sentiment Analysis | en |
| dc.subject.translated | Neural Networks | en |
| dc.subject.translated | Multi-lingual Sentiment Analysis | en |
| dc.subject.translated | Transformer | en |
| dc.thesis.degree-grantor | Západočeská univerzita v Plzni. Fakulta aplikovaných věd | cs |
| dc.thesis.degree-level | Doktorský | cs |
| dc.thesis.degree-name | Ph.D. | cs |
| dc.thesis.degree-program | Inženýrská informatika | cs |
| dc.title | Mezijazyčná analýza sentimentu | cs |
| dc.title.alternative | Cross-lingual Sentiment Analysis | en |
| dc.type | disertační práce | cs |
| local.files.count | 3 | * |
| local.files.size | 5342273 | * |
| local.has.files | yes | * |
| local.relation.IS | https://portal.zcu.cz/StagPortletsJSR168/CleanUrl?urlid=prohlizeni-prace-detail&praceIdno=97921 |
Files
Original bundle
1 - 3 out of 3 results
No Thumbnail Available
- Name:
- Priban-thesis-submit-v3.pdf
- Size:
- 3.22 MB
- Format:
- Adobe Portable Document Format
- Description:
- VŠKP
No Thumbnail Available
- Name:
- posudky-odp-priban.pdf
- Size:
- 1.38 MB
- Format:
- Adobe Portable Document Format
- Description:
- Posudek oponenta VŠKP
No Thumbnail Available
- Name:
- protokol-odp-stag-priban.pdf
- Size:
- 501.08 KB
- Format:
- Adobe Portable Document Format
- Description:
- Průběh obhajoby VŠKP