Weak supervision for Question Type Detection with large language models

dc.contributor.authorMartínek, Jiří
dc.contributor.authorCerisara, Christophe
dc.contributor.authorKrál, Pavel
dc.contributor.authorLenc, Ladislav
dc.contributor.authorBaloun, Josef
dc.date.accessioned2024-01-15T11:00:14Z
dc.date.available2024-01-15T11:00:14Z
dc.date.issued2022
dc.description.abstractVelké předtrénované jazykové modely prokázaly pozoruhodné výkony v tzv. Zero-Shot Learning v mnoha úlohách zpracování přirozeného jazyka. Nicméně navrhování účinných vstupů (tzv. prompts) je stále velmi obtížné pro některé úkoly, zejména pro rozpoznávání dialogových aktů. Proto navrhujeme alternativní způsob, jak využít předtrénovaný model pro takové úkoly s využitím jednoduchých pravidel, která jsou intuitivnější a snáze se navrhují. Tento přístup demonstrujeme na úloze automatické detekce otázek a ukazujeme, že náš model dobře funguje v porovnání s modelem LSTM, který je natrénován na trénovací části datasetu MRDA. Dále analyzujeme limity navrhovaného přístupu, které nelze jednoduše aplikovat na zcella libovolnou úlohu, ale může být prospěšný jako doplněk pro přidání specifických tříd.cs
dc.description.abstract-translatedLarge pre-trained language models (LLM) have shown remarkable Zero-Shot Learning performances in many Natural Language Processing tasks. However, designing effective prompts is still very difficult for some tasks, in particular for dialogue act recognition. We propose an alternative way to leverage pretrained LLM for such tasks that replace manual prompts with simple rules, which are more intuitive and easier to design for some tasks. We demonstrate this approach on the question type recognition task, and show that our zero-shot model obtains competitive performances both with a supervised LSTM trained on the full training corpus, and another supervised model from previously published works on the MRDA corpus. We further analyze the limits of the proposed approach, which can not be applied on any task, but may advantageously complement prompt programming for specific classes.en
dc.format
dc.format5 s.cs
dc.format.mimetypeapplication/pdf
dc.identifier.citationMARTÍNEK, J.; CERISARA, C.; KRÁL, P.; LENC, L.; BALOUN, J. Weak supervision for Question Type Detection with large language models. In: 23rd Annual Conference of the International Speech Communication, Interspeech 2022. Baixas: International Speech Communication Association (ISCA), 2022, s. 3283-3287. ISBN neuvedeno, ISSN 2308-457X.cs
dc.identifier.document-number900724503090
dc.identifier.doi10.21437/Interspeech.2022-345
dc.identifier.issn2308-457X
dc.identifier.obd43938256
dc.identifier.uri2-s2.0-85140091729
dc.identifier.urihttp://hdl.handle.net/11025/55071
dc.language.iso
dc.language.isoenen
dc.project.IDSGS-2022-016/Pokročilé metody zpracování a analýzy datcs
dc.publisherInternational Speech Communication Association (ISCA)en
dc.relation.ispartofseries23rd Annual Conference of the International Speech Communication, Interspeech 2022en
dc.rightsPlný text je přístupný v rámci univerzity přihlášeným uživatelůmcs
dc.rights© ISCAen
dc.rights.accessrestrictedAccessen
dc.subjectdetekce typů otázekcs
dc.subjectzero-shotcs
dc.subjectdialogue actscs
dc.subjectBARTcs
dc.subject.translatedquestion types classificationen
dc.subject.translatedzero-shoten
dc.subject.translateddialogue actsen
dc.subject.translatedBARTen
dc.titleWeak supervision for Question Type Detection with large language modelsen
dc.title.alternativeDetekce typů otázek s velkými jazykovými modely pomocí weak supervisioncs
dc.typekonferenční příspěvekcs
dc.typeConferenceObjecten
dc.type.status
dc.type.statusPeer-revieweden
dc.type.versionpublishedVersionen

Files