Evaluation Datasets for Cross-lingual Semantic Textual Similarity

dc.contributor.authorHercig, Tomáš
dc.contributor.authorKrál, Pavel
dc.date.accessioned2022-03-21T11:00:18Z
dc.date.available2022-03-21T11:00:18Z
dc.date.issued2021
dc.description.abstractSystémy sémantické textové podobnosti (STS) odhadují míru významové podobnosti mezi dvěma větami. Mezijazyčné systémy STS odhadují míru významové podobnosti mezi dvěma větami, z nichž každá je v jiném jazyce. Nejmodernější algoritmy obvykle využívají přístupy s učitelem, které je obtížné použít pro jazyky s nedostatečnými zdroji. Každý přístup však musí mít k vyhodnocení výsledků anotovaná data. V tomto článku představujeme nové anotované datasety pro vícejazyčné a jednojazyčné STS pro jazyky, kde takové sady zatím nejsou k dispozici. Na těchto datech dále prezentujeme výsledky několika nejmodernějších metod, které lze použít jako základ pro další výzkum. Věříme, že tento článek nejen rozšíří současný výzkum STS pro další jazyky, ale také podpoří soutěž na těchto nových hodnotících datech.cs
dc.description.abstract-translatedSemantic textual similarity (STS) systems estimate the degree of the meaning similarity between two sentences. Cross-lingual STS systems estimate the degree of the meaning similarity between two sentences, each in a different language. State-of-the-art algorithms usually employ a strongly supervised, resource-rich approach difficult to use for poorly-resourced languages. However, any approach needs to have evaluation data to confirm the results. In order to simplify the evaluation process for poorly-resourced languages (in terms of STS evaluation datasets), we present new datasets for cross-lingual and monolingual STS for languages without this evaluation data. We also present the results of several state-of-the-art methods on these data which can be used as a baseline for further research. We believe that this article will not only extend the current STS research to other languages, but will also encourage competition on this new evaluation data.en
dc.format6 s.cs
dc.format.mimetypeapplication/pdf
dc.identifier.citationHERCIG, T. KRÁL, P. Evaluation Datasets for Cross-lingual Semantic Textual Similarity. In Deep Learning for Natural Language Processing Methods and Applications. Shoumen: INCOMA, Ltd., 2021. s. 524-529. ISBN: 978-954-452-072-4 , ISSN: 1313-8502cs
dc.identifier.doi10.26615/978-954-452-072-4_059
dc.identifier.isbn978-954-452-072-4
dc.identifier.issn1313-8502
dc.identifier.obd43934750
dc.identifier.uri2-s2.0-85123631732
dc.identifier.urihttp://hdl.handle.net/11025/47197
dc.language.isoenen
dc.project.IDEF17_048/0007267/InteCom: VaV inteligentních komponent pokročilých technologií pro plzeňskou metropolitní oblastcs
dc.publisherINCOMA, Ltd.en
dc.relation.ispartofseriesDeep Learning for Natural Language Processing Methods and Applicationsen
dc.rights© Incoma Ltd.en
dc.rights.accessopenAccessen
dc.subjectDatová sadacs
dc.subjectEvaluacecs
dc.subjectmezijazykovács
dc.subjectsémantická textovou podobnostcs
dc.subjectSTScs
dc.subject.translatedcross-lingualen
dc.subject.translateddataseten
dc.subject.translatedevaluationen
dc.subject.translatedSemantic Textual Similarityen
dc.subject.translatedSTSen
dc.titleEvaluation Datasets for Cross-lingual Semantic Textual Similarityen
dc.title.alternativeHodnotící datové sady pro mezijazykovou sémantickou textovou podobnostcs
dc.typekonferenční příspěvekcs
dc.typeConferenceObjecten
dc.type.statusPeer-revieweden
dc.type.versionpublishedVersionen

Files

Original bundle
Showing 1 - 1 out of 1 results
No Thumbnail Available
Name:
2021.ranlp-main.59.pdf
Size:
173.99 KB
Format:
Adobe Portable Document Format