LT@Helsinki at SemEval-2020 Task 12 : Multilingual or language-specific BERT?

Marc Pàmies*, Emily Öhman, Kaisla Kajava, Jörg Tiedemann

*Tämän työn vastaava kirjoittaja

Tutkimustuotos: Artikkeli kirjassa/konferenssijulkaisussaConference article in proceedingsScientificvertaisarvioitu

Abstrakti

This paper presents the different models submitted by the LT@Helsinki team for the SemEval2020 Shared Task 12. Our team participated in sub-tasks A and C; titled offensive language identification and offense target identification, respectively. In both cases we used the so called Bidirectional Encoder Representation from Transformer (BERT), a model pre-trained by Google and fine-tuned by us on the OLID dataset. The results show that offensive tweet classification is one of several language-based tasks where BERT can achieve state-of-the-art results.
AlkuperäiskieliEnglanti
OtsikkoProceedings of the 14th International Workshop on Semantic Evaluation
KustantajaInternational Committee on Computational Linguistics (ICCL
Sivumäärä7
ISBN (painettu)978-1-952148-31-6
TilaJulkaistu - 2020
OKM-julkaisutyyppiA4 Artikkeli konferenssijulkaisussa
TapahtumaInternational Workshop on Semantic Evaluation - Barcelona, Espanja
Kesto: 12 jouluk. 202013 jouluk. 2020
http://alt.qcri.org/semeval2020/

Workshop

WorkshopInternational Workshop on Semantic Evaluation
LyhennettäSemEval
Maa/AlueEspanja
KaupunkiBarcelona
Ajanjakso12/12/202013/12/2020
MuuCollocated with The 28th International Conference on Computational Lingustics (COLING-2020)
www-osoite

Sormenjälki

Sukella tutkimusaiheisiin 'LT@Helsinki at SemEval-2020 Task 12 : Multilingual or language-specific BERT?'. Ne muodostavat yhdessä ainutlaatuisen sormenjäljen.

Siteeraa tätä