izpis_h1_title_alt

Medjezikovni prenos napovednih modelov za sovražni govor
ID Pečovnik, Žan (Avtor), ID Robnik Šikonja, Marko (Mentor) Več o mentorju... Povezava se odpre v novem oknu, ID Ljubešić, Nikola (Komentor)

.pdfPDF - Predstavitvena datoteka, prenos (513,42 KB)
MD5: 1A9BCD0F60E9750FD39FE9B7EC6FA8B9

Izvleček
Z razvojem družbenih omrežij je narasla pogostost sovražnega govora v upo- rabniških vsebinah. Osredotočili se bomo na dve trenutno najbolj aktualni temi, LGBT in migrante. Za napovedovanje sovražnega govora bomo upo- rabili nevronsko mrežo BERT in naredili primerjavo med večjezikovnim mo- delom, ki je naučen na 104 različnih jezikih ter trojezikovnim modelom, ki je naučen na slovenščini, hrvaščini in angleščini. Ugotovili smo, da trojezikovni model za približno 5% natančneje napoveduje sovražni govor na jeziku, na katerem je bil model tudi naučen. Večjezikovni model, brez ali z dodatnim učenjem, natančneje kot trojezikovni model napoveduje sovražni govor na jezikih, na katerem prvotno model ni bil naučen. To kaže na boljši medjezi- kovni prenos večjezikovnega napovednega modela.

Jezik:Slovenski jezik
Ključne besede:sovražni govor, model BERT, nevronske mreže, medjezikovni prenos, strojno učenje, obdelava naravnega jezika.
Vrsta gradiva:Diplomsko delo/naloga
Tipologija:2.11 - Diplomsko delo
Organizacija:FRI - Fakulteta za računalništvo in informatiko
Leto izida:2020
PID:20.500.12556/RUL-116665 Povezava se odpre v novem oknu
COBISS.SI-ID:18357251 Povezava se odpre v novem oknu
Datum objave v RUL:01.06.2020
Število ogledov:1725
Število prenosov:337
Metapodatki:XML DC-XML DC-RDF
:
Kopiraj citat
Objavi na:Bookmark and Share

Sekundarni jezik

Jezik:Angleški jezik
Naslov:Cross-lingual transfer of hate speech prediction models
Izvleček:
With the development of social networks, there has been a signicant in- crease of hate speech in user generated contents. We focus on two most discussed topics, LGBT and migrants. We use the BERT neural network for prediction of hate speech and make a comparison between the multilingual model, trained on 104 dierent languages, and a trilingual model, trained on Slovene, Croatian and English. Results show that the trilingual model is ap- proximately 5% more accurate predicting hate speech on a language that it was trained on. The multilingual model with or without additional training is more accurate on languages that it was not trained on. This indicates a better cross-lingual transfer of multilingual model.

Ključne besede:hate speech, BERT model, neural networks, cross-lingual trans- fer, machine learning, natural language processing.

Podobna dela

Podobna dela v RUL:
Podobna dela v drugih slovenskih zbirkah:

Nazaj