izpis_h1_title_alt

Izboljšava obravnave negacije v velikih jezikovnih modelih
ID Kranjec, Matej (Avtor), ID Robnik Šikonja, Marko (Mentor) Več o mentorju... Povezava se odpre v novem oknu

.pdfPDF - Predstavitvena datoteka, prenos (746,11 KB)
MD5: F60E1D57CFEDCBE322037E24A60AEB0B

Izvleček
V diplomski nalogi smo preizkusili metodo za izboljšavo klasifikacije globokih nevronskih mrež s predznanjem o negaciji. Najuspešnejši jezikovni modeli, kot na primer BERT ali ELMo, so uspešni pri klasifikaciji besedil, a odpovejo pri negaciji. Prednaučene jezikovne modele smo prilagodili, da tudi v slovenščini bolje delujejo z negacijo. To smo dosegli z spreminjanjem funkcije izgube nevronske mreže ter prilagajanjem obstoječih modelov. Metodo smo preizkusili na prilagojenem korpusu z dodanimi negacijami osnovnih stavkov. Metoda je uspešno zmanjšala delež napačnih napovedi v negiranih stavkih pri maskiranem jezikovnem modelu, točnost na nalogah iz slovenske zbirke SuperGLUE pa je ponekod izboljšala, drugje pa poslabšala.

Jezik:Slovenski jezik
Ključne besede:globoke nevronske mreže, klasifikacija, obravnava negacije, veliki vnaprej naučeni jezikovni modeli
Vrsta gradiva:Diplomsko delo/naloga
Tipologija:2.11 - Diplomsko delo
Organizacija:FRI - Fakulteta za računalništvo in informatiko
Leto izida:2022
PID:20.500.12556/RUL-139701 Povezava se odpre v novem oknu
COBISS.SI-ID:121785859 Povezava se odpre v novem oknu
Datum objave v RUL:06.09.2022
Število ogledov:1354
Število prenosov:1284
Metapodatki:XML DC-XML DC-RDF
:
Kopiraj citat
Objavi na:Bookmark and Share

Sekundarni jezik

Jezik:Angleški jezik
Naslov:Improving negation handling in large language models
Izvleček:
In the thesis we have tested a method for improved classification of deep neural networks with prior knowledge of negation. State of the art language models, such as ELMo and BERT, are successful at text classification, but fail when there is negation involved. We adjusted pre-trained language models to work better with negation in Slovene. We modified the loss function of the neural networks and retrained the models. We have tested the method on a modified corpus with added negations of original sentences. The method successfully reduced the error in the negated sentences for masked language models, and it increased the accuracy for some tasks from the Slovene version of the SuperGLUE benchmark but decreased for others.

Ključne besede:deep neural networks, classification, negation modeling, large pretrained language models

Podobna dela

Podobna dela v RUL:
Podobna dela v drugih slovenskih zbirkah:

Nazaj