Podrobno

Uspešnost učenja več zaporednih nalog v globokih nevronskih mrežah
ID Pevcin, Andraž (Avtor), ID Faganeli Pucer, Jana (Mentor) Več o mentorju... Povezava se odpre v novem oknu

.pdfPDF - Predstavitvena datoteka, prenos (1,77 MB)
MD5: 8953A951FC82C53A0D7330CBCA0A6765

Izvleček
Inkrementalno učenje je ključno za učinkovito učenje prilagodljivih nevronskih mrež, ki se soočajo s konstantnim tokom novih podatkov. Pri njem se pojavlja velik problem---katastrofalno pozabljanje. V delu obravnavamo problem katastrofalnega pozabljanja pri inkrementalnem učenju in sistematično raziskujemo, kako na pozabljanje vplivata širina in globina nevronskih mrež. Eksperimentalni del je sestavljen iz učenja večslojnih perceptronov (MLP) in konvolucijskih nevronskih mrež (CNN) na prosto dostopnih podatkovnih množicah CIFAR-100 in pMNIST. Spremljamo spremembe klasifikacijske točnosti čez naloge in povprečno stopnjo pozabljanja po koncu učnega procesa. Rezultate pojasnimo z analizo ortogonalnosti gradientov posameznih nalog in njihove gostote. Poleg tega prikažemo spreminjanje odmika parametrov modela od optimuma prve naloge. V delu uspešno prikažemo, da v večini primerov inkrementalnega učenja širina opazno zmanjša pozabljanje, čeprav v nekaterih scenarijih manj kot v drugih. Pokažemo tudi, da globina, odvisno od scenarija, ne vpliva ali pa celo poslabša pozabljanje.

Jezik:Slovenski jezik
Ključne besede:inkrementalno učenje, globoke nevronske mreže, klasifikacija slik, katastrofalno pozabljanje
Vrsta gradiva:Diplomsko delo/naloga
Tipologija:2.11 - Diplomsko delo
Organizacija:FRI - Fakulteta za računalništvo in informatiko
Leto izida:2025
PID:20.500.12556/RUL-173260 Povezava se odpre v novem oknu
COBISS.SI-ID:250521859 Povezava se odpre v novem oknu
Datum objave v RUL:15.09.2025
Število ogledov:129
Število prenosov:22
Metapodatki:XML DC-XML DC-RDF
:
Kopiraj citat
Objavi na:Bookmark and Share

Sekundarni jezik

Jezik:Angleški jezik
Naslov:Effectiveness of learning multiple sequential tasks in deep neural networks
Izvleček:
Incremental learning is key to effectively training adaptive neural networks that face a constant stream of new data. It suffers from a major issue---catastrophic forgetting. In this work, we address catastrophic forgetting in incremental learning and systematically investigate how the width and depth of neural networks affect forgetting. The experimental part consists of training multilayer perceptrons (MLP) and convolutional neural networks (CNN) on the publicly available datasets CIFAR-100 and pMNIST. We track changes in classification accuracy across tasks and the average forgetting rate after the training process concludes. We explain the results by analyzing the orthogonality of task gradients and their density. In addition, we show how far the model parameters drift from the optimum of the first task. We demonstrate that, in most incremental learning scenarios, width noticeably reduces forgetting, although in some cases less than in others. We also show that, depending on the scenario, depth may have no effect or can even worsen forgetting.

Ključne besede:incremental learning, deep neural networks, image classification, catastrophic forgetting

Podobna dela

Podobna dela v RUL:
Podobna dela v drugih slovenskih zbirkah:

Nazaj