Vaš brskalnik ne omogoča JavaScript!
JavaScript je nujen za pravilno delovanje teh spletnih strani. Omogočite JavaScript ali pa uporabite sodobnejši brskalnik.
Nacionalni portal odprte znanosti
Odprta znanost
DiKUL
slv
|
eng
Iskanje
Brskanje
Novo v RUL
Kaj je RUL
V številkah
Pomoč
Prijava
SUPERFORMER : continual learning superposition method for text classification
ID
Zeman, Marko
(
Avtor
),
ID
Faganeli Pucer, Jana
(
Avtor
),
ID
Kononenko, Igor
(
Avtor
),
ID
Bosnić, Zoran
(
Avtor
)
PDF - Predstavitvena datoteka,
prenos
(2,63 MB)
MD5: DFB7BF84CED0CBD6F965252450E4D560
URL - Izvorni URL, za dostop obiščite
https://www.sciencedirect.com/science/article/pii/S0893608023000527
Galerija slik
Izvleček
One of the biggest challenges in continual learning domains is the tendency of machine learning models to forget previously learned information over time. While overcoming this issue, the existing approaches often exploit large amounts of additional memory and apply model forgetting mitigation mechanisms which substantially prolong the training process. Therefore, we propose a novel SUPERFORMER method that alleviates model forgetting, while spending negligible additional memory and time. We tackle the continual learning challenges in a learning scenario, where we learn different tasks in a sequential order. We compare our method against several prominent continual learning methods, i.e., EWC, SI, MAS, GEM, PSP, etc. on a set of text classification tasks. We achieve the best average performance in terms of AUROC and AUPRC (0.7% and 0.9% gain on average, respectively) and the lowest training time among all the methods of comparison. On average, our method reduces the total training time by a factor of 5.4-8.5 in comparison to similarly performing methods. In terms of the additional memory, our method is on par with the most memory-efficient approaches.
Jezik:
Angleški jezik
Ključne besede:
deep learning
,
continual learning
,
superposition
,
transformers
Vrsta gradiva:
Članek v reviji
Tipologija:
1.01 - Izvirni znanstveni članek
Organizacija:
FRI - Fakulteta za računalništvo in informatiko
Status publikacije:
Objavljeno
Različica publikacije:
Objavljena publikacija
Leto izida:
2023
Št. strani:
Str. 418-436
Številčenje:
Vol. 161
PID:
20.500.12556/RUL-144861
UDK:
004.8
ISSN pri članku:
0893-6080
DOI:
10.1016/j.neunet.2023.01.040
COBISS.SI-ID:
141099267
Datum objave v RUL:
17.03.2023
Število ogledov:
767
Število prenosov:
143
Metapodatki:
Citiraj gradivo
Navadno besedilo
BibTeX
EndNote XML
EndNote/Refer
RIS
ABNT
ACM Ref
AMA
APA
Chicago 17th Author-Date
Harvard
IEEE
ISO 690
MLA
Vancouver
:
Kopiraj citat
Objavi na:
Gradivo je del revije
Naslov:
Neural networks
Skrajšan naslov:
Neural netw.
Založnik:
Elsevier
ISSN:
0893-6080
COBISS.SI-ID:
26011904
Licence
Licenca:
CC BY 4.0, Creative Commons Priznanje avtorstva 4.0 Mednarodna
Povezava:
http://creativecommons.org/licenses/by/4.0/deed.sl
Opis:
To je standardna licenca Creative Commons, ki daje uporabnikom največ možnosti za nadaljnjo uporabo dela, pri čemer morajo navesti avtorja.
Sekundarni jezik
Jezik:
Slovenski jezik
Ključne besede:
globoko učenje
,
nenehno učenje
,
superpozicija
,
transformerji
Projekti
Financer:
ARRS - Agencija za raziskovalno dejavnost Republike Slovenije
Številka projekta:
P2-0209
Naslov:
Umetna inteligenca in inteligentni sistemi
Financer:
ARRS - Agencija za raziskovalno dejavnost Republike Slovenije
Program financ.:
Young researchers
Podobna dela
Podobna dela v RUL:
Podobna dela v drugih slovenskih zbirkah:
Nazaj