<?xml version="1.0" encoding="utf-8"?>
<Gradivo ID="167492" NadgradivoID="0" NRID="25962130" OceID="0" DomainUrl="https://repozitorij.uni-lj.si/" IzpisPolniUrl="https://repozitorij.uni-lj.si/IzpisGradiva.php?lang=slv&amp;id=167492" StOgledov="686" StPrenosov="197" StOcen="0" VsotaOcen="0" DatumIzvoza="2026-05-03 14:42:34" OcenaSkupna="0" StPodgradiv="0" StudijskiProgramEvsID="1001052" JeIndeksirano="0" JeVecAvtorjev="0" DovoliZahtevkeZaDostop="0">
  <PID Url="http://hdl.handle.net/20.500.12556/RUL-167492">20.500.12556/RUL-167492</PID>
  <Naslov>Continual learning with superposition in transformers</Naslov>
  <Podnaslov></Podnaslov>
  <TujJezik_Naslov>Nadaljevalno učenje s superpozicijo v transformerjih</TujJezik_Naslov>
  <TujJezik_Podnaslov></TujJezik_Podnaslov>
  <Opis>The rapid evolution of machine learning and its widespread use across various domains
underscores the imperative for models that learn continuously. Traditional
machine learning models, once trained, remain static, incapable of assimilating a new
task without the risk of catastrophic forgetting, where the acquisition of new knowledge
erases previously learned information. This phenomenon severely limits their
applicability in environments where data and requirements persistently develop.
Addressing this challenge, our dissertation deals with the evolving domain of machine
learning, with a special focus on transformers within the continual learning setting,
marking a path toward achieving computational systems that emulate human adaptability
and learning capabilities. The essence of this research revolves around exploring
and implementing superposition techniques specifically tailored for memory-restrained
devices, such as mobile phones and drones.
The main contribution of our study is the creation of the SuperFormer method,
a novel approach that leverages superposition exclusively during task changes. This
method significantly reduces training time and addresses catastrophic forgetting efficiently,
ensuring optimal use of resources. On a set of NLP classification tasks, Super-
Former achieves the highest AUROC and AUPRC among all comparative methods
while being the fastest to train and needing less additional memory per task than most
of the methods.
Our research goes further than just introducing SuperFormer. It explores how superposition
can be effectively utilized in different fields and with various neural architectures.
We’ve shown that our method is outperforming others also in MLP and CNN
architectures in the computer vision domain.
We also introduced Sparse SuperFormer, which applies sparse learning to boost performance
with fewer weight adjustments, pointing to enhanced model efficiency. Training only half of the weights for each task improved the average accuracy up to 2.2%.
Additionally, we developed the SuperAdapter strategy to increase memory efficiency
in continual learning. By combining SuperFormer with adapters, it’s possible to learn
multiple tasks within one adapter, minimizing storage impact with minimal loss in performance.
Looking at the average AUPRC, the adapter’s storage requirements can be
halved by losing only 2.0 to 5.6%, depending on the adapter size.
In conclusion, this dissertation represents a significant advancement in our understanding
and application of continual learning and superposition. As we look towards
the future, these advancements have the potential to significantly impact various fields
by enabling AI systems to learn and evolve in dynamic environments.</Opis>
  <TujJezik_Opis>Hitra evolucija strojnega učenja in njegova široka uporaba v različnih domenah poudarjata
potrebo po modelih, ki se neprestano učijo. Tradicionalni modeli strojnega učenja
ostanejo statični, ko so enkrat naučeni ter so nezmožni vključevanja novih nalog brez tveganja za katastrofalno pozabljanje, kjer pridobivanje novega znanja izbriše prej naučene
informacije. Ta pojav močno omejuje njihovo uporabnost v okoljih, kjer se podatki in
zahteve neprestano razvijajo.
Naša disertacija se ukvarja z razvijajočo domeno strojnega učenja, s posebnim poudarkom
na transformerjih v okviru nadaljevalnega učenja. To je pot do doseganja računalniških
sistemov, ki posnemajo človeško prilagodljivost in učne sposobnosti. Bistvo te
disertacije je raziskovanje in implementacija tehnik superpozicije, ki so še posebej prilagojene za naprave z omejenim pomnilnikom, kot so mobilni telefoni in droni.
Glavni prispevek naših raziskav je metoda SuperFormer, ki z inovativnim pristopom
izkorišča superpozicijo izključno med spremembami nalog. Ta metoda znatno
skrajša čas učenja in učinkovito naslavlja problem katastrofalnega pozabljanja ter zagotavlja
bolj optimalno porabo virov. Na nizu klasifikacijskih nalog s področja naravnega
jezika dosega SuperFormer najvišji vrednosti AUROC in AUPRC med vsemi primerjalnimi
metodami, hkrati pa je najhitrejši pri učenju in potrebuje manj dodatnega
pomnilnika na nalogo kot večina metod.
Naše raziskovanje poleg metode SuperFormer predstavi, kako se superpozicija lahko
učinkovito uporablja na različnih področjih in z različnimi arhitekturami nevronskih
mrež. Pokazali smo, da naša metoda prekaša ostale tudi v arhitekturah polno povezanih
in konvolucijskih nevronskih mrež v domeni računalniškega vida.
Predstavili smo tudi Sparse SuperFormer, ki uporablja le delno učenje uteži za
izboljšanje uspešnosti z manj posodobitvami uteži, kar kaže na povečano pomnilniško
učinkovitost modela. Učenje le polovice uteži za vsako nalogo je izboljšalo povprečno točnost do 2.2%.
Poleg tega smo razvili strategijo SuperAdapter za dodatno povečanje pomnilniške
učinkovitosti pri nadaljevalnem učenju. Z združevanjem metode SuperFormer z
adapterji je možno učiti več nalog znotraj enega adapterja, kar minimizira porabo pomnilnika
z minimalno izgubo natančnosti. Zahteve po porabi pomnilnika se lahko
prepolovijo z izgubo pri metriki AUPRC le od 2.0 do 5.6%, odvisno od velikosti adapterja.
Naša disertacija predstavlja pomemben napredek v našem razumevanju in uporabi
nadaljevalnega učenja ter superpozicije. Če se ozremo v prihodnost, imajo ti napredki
potencial za znaten vpliv na različna področja sistemov umetne inteligence in omogačjo,
da se le ti učijo in razvijajo v dinamičnih okoljih.</TujJezik_Opis>
  <KljucneBesede>
    <Beseda>machine learning</Beseda>
    <Beseda>deep learning</Beseda>
    <Beseda>continual learning</Beseda>
    <Beseda>transformer</Beseda>
    <Beseda>superposition</Beseda>
  </KljucneBesede>
  <TujJezik_KljucneBesede>
    <Beseda>strojno učenje</Beseda>
    <Beseda>globoko učenje</Beseda>
    <Beseda>nadaljevalno učenje</Beseda>
    <Beseda>transformer</Beseda>
    <Beseda>superpozicija</Beseda>
  </TujJezik_KljucneBesede>
  <Potrjeno>true</Potrjeno>
  <JeZaklenjeno>false</JeZaklenjeno>
  <JeRecenzirano>false</JeRecenzirano>
  <Zaloznik></Zaloznik>
  <Izvor></Izvor>
  <Jezik ID="1033" ISO639-3="eng">Angleški jezik</Jezik>
  <TujJezik ID="1060" ISO639-3="slv">Slovenski jezik</TujJezik>
  <Povezave></Povezave>
  <Pokrivanje></Pokrivanje>
  <CasovnoPokritje></CasovnoPokritje>
  <AvtorskePravice></AvtorskePravice>
  <VrstaGradiva ID="mb31" DRIVER="info:eu-repo/semantics/doctoralThesis">Doktorsko delo/naloga</VrstaGradiva>
  <DatumVstavljanja>2025-02-24 14:52:56</DatumVstavljanja>
  <DatumObjave>2025-02-24 14:53:07</DatumObjave>
  <DatumSpremembe>2025-05-16 09:59:15</DatumSpremembe>
  <DatumTrajnegaHranjenja>0000-00-00 00:00:00</DatumTrajnegaHranjenja>
  <LetoIzida>2025</LetoIzida>
  <LetoIzidaDo>0</LetoIzidaDo>
  <KrajIzida></KrajIzida>
  <LetoIzvedbe>0</LetoIzvedbe>
  <KrajIzvedbe></KrajIzvedbe>
  <Opomba></Opomba>
  <StStrani></StStrani>
  <StevilcenjeNivo1></StevilcenjeNivo1>
  <StevilcenjeNivo2></StevilcenjeNivo2>
  <Kronologija></Kronologija>
  <Patent_Stevilka></Patent_Stevilka>
  <Patent_DatumVeljavnosti>0000-00-00</Patent_DatumVeljavnosti>
  <VerzijaDokumenta>NiDoloceno</VerzijaDokumenta>
  <StatusObjaveDrugje>NiDoloceno</StatusObjaveDrugje>
  <VrstaStroskaObjave>NiDoloceno</VrstaStroskaObjave>
  <DatumPoslanoVRecenzijo>0000-00-00</DatumPoslanoVRecenzijo>
  <DatumSprejetjaClanka>0000-00-00</DatumSprejetjaClanka>
  <DatumObjaveClanka>0000-00-00</DatumObjaveClanka>
  <EmbargoDo></EmbargoDo>
  <VrstaEmbarga ID="1" Naziv="Takojšnja javna objava" OpenAIREDostop="openAccess"></VrstaEmbarga>
  <Osebe>
    <Oseba ID="73361" Ime="Marko" Priimek="Zeman" AltIme="" VlogaID="70" VlogaNaziv="Avtor" ConorID="" Afiliacija="" ArrsID="0" ORCID=""></Oseba>
    <Oseba ID="16746" Ime="Zoran" Priimek="Bosnić" AltIme="Zoran Bosnic" VlogaID="991" VlogaNaziv="Mentor" ConorID="33363043" Afiliacija="" ArrsID="28779" ORCID=""></Oseba>
    <Oseba ID="98024" Ime="Jana" Priimek="Faganeli Pucer" AltIme="" VlogaID="994" VlogaNaziv="Komentor" ConorID="" Afiliacija="" ArrsID="0" ORCID=""></Oseba>
  </Osebe>
  <Identifikatorji>
    <Identifikator ID="16" Sifra="VisID" Naziv="VisID" URL="">35306</Identifikator>
    <Identifikator ID="3" Sifra="CobissID" Naziv="COBISS_ID" URL="https://plus.cobiss.net/cobiss/si/sl/bib/229975043">229975043</Identifikator>
  </Identifikatorji>
  <Datoteke>
    <Datoteka ID="200005" DatotekaNRID="14147056" NamenDatotekeID="2" NamenDatoteke="Predstavitvena datoteka" FormatDatotekeID="2" FormatDatoteke=".pdf" MIME="application/pdf" IkonaFormata="pdf.png" IkonaFormataPolniUrl="https://repozitorij.uni-lj.si/teme/rulDev/img/fileTypes/pdf.png" VelikostDatoteke="5761354" VelikostDatotekeKratko="5,49 MB" DatumVstavljanja="2025-02-24 14:53:10" JeZbrisana="false" JeJavnoVidna="true" JeIndeksirana="true" JeVidno="true" VidnoOd="01.01.1970" Zaporedje="0">
      <Naziv>Zeman_Marko_-_Nadaljevalno_ucenje_s_superpozicijo_v_transformerjih.pdf</Naziv>
      <OrgNaziv>Zeman_Marko_-_Nadaljevalno_ucenje_s_superpozicijo_v_transformerjih.pdf</OrgNaziv>
      <URL></URL>
      <Opis></Opis>
      <OpisTujJezik></OpisTujJezik>
      <UrlObdelave></UrlObdelave>
      <FrekvencaAzuriranjaID>1</FrekvencaAzuriranjaID>
      <Verzija></Verzija>
      <MD5>AA4002301AC8BCE20039B8A04BBE191C</MD5>
      <SHA256>50cc58433eadc8a0921fd7b3aa5b6cc651f174445619adcc81ab0396960ca232</SHA256>
      <UUID>c4578d39-f2b5-11ef-b232-0050569b8976</UUID>
      <PID></PID>
      <PrenosPolniUrl>https://repozitorij.uni-lj.si/Dokument.php?lang=slv&amp;id=200005</PrenosPolniUrl>
      <Vsebine>
        <Vsebina TipVsebine="GoloBesedilo" JezikID="1033" Oznaka="" Dolzina="241023"></Vsebina>
      </Vsebine>
    </Datoteka>
  </Datoteke>
  <Organizacije>
    <Organizacija OrganizacijaID="25" Kratica="FRI" ZavodEvsID="0000066" Logo="" LogoPolniUrl="https://repozitorij.uni-lj.si/teme/rulDev/img/logo/">Fakulteta za računalništvo in informatiko</Organizacija>
  </Organizacije>
  <OrganizacijeVira>
  </OrganizacijeVira>
  <MetodeZbiranjaPodatkov>
  </MetodeZbiranjaPodatkov>
  <TipologijaDela ID="2.08" Koda="2.08" Naziv="Doktorska disertacija" SchemaOrg="Thesis"></TipologijaDela>
  <Ostalo>
    <StIrodsDatotek>0</StIrodsDatotek>
    <StDatotekPodTrajnimEmbargom>0</StDatotekPodTrajnimEmbargom>
    <StDatotekZOmejenimDostopom>0</StDatotekZOmejenimDostopom>
  </Ostalo>
</Gradivo>
