Veliki jezikovni modeli (LLM) so v zadnjem času dosegli izjemen napredek tako v obsegu kot tudi v zmožnostih opravljanja različnih nalog. Kljub temu pa personalizacija in prilagajanje takih modelov neposredno na uporabnikovi napravi (npr. pametnem telefonu) ostajata večinoma nepreučeni zaradi visokih zahtev glede računske moči in pomnilnika. Čeprav parametrično učinkovito prilagajanje (PEFT) ponuja obetavno rešitev, obstoječa ogrodja za PEFT na mobilnih napravah temeljijo na emuliranih okoljih ali nudijo omejeno funkcionalnost. V tem delu predstavljamo ORTransformersMobile, novo celovito ogrodje, ki omogoča prilagajanje LLM-ov in optimizirano generiranje besedil z novo naučenimi utežmi popolnoma znotraj operacijskega sistema Android in mobilne strojne opreme. Prav tako skozi študijo razvijemo metodo MARS (Multi-Adapter Rank Sharing) in jo ovrednotimo ter primerjamo s 288 drugimi PEFT konfiguracijami. Pri tem dosežemo primerljivo ali boljšo zmogljivost tudi pri nižjih rangih in kvantiziranih utežeh, zaradi česar je učinkovita v okoljih z omejenimi viri. Naš pristop pospeši prilagajanje na napravi (za 7 %) in zmanjša porabo pomnilnika v primerjavi z najbolj priljubljeno PEFT metodo - LoRA. S kombinacijo ORTransformersMobile in MARS lahko generativne modele popolnoma prilagodimo neposredno na napravi, kar omogoča izvajanje personaliziranih nalog iz zasebnih uporabniških podatkov na mobilni napravi.
|