Vaš brskalnik ne omogoča JavaScript!
JavaScript je nujen za pravilno delovanje teh spletnih strani. Omogočite JavaScript ali pa uporabite sodobnejši brskalnik.
Nacionalni portal odprte znanosti
Odprta znanost
DiKUL
slv
|
eng
Iskanje
Brskanje
Novo v RUL
Kaj je RUL
V številkah
Pomoč
Prijava
Destilacija znanja globokih modelov za biometrijo beločnice
ID
Bizjak, Matic
(
Avtor
),
ID
Peer, Peter
(
Mentor
)
Več o mentorju...
,
ID
Štruc, Vitomir
(
Komentor
),
ID
Vitek, Matej
(
Komentor
)
PDF - Predstavitvena datoteka,
prenos
(21,08 MB)
MD5: 011BC553CB21B2BCECB71D3E632A8CB4
Galerija slik
Izvleček
Destilacija znanja je pristop izdelave lahkih modelov s prenosom znanja iz globokih modelov, ki imajo veliko število parametrov, so časovno zahtevni in imajo zelo visoko natančnost. V magistrskem delu ovrednotimo pristop destilacije znanja na področju biometrije očesa. Izdelamo nov postopek pridobitve lahkega modela za segmentacijo beločnice s kombinacijo dveh pristopov, destilacije znanja in rezanja filtrov, ter pokažemo, da sta oba pristopa ključna za uspeh našega postopka. S predstavljenim izvirnim postopkom pridobitve lahkega modela odstranimo 74 % operacij s plavajočo vejico za eno sklepanje in 73,2 % parametrov ter izgubimo 1,27 % natančnosti, poleg tega pa odstranimo 2-krat toliko parametrov kot najsodobnejši model in v primerjavi izgubimo le 1,74 % natančnosti. V luči te primerjave na koncu identificiramo možne nadgradnje, ki imajo potencial za izboljšanje našega pristopa.
Jezik:
Slovenski jezik
Ključne besede:
destilacija znanja
,
rezanje filtrov
,
konvolucijske nevronse mreže
,
beločnica
,
segmentacija
Vrsta gradiva:
Magistrsko delo/naloga
Tipologija:
2.09 - Magistrsko delo
Organizacija:
FRI - Fakulteta za računalništvo in informatiko
Leto izida:
2020
PID:
20.500.12556/RUL-121899
COBISS.SI-ID:
37218051
Datum objave v RUL:
06.11.2020
Število ogledov:
1162
Število prenosov:
182
Metapodatki:
Citiraj gradivo
Navadno besedilo
BibTeX
EndNote XML
EndNote/Refer
RIS
ABNT
ACM Ref
AMA
APA
Chicago 17th Author-Date
Harvard
IEEE
ISO 690
MLA
Vancouver
:
Kopiraj citat
Objavi na:
Sekundarni jezik
Jezik:
Angleški jezik
Naslov:
Knowledge distillation of deep learning models for sclera biometrics
Izvleček:
Knowledge distillation is a technique for the development of lightweight models by transferring knowledge from a deep model with high memory footprint and high computational complexity. In this work we evaluate knowledge distillation for eye biometrics. We propose a new algorithm for creating a lightweight model for sclera segmentation by combining knowledge distillation with filter pruning and show that both techniques are key to achieving good results. With the presented algorithm we remove 74% floating point operations needed for one inference and 73.2% parameters and sacrifice 1.27% of the accuracy. In addition, we remove twice as many parameters as the current state-of-the-art filter pruning approach and in comparison sacrifice 1.74% of the accuracy. In the light of this comparison, we identify possible improvements that have a potential to further increase the accuracy of our algorithm.
Ključne besede:
knowledge distillation
,
filter pruning
,
convolutional neural networks
,
sclera
,
segmentation
Podobna dela
Podobna dela v RUL:
Podobna dela v drugih slovenskih zbirkah:
Nazaj