Vaš brskalnik ne omogoča JavaScript!
JavaScript je nujen za pravilno delovanje teh spletnih strani. Omogočite JavaScript ali pa uporabite sodobnejši brskalnik.
Nacionalni portal odprte znanosti
Odprta znanost
DiKUL
slv
|
eng
Iskanje
Brskanje
Novo v RUL
Kaj je RUL
V številkah
Pomoč
Prijava
Numerična optimizacija z metodami usmerjenega spusta : delo diplomskega seminarja
ID
Ribič, Brina
(
Avtor
),
ID
Grošelj, Jan
(
Mentor
)
Več o mentorju...
PDF - Predstavitvena datoteka,
prenos
(1,24 MB)
MD5: B456E42F9583B30F3A9F948C916C9682
Galerija slik
Izvleček
V delu se ukvarjamo s problemom iskanja najmanjše vrednosti funkcije z orodji numerične optimizacije. Obravnavamo iterativne algoritme oziroma metode, za katere si želimo, da z visokim redom konvergence zanesljivo privedejo do rešitve. Na začetku izpeljemo metodo najstrmejšega spusta, ki pa ima v splošnem kvečjemu linearen red konvergence in se v praksi redko uporablja. Nato analiziramo Newtonovo metodo z višjim redom konvergence, a je njena pomanjkljivost v tem, da je za izvedbo treba računati Hessejevo matriko funkcije. Predstavimo še BFGS metodo, ki ima superlinearen red konvergence, hkrati pa ni računsko zahtevna. V zaključnem poglavju primerjamo BFGS metodo in metodo najstrmejšega spusta na primeru CAPM modela, pri katerem z linearno regresijo na podlagi podatkov preteklih let iščemo beta koeficient izbranega podjetja. Ugotovimo, da je BFGS metoda bolj zanesljiva in učinkovita kot metoda najstrmejšega spusta.
Jezik:
Slovenski jezik
Ključne besede:
neomejena optimizacija
,
metode usmerjenega spusta
Vrsta gradiva:
Delo diplomskega seminarja/zaključno seminarsko delo/naloga
Tipologija:
2.11 - Diplomsko delo
Organizacija:
FMF - Fakulteta za matematiko in fiziko
Leto izida:
2022
PID:
20.500.12556/RUL-139563
UDK:
519.6
COBISS.SI-ID:
120694787
Datum objave v RUL:
04.09.2022
Število ogledov:
626
Število prenosov:
105
Metapodatki:
Citiraj gradivo
Navadno besedilo
BibTeX
EndNote XML
EndNote/Refer
RIS
ABNT
ACM Ref
AMA
APA
Chicago 17th Author-Date
Harvard
IEEE
ISO 690
MLA
Vancouver
:
Kopiraj citat
Objavi na:
Sekundarni jezik
Jezik:
Angleški jezik
Naslov:
Numerical optimization with line search methods
Izvleček:
In this work we study the problem of finding the minimum value of a function using numerical optimization tools. We seek for algorithms which have high rate of convergence and efficiently find solution. We start by deriving the steepest descent method which in general has at most linear rate of convergence and is rarely used in practice. Later on we analyze Newton's method with a higher rate of convergence, but its main drawback is that it requires the computation of the Hessian matrix of the function. We also introduce the BFGS method which has superlinear rate of convergence and has low computitonal complexity. At the end of this work we compare BFGS method and the steepest descent method on CAPM model. We use linear regression, where we search for beta coeficient based on data from previous years. We conclude that the BFGS method is more reliable and efficient than the steepest descent method.
Ključne besede:
unconstrainted optimization
,
line search methods
Podobna dela
Podobna dela v RUL:
Podobna dela v drugih slovenskih zbirkah:
Nazaj