izpis_h1_title_alt

Izboljšave metode globokih naključnih gozdov
ID Klemen, Matej (Avtor), ID Robnik Šikonja, Marko (Mentor) Več o mentorju... Povezava se odpre v novem oknu

.pdfPDF - Predstavitvena datoteka, prenos (479,65 KB)
MD5: 93A1CDF8ED337EE9523B2750BF2D1457

Izvleček
Na področju globokega učenja je vodilna metoda globokih nevronskih mrež. Te za učenje potrebujejo veliko podatkov, njihova uspešnost pa je odvisna od uporabljenih parametrov. Ena izmed alternativ je model globokih naključnih gozdov. V delu s svojo implementacijo algoritma globokih naključnih gozdov preverimo ponovljivost rezultatov originalnega članka (Zhou in Feng, 2017). Raziščemo, ali lahko napovedno točnost modela izboljšamo z dodajanjem gozdov naključnih podprostorov ali z uporabo zlaganja za kombiniranje napovedi modelov zadnjega nivoja kaskade gozdov. Osnovni implementaciji ter implementacijo z našimi dodatki testiramo na petih podatkovnih množicah in predstavimo dosežene rezultate. Z zlaganjem na vseh podatkovnih množicah dosežemo enako oziroma boljšo povprečno napovedno točnost. Gozdovi naključnih podprostorov na treh podatkovnih množicah dosežejo slabše, na dveh pa boljše rezultate od osnovnega algoritma.

Jezik:Slovenski jezik
Ključne besede:globoko učenje, globoki naključni gozdovi, ansambli, zrnato skeniranje, kaskada gozdov, zlaganje modelov
Vrsta gradiva:Diplomsko delo/naloga
Organizacija:FRI - Fakulteta za računalništvo in informatiko
Leto izida:2018
PID:20.500.12556/RUL-103415 Povezava se odpre v novem oknu
Datum objave v RUL:17.09.2018
Število ogledov:1096
Število prenosov:365
Metapodatki:XML RDF-CHPDL DC-XML DC-RDF
:
Kopiraj citat
Objavi na:Bookmark and Share

Sekundarni jezik

Jezik:Angleški jezik
Naslov:Improving deep random forests
Izvleček:
The most frequently used deep learning models are deep neural networks. Although they have been successfully applied to various problems, they require large training sets and careful tuning of parameters. An alternative to deep neural networks is the deep forest model, which we independently implemented to verify the replicability of results in (Zhou and Feng, 2017). We test if the accuracy of deep forest can be improved by including random subspace forests or by using stacking to combine predictions of cascade forest's last layer. We evaluate the original implementation and our improvements on five data sets. The algorithm with added stacking achieves equal or better results on all five data sets, whereas the addition of random subspace forests brings worse results on three data sets and better results on two data sets.

Ključne besede:deep learning, deep forest, ensemble methods, multi-grained scanning, cascade forest, stacking

Podobna dela

Podobna dela v RUL:
Podobna dela v drugih slovenskih zbirkah:

Nazaj