izpis_h1_title_alt

Sistem za podporo odločanju z razlagami napovedi umetnih nevronskih mrež
ID JONKE, ŽAN (Avtor), ID Skočaj, Danijel (Mentor) Več o mentorju... Povezava se odpre v novem oknu, ID Schüßler, Martin (Komentor)

.pdfPDF - Predstavitvena datoteka, prenos (8,71 MB)
MD5: F79D3EB0BBE4C2432AF1A1F5712B7C04

Izvleček
Veliko današnjih informacijskih sistemov uporablja v zalednem sistemu algoritme strojnega učenja, katerih rezultati so lahko težko razumljivi računski modeli, npr. umetne nevronske mreže. Eden izmed primerov uporabnosti teh modelov so sistemi za podporo odločanju, katerih cilj je, da ljudje z njihovo pomočjo pridejo do boljše odločitve. V tem delu raziščemo, kako lahko lokalne naknadne razlage vplivajo na odločanje uporabnikov in njihovo uporabnost v tovrstnih sistemih. V ta namen smo izvedli eksperiment z ljudmi, kjer smo v treh različnih sejah spremljali obnašanja uporabnikov in jih med seboj primerjali.

Jezik:Slovenski jezik
Ključne besede:interpretabilnost, LIME, konvolucijske nevronske mreže
Vrsta gradiva:Diplomsko delo/naloga
Tipologija:2.11 - Diplomsko delo
Organizacija:FRI - Fakulteta za računalništvo in informatiko
Leto izida:2020
PID:20.500.12556/RUL-116763 Povezava se odpre v novem oknu
COBISS.SI-ID:19155715 Povezava se odpre v novem oknu
Datum objave v RUL:09.06.2020
Število ogledov:1122
Število prenosov:184
Metapodatki:XML RDF-CHPDL DC-XML DC-RDF
:
Kopiraj citat
Objavi na:Bookmark and Share

Sekundarni jezik

Jezik:Angleški jezik
Naslov:Decision support system with explanations of artificial neural networks predictions
Izvleček:
A lot of modern day applications use machine learning algorithms, which may produce computer models, that are hard to understand. These models are applicable in decision support systems, where they help users make better decisions. Here we investigate how can local post-hoc explanations affect user decisions and their overall utility. We have conducted experiments with people where we simulated three environments and monitored user behaviour in each of them, which we later analysed.

Ključne besede:interpretability, LIME, convolutional neural networks

Podobna dela

Podobna dela v RUL:
Podobna dela v drugih slovenskih zbirkah:

Nazaj