izpis_h1_title_alt

Razvoj gradnikov za analizo pristranosti v programu Orange
ID Mervič, Žan (Avtor), ID Zupan, Blaž (Mentor) Več o mentorju... Povezava se odpre v novem oknu, ID Toplak, Marko (Komentor)

.pdfPDF - Predstavitvena datoteka, prenos (1,24 MB)
MD5: C1540FACA1B34BEADD064C78D5DF44FD

Izvleček
Umetna inteligenca in strojno učenje se vse pogosteje uporabljata v procesih odločanja, kot so zaposlovanje, izrekanje kazni na sodiščih ali odobritev posojil. Ker te odločitve pomembno vplivajo na posameznike, modeli odločanja ne smejo biti pristrani do določenih demografskih skupin. V diplomski nalogi smo preizkusili uporabo različnih algoritmov odstranjevanja in odkrivanja pristranosti v podatkih in napovedih modelov. Rezultati kažejo, da so metode, ki smo jih preučevali za zmanjšanje pristranosti, učinkovite in relativno enostavne za uporabo. Glavni rezultat naloge je razširitev za okolje Orange, ki vključuje gradnike za obravnavanje pristranosti. Razvite gradnike lahko uporabljajo tudi posamezniki brez znanja programiranja. Razširitev je prosto dostopna na repozitoriju GitHub (programska koda) in v programskem okolju Orange. O implementaciji smo poročali tudi na spletnih straneh orodja Orange.

Jezik:Slovenski jezik
Ključne besede:pristranost, pravičnost, strojno učenje, vizualno programiranje, Orange
Vrsta gradiva:Diplomsko delo/naloga
Tipologija:2.11 - Diplomsko delo
Organizacija:FRI - Fakulteta za računalništvo in informatiko
Leto izida:2024
PID:20.500.12556/RUL-161046 Povezava se odpre v novem oknu
COBISS.SI-ID:211187971 Povezava se odpre v novem oknu
Datum objave v RUL:06.09.2024
Število ogledov:164
Število prenosov:29
Metapodatki:XML DC-XML DC-RDF
:
Kopiraj citat
Objavi na:Bookmark and Share

Sekundarni jezik

Jezik:Angleški jezik
Naslov:Development of components for bias analysis in Orange
Izvleček:
Artificial intelligence and machine learning are increasingly being used in decision-making processes such as hiring, sentencing, and credit approval. Given the significant impact these decisions have on people's lives, the models that drive them must be free of bias against any demographic group. In this thesis, we tested several algorithms designed to detect and mitigate bias in data and model predictions. The results show that the methods we tested are both effective and relatively easy to use. One of the main results of this work is an add-on developed for the Orange environment to help users without programming skills to address and understand bias in machine learning. This add-on is available on GitHub, where the source code is available, and has been integrated into the Orange programming environment. We reported on the implementation on the Orange tool website.

Ključne besede:bias, fairness, machine learning, visual programming, Orange

Podobna dela

Podobna dela v RUL:
Podobna dela v drugih slovenskih zbirkah:

Nazaj