izpis_h1_title_alt

Anotacija kolonoskopskih slik s temeljnimi modeli
ID Lazić, Miha (Avtor), ID Emeršič, Žiga (Mentor) Več o mentorju... Povezava se odpre v novem oknu

.pdfPDF - Predstavitvena datoteka, prenos (5,78 MB)
MD5: 1633FB8A5A7A07F029F545AAEFE25FBF

Izvleček
Anotacija slik je ključen, a večkrat zamuden korak pri pripravi slikovnih podatkovnih zbirk. Poleg grafičnega vmesnika anotacijskega orodja, na hitrost anotacije vplivajo implementirani segmentacijski pristopi. Z razvojem globokega učenja na področju računalniškega vida se je pojavila možnost nadomestitve ročne anotacije in tradicionalnih segmentacijskih algoritmov s hitrejšimi in bolj natančnimi pristopi. Eden takšnih je temeljni model Segment Anything, ki smo ga analizirali v večih različicah (ViT-b, ViT-l, ViT-h, MobileSAM, SAM-Med2D, MedSAM) in testirali na podatkovni zbirki kolonoskopskih slik Kvasir-SEG in kolonoskopskih inštrumentov Kvasir-Instrument. Ovrednotili smo natančnost segmentacije in časovno zahtevnost modelov z resničnimi maskami objektov in na podlagi rezultatov, implementirali funkcionalnosti najboljšega modela v prototipni anotacijski program.

Jezik:Slovenski jezik
Ključne besede:anotacija, segmentacija, globoko učenje, Vision Transformer, temeljni model, Segment Anything, kolonoskopija
Vrsta gradiva:Diplomsko delo/naloga
Organizacija:FRI - Fakulteta za računalništvo in informatiko
Leto izida:2024
PID:20.500.12556/RUL-160506 Povezava se odpre v novem oknu
Datum objave v RUL:29.08.2024
Število ogledov:110
Število prenosov:37
Metapodatki:XML RDF-CHPDL DC-XML DC-RDF
:
Kopiraj citat
Objavi na:Bookmark and Share

Sekundarni jezik

Jezik:Angleški jezik
Naslov:Colonoscopy image annotation with foundation models
Izvleček:
Image annotation is a crucial but often time-consuming step in preparing image datasets. In addition to the graphical interface of the annotation tool, the speed of annotation is influenced by the implemented segmentation approaches. With the development of deep learning in the field of computer vision, the possibility has arisen to replace manual annotation and traditional segmentation algorithms with faster and more accurate approaches. One such model is the foundation model Segment Anything, which we analyzed in various versions (ViT-b, ViT-l, ViT-h, MobileSAM, SAM-Med2D, MedSAM) and tested on the Kvasir-SEG dataset of colonoscopic images and the Kvasir-Instrument dataset of colonoscopic instruments. We evaluated the segmentation accuracy and time complexity of the models with ground-truth object masks and, based on the results, implemented the functionalities of the best model into a prototype annotation program.

Ključne besede:annotation, segmentation, deep learning, Vision Transformer, foundation model, Segment Anything, colonoscopy

Podobna dela

Podobna dela v RUL:
Podobna dela v drugih slovenskih zbirkah:

Nazaj