Semantična segmentacija z malo učnimi primeri, katere cilj je naučiti se novih kategorij z le nekaj učnimi primeri, je v zadnjem desetletju močno napredovala. Napredek so deloma začrtale podatkovne množice, ki izhajajo iz obstoječih podatkovnih množic za semantično segmentacijo. Te podatkovne množice imajo v okviru evalvacije z malo učnimi primeri več pomanjkljivosti, PASCAL-5 ima majhno število razredov in nekatere predmete dobro ločene od ozadja, COCO-20 ima preveč raznolike razrede, FSS-1000 pa vsebuje predmete, ki jih je trivialno segmentirati, tako da naš model ZSSB, ki ne uporablja učne slike, doseže visok povprečni mIoU 81,1%. Zaradi teh pomanjkljivosti zgradimo novo podatkovno množico LVIS-1025, ki jo dobimo iz podatkovne množice LVIS z uporabo novih meril za merjenje predvidljivosti in izraznosti objektov. Na LVIS-1025 evalviramo tri najsodobnejše metode (PANet, PPNet in ASGNet) in pokažemo, da se vrstni red uspešnosti spremeni v primerjavi s pridobljenim na obstoječih podatkovnih množicah. ASGNet na standardnih podatkovnih množicah močno preseže PANet in PPNet, vendar je na LVIS-1025 slabši, kar nakazuje, da je ASGNet nagnjen k segmentiranju najbolj izraznega objekta na sliki. Verjamemo, da bodo prihodnji modeli razviti na LVIS-1025 zmožni boljšega posploševanja in se ne bodo tako močno opirali na predpostavko, da je ciljni predmet vedno prisoten na sliki.
|