izpis_h1_title_alt

Statistična analiza slovenskih jezikovnih korpusov
ID KLJUČEVŠEK, ALEKSANDER (Avtor), ID Robnik Šikonja, Marko (Mentor) Več o mentorju... Povezava se odpre v novem oknu, ID Krek, Simon (Komentor)

.pdfPDF - Predstavitvena datoteka, prenos (561,69 KB)
MD5: 7C63EA28D0E7F2813D279BC796DD8C5D
PID: 20.500.12556/rul/a1880141-3dca-49f2-881a-b9fed53c7177

Izvleček
Področje procesiranja naravnega jezika je pomembna in obsežna panoga računalništva, vendar je večina obstoječih orodij razvitih in prilagojenih za obdelavo angleških besedil. Razvili smo orodje za statistično analizo velikih jezikovnih korpusov, ki upošteva značilnosti slovenščine kot močno pregibnega jezika. Današnji besedilni korpusi lahko vsebujejo tudi več milijard besed, zato je bil velik del pozornosti namenjen razvoju učinkovitih paralelnih algoritmov, s katerimi bo moč tako obsežne zbirke v razmeroma kratkem času obdelati tudi na običajnih računalnikih. Z orodjem smo analizirali korpus Gigafida, ki vsebuje 1,2 milijarde besed, na več nivojih: na nivoju besednih nizov, nivoju besed, n-gramov, predpon in končnic ter tudi besedotvorne procese v slovenščini.

Jezik:Slovenski jezik
Ključne besede:statistična analiza jezika, jezikovni korpus, Gigafida, paralelni algoritmi
Vrsta gradiva:Diplomsko delo
Organizacija:FRI - Fakulteta za računalništvo in informatiko
Leto izida:2016
PID:20.500.12556/RUL-85513 Povezava se odpre v novem oknu
Datum objave v RUL:15.09.2016
Število ogledov:1743
Število prenosov:339
Metapodatki:XML DC-XML DC-RDF
:
Kopiraj citat
Objavi na:Bookmark and Share

Sekundarni jezik

Jezik:Angleški jezik
Naslov:Statistical analysis of Slovene language corpuses
Izvleček:
Natural language processing is an important area of computational linguistics and artificial intelligence . Mostly, its existing applications are developed for and based on English texts. We developed an application for the statistical analysis of large text corpora, which takes into account the unique characteristics of Slovene as a strongly inflected language. Since modern text corpora consist of several billion words, we paid special attention to efficient parallel algorithms that are capable of processing these collections in a relatively short amount of time. We analyzed the Gigafida corpus - consisting of 1.2 billion words - on multiple levels: string level, word level, n-gram level, prefix and suffix level, as well as word formation processes of Slovene.

Ključne besede:statistical language analysis, text corpus, Gigafida, parallel algorithms

Podobna dela

Podobna dela v RUL:
Podobna dela v drugih slovenskih zbirkah:

Nazaj