izpis_h1_title_alt

Tvorjenje besedil z uporabo skritega markovskega modela
FILEJ, MIHA (Avtor), Brodnik, Andrej (Mentor) Več o mentorju... Povezava se odpre v novem oknu

.pdfPDF - Predstavitvena datoteka, prenos (1,25 MB)

Izvleček
Področje NLG se ukvarja s tvorjenjem naravno zvenečih besedil. Cilj diplomskega dela je ugotoviti, do kolikšne mere lahko kompleksna pravila tvorjenja naravnega jezika posnemamo s statističnimi sistemi, natančneje s skritimi markovskimi modeli. Delo predstavi potrebno teoretično podlago za obstoj skritih markovskih modelov in opiše njihovo uporabo pri tvorjenju besedil. V okviru diplomskega dela je opravljen tudi pregled obstoječih orodij za delo s skriti markovskimi modeli, medsebojna primerjava orodij in pregled njihove primernosti za uporabo pri tvorjenju besedil. Opisan je postopek implementacije knjižnice za delo s skritimi markovskimi modeli v programskem jeziku Elixir. Dve izmed pregledanih orodij in implementirana knjižnica so uporabljeni za tvorjenje besedil na podlagi korpusa slovenskega pisnega jezika. Izbere se kriterij za primerjavo tvorjenih besedil, ki se uporabi za primerjavo modelov, kot tudi za primerjavo tvorjenih besedil s korpusom.

Jezik:Slovenski jezik
Ključne besede:tvorjenje naravnega jezika, skriti markovski modeli, algoritem Baum-Welch, algoritem Forward-Backward, algoritem EM, Elixir, Erlang/OTP
Vrsta gradiva:Diplomsko delo (m5)
Organizacija:FRI - Fakulteta za računalništvo in informatiko
Leto izida:2016
Število ogledov:356
Število prenosov:258
Metapodatki:XML RDF-CHPDL DC-XML DC-RDF
 
Skupna ocena:(0 glasov)
Vaša ocena:Ocenjevanje je dovoljeno samo prijavljenim uporabnikom.
:
Objavi na:AddThis
AddThis uporablja piškotke, za katere potrebujemo vaše privoljenje.
Uredi privoljenje...

Sekundarni jezik

Jezik:Angleški jezik
Naslov:Text Generation using Hidden Markov Model
Izvleček:
Natural language generation (NLG) is the task of producing text that feels natural to the reader. The goal of this diploma thesis is to study to which level natural language generation can be achieved using statistical models – specifically hidden Markov models. The diploma thesis covers probability and information theories that allow the definition of hidden Markov models and describes how such models can be used for the purpose of text generation. Available tools for working with hidden markov models are reviewed, compared, and assesed for their suitability for generating text. A library for hidden Markov models is implemented in Elixir. Two of the reviewed tools and the implemented library are used to generate text from a corpus of written slovenian language. A criterion for comparing generated texts is chosen and used to compare the models as well as comparing the generated texts to the corpus.

Ključne besede:natural language generation, hidden markov models, Baum-Welch algorithm, Forward-Backward algorithm, expectation–maximization algorithm, Elixir, Erlang/OTP

Podobna dela

Podobna dela v RUL:
Podobna dela v drugih slovenskih zbirkah:

Komentarji

Dodaj komentar

Za komentiranje se morate prijaviti.

Komentarji (0)
0 - 0 / 0
 
Ni komentarjev!

Nazaj