izpis_h1_title_alt

Obdelava velikih količin podatkov v oblaku : diplomsko delo
Holub, Sandi (Avtor), Zrnec, Aljaž (Mentor) Več o mentorju... Povezava se odpre v novem oknu

URLURL - Predstavitvena datoteka, za dostop obiščite http://eprints.fri.uni-lj.si/2618/ Povezava se odpre v novem oknu

Izvleček
Velika količina podatkov ali Big Data v svetu informatike pridobiva na prepoznavnosti. To so orodja, ki omogočajo shranjevanje in poizvedovanje po veliki količini podatkov. Hadoop je odprtokodni projekt podjetja Apache, ki združuje orodja za shranjevanje, obdelavo in poizvedovanje po strukturiranih ali nestrukturiranih podatkih. Podatke je potrebno obvladovati s pomočjo primerne infrastrukture, največkrat kar gruče računalnikov. Pri tem si lahko pomagamo z oblakom, če ne želimo imeti infrastrukture pri sebi. YARN (angl. Yet Another Resource Negotiator), MapReduce, Pig in HDFS (angl. Hadoop Distributed File System) so osnovne komponente projekta Hadoop in pripomorejo k enostavni implementaciji prve različice programske opreme. Z diplomsko nalogo si lahko bralec pomaga pri postavitvi osnovne gruče Hadoop in izdelavi Java aplikacije ali skripte Pig. Časovna in cenovna primerjava poganjanja v oblaku in lokalni gruči pa pomaga pri odločanju o nakupu infrastrukture.

Jezik:Slovenski jezik
Ključne besede:Hadoop, MapReduce, velika količina podatkov, gruča, Pig, oblak, računalništvo, visokošolski strokovni študij, računalništvo in informatika, diplomske naloge
Vrsta gradiva:Diplomsko delo/naloga (mb11)
Tipologija:2.11 - Diplomsko delo
Organizacija:FRI - Fakulteta za računalništvo in informatiko
Leto izida:2014
Založnik:[S. Holub]
Št. strani:82 str.
UDK:004.934(043.2)
COBISS.SI-ID:10718292 Povezava se odpre v novem oknu
Število ogledov:967
Število prenosov:201
Metapodatki:XML RDF-CHPDL DC-XML DC-RDF
 
Skupna ocena:(0 glasov)
Vaša ocena:Ocenjevanje je dovoljeno samo prijavljenim uporabnikom.
:
Objavi na:AddThis
AddThis uporablja piškotke, za katere potrebujemo vaše privoljenje.
Uredi privoljenje...

Sekundarni jezik

Jezik:Angleški jezik
Naslov:Processing large amounts of data in the cloud
Izvleček:
Big Data is gaining recognition in the world of information technology. These are tools that allow saving and retrieval of a large amount of data. Hadoop is an open source project of the company Apache, which combines the tools for storage, processing and retrieval of structured and or unstructured data. Data need to be managed with the help of appropriate infrastructure, which in most cases are clusters of computers. We can help ourselves using a cloud, if we do not wish to have the infrastructure nearby. YARN, MapReduce, Pig and Hadoop Distributed File System (HDFS) are the basic components of the Hadoop project and contribute to simple implementation of the first version of software. The reader can use this diploma thesis as help in setting up the basic Hadoop cluster and develop a Java application or Pig script. The time and price comparison of running in the cloud or local cluster can also help as decision-making process when buying infrastructure.

Ključne besede:Hadoop, MapReduce, large amount of data, cluster, Pig, cloud, computer science, computer and information science, diploma

Podobna dela

Podobna dela v RUL:
Podobna dela v drugih slovenskih zbirkah:

Komentarji

Dodaj komentar

Za komentiranje se morate prijaviti.

Komentarji (0)
0 - 0 / 0
 
Ni komentarjev!

Nazaj