nov 022013
 

Di 

Apache Hadoop è un progetto software open source basato su Java. Fondamentalmente si tratta di un framework di riferimento che viene utilizzato per eseguire applicazioni su grandi cluster hardware (server). È progettato per scalare da un singolo server a migliaia di macchine, con un alto grado di tolleranza ai guasti. Piuttosto che fare affidamento su hardware di fascia alta, l’affidabilità di questi cluster deriva dalla capacità del software di rilevare e gestire gli errori in maniera autonoma.

Il credito per la creazione di Hadoop va a Doug Cutting e Michael J. Cafarella. Doug un dipendente Yahoo decise di rinominarlo dopo come l’elefante giocattolo “Hadoop” di suo figlio. Originariamente è stato sviluppato per supportare la distribuzione del progetto Nutch che implementava un motore di ricerca e gestire gran quantità di indici.

Continue reading »

flattr this!

mag 222012
 

Già nel dicembre 2011, gli utenti Linux con applicazioni data-intensive avevano gioito in quanto Apache Hadoop aveva raggiunto un traguardo la versione 1.0.0. Diventando un punto di riferimento per il software di calcolo distribuito, questo meraviglioso piccolo programma ha raggiunto ora la versione 1.0.3, ma cosa è Hadoop e come si può beneficiare nell’usarlo?

Progettato con operazioni “scalabili in rete” in mente, Hadoop è in grado di gestire enormi quantità di informazioni, consentendo di elaborare rapidamente ed efficacemente volumi di dati che altri sistemi semplicemente non sono in grado di gestire. Ma questo è solo l’inizio. Hadoop permette anche di mettere in rete questo processo – può distribuire grandi quantità di lavoro su un cluster di macchine, questo permette di gestire carichi di lavoro che un singolo processore semplicemente non può gestire.

Continue reading »

flattr this!