Aug 192010
 

wget-screenGNU Wget è un pacchetto software gratuito per il download di file tramite HTTP, HTTPS e FTP, i protocolli Internet più diffusi. E’ uno strumento non interattivo a riga di comando, può essere facilmente chiamato da script, lavori programmati con cron , in terminali senza supporto per X-Windows, ecc

GNU Wget ha molte caratteristiche per rendere il recupero di file di grandi dimensioni o mirroring di tutto un sito web o di un sito FTP facile ecco alcune interessanti opzioni.



Tutti questi comandi vanno dati da terminale linux.

Utilizzo base, scaricare un pacchetto conoscendo la sua URL http (o ftp):
wget http://kernel.org/pub/linux/kernel/v2.6/patch-2.6.23.bz2

Utilizzo di wget per un download ricorsivo
wget-r http://my.site.todownload.com/
Il comando -r dice a wget di scaricare ricorsivamente tutto dall’URL indicato.

Utilizzo di Wget per un download ricorsivo,  ma limitando il numero dei livelli a 2
wget-r-l2 http://my.site.todownload.com/
Il -r fa la stessa cosa del precedente esempio, ma -l dice a wget di limitare a quel numero di livelli di profondità il download in questo caso due livelli (il default altrimenti è 5)

Utilizzo di Wget per  un download ricorsivo,  ma limitando il tipo di file che si desidera scaricare
wget-r-a.pdf-R.htm http://my.site.todownload.com/
Questo dice a wget di fare un download ricorsivo e accetta tutti i file con estensione .pdf e scarta tutti i file con estensione .htm

Utilizzo di Wget per un download ricorsivo da un sito FTP con autenticazione
wget -r ftp://username:[email protected]/path/to/download
Questo dice a wget di fare un download ricorsivoe da FTP con username e password

Utilizzo di Wget per controllare link non funzionanti sul vostro sito
wget --spider -r -o log.txt http://yourdomain.com
In questo esempio diciamo a Wget di agire come uno spider web (Wget si comporterà come un spider Web, il che significa che non scaricherà le pagine, controllerà solo ì link siano funzionanti), e metterà i risultati nel file log.txt, in questo modo è possibile aprirlo ad operazioni terminate e cercare la lista dei link non funzionanti.

Utilizzo di Wget per scaricare una galleria di foto
for i in `seq -w 1 100`; do wget "http://www.mysite.com/images/DSCF00$i.jpg"; done
In questo esempio si esegue un ciclo che va da 1 a 100 e ogni volta si scarica una URL diverso (rappresentante una foto diversa), davvero utile per scaricare rapidamente una galleria senza link.

Infine, dimenticavo di dirvi che wget è utilizzabile anche da Mac e Windows (richeide cygwin)

E fatemi sapere se avete utilizzate wget in maniera fantasiosa

Popular Posts:

Flattr this!

 Leave a Reply

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>

(required)

(required)

*