Bazyoussef

Bazyoussef

Scarica file con wget

Posted on Author Maugal Posted in Software

  1. Wget per Linux: guida all’utilizzo
  2. Scaricare con Wget
  3. Wget: scarica i file in modo selettivo e ricorsivo?

Wget "bazyoussef.com". Il file verrà scaricato nella cartella corrente (​visualizzabile impartendo pwd su Linux oppure cd su Windows), con lo stesso. In questo articolo vedremo, nello specifico, come scaricare file da linea di comando con wget per Windows. Per la trattazione analoga in ambiente Linux. Wget e'un programma per lo scaricamento non-interattivo di file dal Web attraverso i protocolli HTTP, HTTPS, FTP, e proxy HTTP. La sintassi e'. #esempio: wget bazyoussef.com per scaricare il file nella directory corrente. Scaricare un file con nome diverso.

Nome: scarica file con wget
Formato: Fichier D’archive
Sistemi operativi: iOS. Windows XP/7/10. MacOS. Android.
Licenza: Gratis!
Dimensione del file: 59.37 Megabytes

In Linux qualcosa del genere esiste e si chiama Wget. La guida che segue riguarda proprio Wget: scopriremo insieme i parametri più utili da aggiungere a questo comando per raffinare ancor di più i nostri download.

Comando di base. Scaricare un file con nome diverso. Questo comando è utile per avviare un download e chiudere il terminale oppure la connessione remota al server. Creiamo un file di testo semplice. Con il parametro —limit-rate potremo impostare un limite alla velocità di download dei nostri file, opzione molto utile per non sovraccaricare la rete.

Una volta installato wget, puoi iniziare ad usarlo immediatamente dalla riga di comando. Scarichiamo alcuni file!

Potrebbe piacerti:FILE CON MIRC SCARICA

Scarica un singolo file Iniziamo con qualcosa di semplice. Copia l'URL di un file che desideri scaricare nel browser.

Ora torna al terminale e digitawgetseguito dall'URL incollato. Il file verrà scaricato e vedrai i progressi in tempo reale.

Wget per Linux: guida all’utilizzo

CORRELATO: Come gestire i file dal terminale Linux: 11 Comandi che devi sapere Tieni presente che il file verrà scaricato in la cartella corrente del tuo terminale, quindi ti consigliamo dicdin una cartella diversa se vuoi che venga memorizzata altrove. Se non sei sicuro di cosa significhi, consulta la nostra guida alla gestione dei file dalla riga di comando. L'articolo cita Linux, ma i concetti sono gli stessi sui sistemi macOS e sui sistemi Windows che eseguono Bash.

Basta usare questo comando: wget -c file Il tasto qui è-c, che è una "opzione" nel linguaggio di comando. Questa particolare opzione dice a wget che desideri continuare un download esistente.

Scaricare con Wget

Combina queste opzioni per assaggiarle e finirai con una copia di qualsiasi sito web che Si noti che il mirroring di un intero sito Web su Internet moderno occupa una quantità enorme di spazio, quindi limitarlo a siti di piccole dimensioni, a meno che non si disponga di spazio quasi illimitato. Puoi anche includere- noparentse vuoi evitare di scaricare cartelle e file sopra il livello corrente.

Come sicuramente avrai visto sulla pagina di download del sito ufficiale , HTTtacks è disponibile anche per Linux, ma oggi vorrei proporti una soluzione diversa utilizzando Wget, un comando molto potente e versatile disponibile per tutte le distribuzioni Linux.

Vediamo allora come scaricare un sito nel computer con Linux. Wget è un programma da riga di comando molto popolare che permette di scaricare da internet file tramite protocolli http e ftp.

Una delle caratteristiche avanzate di Wget è il mirroring, cioè la possibilità di creare una copia locale di un sito, inclusi fogli di stile, immagini e altri file di supporto.

Tutti i link interni vengono seguiti da Wget e scaricati in locale, fino al raggiungimento della copia completa sul computer. Come hai potuto vedere questo semplice comando è molto potente e le opzioni che ho utilizzato sono solo una piccola parte di quelle disponibili. Per poterle visionare tutte puoi leggere le manpages con il comando: man wget Ora che hai visto come scaricare un sito nel computer con Linux puoi usare Wget per fare una copia locale dei siti che ti interessano, per leggerli comodamente quando non sei connesso ad Internet.

Per evitare un tale spreco, possiamo fornire a wget una "accept list", o al contrario una "reject list", nella quale possiamo specificare le estensioni dei file che intendiamo scaricare. Se, ad esempio, volessimo prelevare tutti i file grafici in formato gif e jpg, collegati in primo livello con il documento doc In questo caso, ci conviene fornire una lista di domini sui quali è consentito prelevare file.

Introduciamo quindi l'opzione -D che indica il "domain acceptance", ovvero i domini dai quali è accettato il download, limitando il dowload dei file collegati al nostro documento, ai soli domini funnystuff.

Oltre che per livelli e per domini, c'è un terzo limite da considerare, che consente di specificare un quota, ovvero una dimensione massima oltre il quale non verrà scaricato più nulla. Non solo, è anche possibile fare in modo che questa operazione non influisca negativamente sulle prestazioni del collegamento ad internet, grazie alla possibilità di diluire nel tempo il download.

Possiamo, volendo, preparare un file di testo o html, contenente tutte le url da scaricare, passandolo poi al programma grazie allo switch -i, oppure evitare che l'hostname venga utilizzato per creare la directory che conterrà il sito, o ancora, possiamo tagliare dall'albero che ricreeremo un certo numero di direcotry --cut-dirs Ad esempio, il comando: wget -r -l 1 -A gif,jpg www.

Infine, cosa fare se un donwload si interrompe per qualsiasi ragione? Senza bisogno di usare getright, provate l'opzione -c e riprenderete li dove vi eravate fermati senza perdere tempo a prelevare di nuovo tutto.

Wget: scarica i file in modo selettivo e ricorsivo?

Ultimo problema che vogliamo affrontare: diciamo che vogliamo scaricare un sito molto grosso, e che le operazioni dureranno almeno un giorno.

Come fare per non tenere occupata una shell per 24 ore? Anche qui le cose non sono troppo difficili; basta usare aprire la stringa di comando con nohup e chiudere la serie delle opzioni con un -b background e vi ritroverete anche con un file di log. Facciamo un esempio: voglio scaricare tutto il sito di www. In questo caso, per essere sicuro, introduciamo anche l'opzione -m mirror che consentirà di creare una copia fedele del sito e l'opzione -t tentativi seguita da 0, per consentire al programma di tentare un numero infinito di volte l'operazione di mirroring, nel caso questa dovesse interrompersi per qualche ragione: nohup wget -m -t0 -b www.

Per i siti anonimi non c'è problema: wget tenterà di default di collegarvisi passando dei dati di login anonimi standard.

Per le aree protette da login e password particolari vi è il problema di passare sulla linea di comando i dati relativi all'account che si vuole utilizzare per accedere al sito. In questo caso, ipotizzando di volere accedere al server ftp ftp.


Nuovi post