Esiste un programma per "scaricare" tutto il contenuto di un sito?
Ok lo so, è un'idea strana ma vorrei sapere se è possibile.
Intendo un modo per scaricare non solo la pagina attualmente visibile ma anche tutte le altre correlate al sito, per poterlo leggere offline.
Per esempio sarebbe comodo con un'enciclopedia tipo http://www.encirobot.com/
Ovviamente immagino che con Wikipedia ci metterebbe anni
Già, ma ovviamente nessuna dinamicità lato server, nessun file protetto, nessuna chiamata a db o roba simile
Del tipo, scordati di clonarti in locale l'archivio file di megaupload
(anche perchè comunque dovresti avere una server farm in cantina per archiviare e poi recuperare i file con una velocità compresa nella vita media umana )
Giusto per precisare eh
PS. Occhio con il "livello di profondità", 2 è già parecchio
No bhe, non m'interessa scaricare tutto il contenuto di megaupload, rapishare ecc. era appunto per scaricarmi siti interessanti, come anche le soluzioni di alcuni giochi che solitamente sono distribuite in più pagine.
Grazie dell'info cmq, immaginavo che esistesse un programma del genere dato che tempo fa sul CD di una rivista trovai tutto il sito di Ludus (quando non era ancora a pagamento..) da sfogliare offline