Hvordan kan jeg laste ned et helt nettsted?
Du vil ikke bare ha en artikkel eller et individuelt bilde, du vil ha hel nettside. Hva er den enkleste måten å sippe alt på?
Dagens Spørsmål & Svar-sesjon kommer til oss med høflighet av SuperUser-en underavdeling av Stack Exchange, en fellesskapsdrevet gruppering av Q & A-nettsteder.
Bilde tilgjengelig som bakgrunnsbilde på GoodFon.
Spørsmålet
SuperUser leser Joe har en enkel forespørsel:
Hvordan kan jeg laste ned alle sidene fra et nettsted?
En hvilken som helst plattform er bra.
Hver side, intet unntak. Joe er på oppdrag.
Svaret
SuperUser-bidragsyter Axxmasterr tilbyr en anbefaling om søknad:
http://www.httrack.com/
HTTRACK fungerer som en mester for å kopiere innholdet på et helt nettsted. Dette verktøyet kan til og med ta tak i brikkene som trengs for å lage et nettsted med aktivt kodes innholdsarbeid offline. Jeg er overrasket over de tingene det kan kopiere frakoblet.
Dette programmet vil gjøre alt du trenger av det.
God jakt!
Vi kan sterkt anbefale HTTRACK. Det er en moden applikasjon som får jobben gjort. Hva med arkivister på ikke-Windows-plattformer? En annen bidragsyter, Jonik, foreslår et annet modent og kraftig verktøy:
Wget er et klassisk kommandolinjeverktøy for denne typen oppgave. Den leveres med de fleste Unix / Linux-systemer, og du kan få den til Windows også (nyere 1,13.4 tilgjengelig her).
Du vil gjøre noe som helst:
wget -r - no-parent http://site.com/songs/
For mer informasjon, se Wget Manual og dens eksempler, eller ta en titt på disse:
- http://linuxreviews.org/quicktips/wget/
- http://www.krazyworks.com/?p=591
Har du noe å legge til forklaringen? Lyde av i kommentarene. Vil du lese flere svar fra andre tech-savvy Stack Exchange-brukere? Sjekk ut hele diskusjonstråden her.