ich möchte mir gerne ein Webseite per wget
im Hintergrund auf die Festplatte holen.
bekomme jedoch nur die index.html.
Sieht jemand von euch meinen Fehler?
wget --recursive --level=10 -convert-links --limit-rate=5k --html-
extension -nH -p http://www.toc2rta.com/ &
Gruß, Gerald
Hallo Gerald,
> ich möchte mir gerne ein Webseite per wget
> im Hintergrund auf die Festplatte holen.
> bekomme jedoch nur die index.html.
> Sieht jemand von euch meinen Fehler?
der Fehler liegt nicht am wget:
$ wget -Y off http://www.toc2rta.com/
- --13:42:04-- http://www.toc2rta.com/
=> `index.html'
Auflösen des Hostnamen »www.toc2rta.com«.... 66.252.8.75
Verbindungsaufbau zu www.toc2rta.com|66.252.8.75|:80... verbunden.
HTTP Anforderung gesendet, warte auf Antwort... 301 Moved Permanently
Platz: http://mirror.toc2rta.com/index.php/Main_Page[folge]
- --13:42:05-- http://mirror.toc2rta.com/index.php/Main_Page
=> `Main_Page.1'
Auflösen des Hostnamen »mirror.toc2rta.com«.... 66.252.8.75
Verbindungsaufbau zu mirror.toc2rta.com|66.252.8.75|:80... verbunden.
HTTP Anforderung gesendet, warte auf Antwort... 200 OK
> wget --recursive --level=10 -convert-links --limit-rate=5k --html-
> extension -nH -p http://www.toc2rta.com/ &
Der Webserver unter www.toc2rta.com schickt Deinem wget einen redirect (301
Moved Permanently) auf einen anderen Webserver. Wget holt im rekursiven
Modus standardmäßig aber nur Dateien von dem in der URL angegebenen Server.
Du hast zwei Möglichkeiten:
1. Du gibst die URL an, die Dir der erste Webserver zurückschickt.
2. Du übergibst Wget den Parameter --span-hosts. Dann verfolgt wget jedoch
alle Links, egal wohin sie zeigen.
Gruß, Hans-Peter
- --
(°< Hans-Peter Bock, Dipl.-Ing., http://www.isw.uni-stuttgart.de/ >°)
(/) ISW - Universität Stuttgart, Seidenstraße 36, 70174 Stuttgart (\)
- ---------------------------------------------------------------------
Steuerungstechnisches Forum'05 - http://stf2005.isw.uni-stuttgart.de/
-----BEGIN PGP SIGNATURE-----
Version: GnuPG v1.4.1 (GNU/Linux)
iQEVAwUBQ1eDYFsH0RM0g3luAQIt5AgAk94VUUXLVEhs3fvo4/jF7GXYuMM5C25J
lBvCpFhdxskLXpOLHjkPuwZoncSFsF3P875lywFIpCyd2nj8U5z+kYj0Cl8s/qdW
sPCbih9iYfs9f3W79DXXOOKyCDVxC5ChMpb9FQ8AuPYLsyydVvElh4D6Iksek0rd
NepVzUj3bwomxiPsLs0i0gr6m0DgGZiRyt170qwR9z6hriXrFfShkh69gkZMNbDo
s/J1aDpgtuiY0TtYBZog8nmWAhZTKSlg5ATEOu2SNcY83HSFapXXxMGkONNj2O0H
wvSEsE8oJWjUUaEQlm1XFsfkLtLg7cKlFeVmR5S/lIP74RRNZG6n1g==
=utC5
-----END PGP SIGNATURE-----
> Von : Hans-Pe...@isw.uni-stuttgart.de (Do, 20.10.05 13:45)
>
> > ich möchte mir gerne ein Webseite per wget
> > im Hintergrund auf die Festplatte holen.
>
> 1. Du gibst die URL an, die Dir der erste Webserver zurückschickt.
>
> 2. Du übergibst Wget den Parameter --span-hosts. Dann verfolgt wget jedoch
> alle Links, egal wohin sie zeigen.
Prima. Jetzt funktionierts. :-)
Danke.
Gruß, Gerald