Web-Seiten komplett (rekursiv) speichern ?

Dieses Thema im Forum "Software allgemein" wurde erstellt von BratHering, 3. April 2004.

Status des Themas:
Es sind keine weiteren Antworten möglich.
  1. BratHering

    BratHering Megabyte

    Registriert seit:
    17. Juni 2002
    Beiträge:
    1.382
    hallo,

    ich bin auf der Suche nach einem Programm (möglichst FreeWare), mit dem man Web-Seiten KOMPLETT mit allem inhalt, d. h. scripten, Multimedia-Content (Bilder, Videos) und mit allen verlinkten UnterSeiten auf die festplatte bannen kann...

    kennt jemand vielleicht ein solches?


    MfG
    Br@tHering
     
  2. ign

    ign Megabyte

    Registriert seit:
    18. November 2000
    Beiträge:
    1.042
  3. BratHering

    BratHering Megabyte

    Registriert seit:
    17. Juni 2002
    Beiträge:
    1.382
    vielen herzlichen dank @ all :) .
    jetzt hab ich was ich wollte.


    MfG
     
  4. pcw_user

    pcw_user Byte

    Registriert seit:
    7. Februar 2004
    Beiträge:
    21
  5. sarkastic_one

    sarkastic_one Halbes Megabyte

    Registriert seit:
    4. März 2002
    Beiträge:
    902
    Ich verwende dieses WGet .

    Einzelne Dateien lade ich so
    Code:
    wget -N --passive-ftp <datei-url>
    FTP-Verzeichnisse so
    Code:
     wget -r -N --passive-ftp <ftp-url>
     
  6. Rattiberta

    Rattiberta Halbes Gigabyte

    Registriert seit:
    22. März 2003
    Beiträge:
    5.526
  7. BratHering

    BratHering Megabyte

    Registriert seit:
    17. Juni 2002
    Beiträge:
    1.382
    wow, danke für die schnellen, antworten, also dieses spider ist genau das was ich gesucht habe...


    aber noch eine frage an "sarkastic_one":
    meinst du mit WGET etwa das GNU Wget? - weil ich habe das reinzufällig ebenfalls auf meinem rechner in CygWin.

    ich habe eben "wget --help" eingegeben und tatsächlich da sind ja ewig viele parameter funktionen...

    also heisst das, damit könnte man auch eine Website OHNE fremdlinks aber mit eigenen Links und multimedia inhalten speichern?

    kannst du mir vielleicht auch ein parameter beispiel nennen, wie man das benutzen könnte?


    MfG
     
  8. sarkastic_one

    sarkastic_one Halbes Megabyte

    Registriert seit:
    4. März 2002
    Beiträge:
    902
    Für einfache Sachen verwende ich WGet (Windows-Version) und für "komplexere" (ganze Websites inklusive Fremdlinks) leech.

    WGet ist komplett frei, aber es modifiziert die Links in den Html-Seiten nicht. Das Image ist also nicht lokal/offline lauffähig. Leech korrigiert die Links und erzeugt ein vollständiges und lauffähiges Abbild - ist aber Shareware und auf 25 Images beschränkt.
     
  9. Gast

    Gast Guest

Status des Themas:
Es sind keine weiteren Antworten möglich.

Diese Seite empfehlen