1. Liebe Forumsgemeinde,

    aufgrund der Bestimmungen, die sich aus der DSGVO ergeben, müssten umfangreiche Anpassungen am Forum vorgenommen werden, die sich für uns nicht wirtschaftlich abbilden lassen. Daher haben wir uns entschlossen, das Forum in seiner aktuellen Form zu archivieren und online bereit zu stellen, jedoch keine Neuanmeldungen oder neuen Kommentare mehr zuzulassen. So ist sichergestellt, dass das gesammelte Wissen nicht verloren geht, und wir die Seite dennoch DSGVO-konform zur Verfügung stellen können.
    Dies wird in den nächsten Tagen umgesetzt.

    Ich danke allen, die sich in den letzten Jahren für Hilfesuchende und auch für das Forum selbst engagiert haben. Ich bin weiterhin für euch erreichbar unter tti(bei)pcwelt.de.
    Dismiss Notice

Website vollständig runterladen

Discussion in 'Web-Know-how für die Homepage' started by h3llghost, Aug 11, 2006.

Thread Status:
Not open for further replies.
  1. h3llghost

    h3llghost Kbyte

    Hallo Leute
    ich suche ein Programm welches einfach zu bedienen ist und mit dem ich eine Website oder ein Webverzeichnis runterladen kann.
    Es soll die Möglichkeit bieten dass man Einstellungen machen kann, um zu bestimmen ob er nur in die Tiefe gehen soll oder nicht, etc.

    Kennt ihr solch ein Programm?
    Wenn möglich gleich ein 64-Bit taugliches Programm.
    Wenn es nicht 64-bit tauglich ist ist es auch nicht so schlimm.
     
  2. steppl

    steppl Halbes Gigabyte

    Einen Browser! Oder eine Verknüpfung wie

    ftp://"Zugangsnummer":"Passwort@www.domain.de/

    Oder einen FTP-Client?
    http://www.smartftp.com/download/index.php?lang=de
     
  3. binauchhier

    binauchhier Kbyte

  4. lightdisc

    lightdisc Halbes Megabyte

    >>Webspider<< Einfach zu bedienen und ich glaub genau nach deinen Vorstellungen.
     
  5. Nick Mike

    Nick Mike Halbes Megabyte

    HTTrack ist ganz gut, versagt aber wenn der Webseitenbetreiber solche Robots ausschließt.

    Ich suche auch nach einer Möglichkeit sowas zu umgehen.
     
  6. mroszewski

    mroszewski Viertel Gigabyte

    dann hast du dir die Dokumentation nicht durchgelesen, im Reiter Spider unter Eigenschaften kannst du die Robots.txt auf ignorieren stellen, sodaß solche Webseiten, die robots.txt im root haben trotzdem heruntergeladen werden können.
     
  7. Hi
    contentsaver kostet in der vollversion zwar geld aber man kann alle seiten in einer eigenen ordnerstructur ablegen. Die seiten werden so comprimiert das 100 websiten auf ner floppy passen. Fuer leute die oefter mal was schnell abspeichern und den ueberblick behalten wollen istes meiner meinug nach lohnenswert.
    Ich zb speichere damit auch mein emails die ich online durchlese.
    Und die mitgelieferte suchfunkzion brauche ich sehr haufig.
    www.macropool.de/en/download/contentsaver/index.html
    fur firefox gibt es einen plugin.
    das program hiess frueher uebrigens internetsammler
     
  8. kalweit

    kalweit Hüter der Glaskugel

  9. h3llghost

    h3llghost Kbyte

    brauche HIlfe bei Httrack.
    wie setze ich einen Referrer???
     
  10. binauchhier

    binauchhier Kbyte

    wozu einen Referrer? Was hast du vor :?
     
  11. h3llghost

    h3llghost Kbyte

    eine Website runterladen aber das will nicht so wie ich will.
    Und ich bin der Meinung das hat mit Referer zu tun da ich von einer anderen Seite auf die Seite weitergeleitet wurde.
     
  12. mroszewski

    mroszewski Viertel Gigabyte

    dann geh auf die Seite und lade von dort
    übernimm nicht die adresse von der Adreßzeile des Browsers, sondern gehe auf die betreffende Webseite und mache Rechtklick, im Menü auf Eigenschaften (du mußt auf der Seite im Text klicken, nicht auf einer Grafik oder sonstigem) und dann steht in dem Eigenschaften-Fenster die reale Adresse, welche dann du in winhttrack übernimmst, und du solltest die Robots in winhttrack abschalten, steht in meinem Beitrag weiter oben.
     
Thread Status:
Not open for further replies.

Share This Page