Software zum Herunterladen aller Bilder einer gesamten Website

Ich suche nach Software, die eine Website rekursiv durchsucht, um alle Bilder von der gesamten Website herunterzuladen. (Nicht nur von einer einzelnen Webseite.)

Um zu zeigen:

Wenn es sich um eine Website handelt, www.example.comsollte das Programm alle Bilder herunterladen, die es auf findet www.example.com. Es sollte auch allen gefundenen Links folgen www.example.comund dies auch weiterhin tun, um alle Bilder von herunterzuladen www.example.com/*. Es sollte kategorisch alle Links ignorieren, die von wegführen www.example.com, aber keine Links wie images.example.com/picture.jpg.

Das Programm muss kostenlos, aber nicht unbedingt Open Source sein.

Das Programm sollte unter Windows laufen.

Software für AmigaOS OK – oder doch lieber Atari TOS? ;)
Soll es URLs wie www.example.com/page.php?id=4875 oder www.example.com/post.php?name=ibid crawlen?
@NicolasRaoul - Ich bin mir nicht sicher, was das ist. Ich habe sie noch nie auf der fraglichen Seite gesehen, also würde ich annehmen, nein. Das einzige "?" Modifikatoren, die ich dort gesehen habe, beschneiden die Bilder (die ich lieber entfernen würde, da ich das Bild in voller Größe haben möchte.)

Antworten (4)

HTTrack ist ein kostenloses (GPL, libre/free software) und benutzerfreundliches Offline-Browser-Dienstprogramm.

Um nur Bilder zu spiegeln, müssen Sie die Scan-Regeln richtig festlegen.

Beschränken Sie den externen Tiefendownload und stellen Sie sicher, dass Sie über geeignete Bildfilter verfügen (Optionen > Scanregeln). Das Folgende akzeptiert alle gefundenen Bilder, auch wenn sie von anderen Servern verlinkt sind:

 +*.gif +*.jpg +*.png +*.bmp  
Das einzige Problem ist, dass alle Links zu Bildern auf der Website Abfragezeichenfolgen enthalten, um die Bilder zuzuschneiden und zu verkleinern. Ich möchte die Bilder in voller Größe. Gibt es eine Möglichkeit, httrack zu verwenden, um Abfragezeichenfolgen beim Herunterladen zu ignorieren?

Die WFDownloader-App kann Bilder herunterladen, während eine Website gecrawlt wird. Es erfüllt auch Ihre anderen Kriterien, wie z. B. kostenlos zu sein und unter Windows ausgeführt werden zu können. Dazu nutzen Sie den Crawler-Modus.

  1. Öffnen Sie die Anwendung und gehen Sie zu Aufgaben > Batch-Download über manuellen Link-Fetcher hinzufügen.
  2. Geben Sie die URL ein, von der aus Sie die Suche starten möchten, wählen Sie „Crawler-Modus“ und klicken Sie auf „Weiter“.
  3. Wählen Sie „Bilder“ als das, was Sie herunterladen möchten. Sie können die verschiedenen Filter verwenden, um zu filtern, welche Seiten gecrawlt oder welche Bilder abgerufen werden.
  4. Klicken Sie auf „Suchen“.

Download them all , ist ein Add-on für Firefox, mit dem Sie alles von einer ausgewählten Webseite herunterladen können (Sie können nur nach Bildern filtern).

Um das OP zu zitieren: Ich suche nach Software, die eine Website rekursiv durchsucht, um alle Bilder von der gesamten Website herunterzuladen. (Nicht nur von einer einzelnen Webseite .)

ImgDownloader kann die Arbeit sehr effizient erledigen. Ich habe es persönlich für einige Aufgaben verwendet und es hat gut für mich funktioniert.