Ich suche nach Software, die eine Website rekursiv durchsucht, um alle Bilder von der gesamten Website herunterzuladen. (Nicht nur von einer einzelnen Webseite.)
Um zu zeigen:
Wenn es sich um eine Website handelt, www.example.com
sollte das Programm alle Bilder herunterladen, die es auf findet www.example.com
. Es sollte auch allen gefundenen Links folgen www.example.com
und dies auch weiterhin tun, um alle Bilder von herunterzuladen www.example.com/*
. Es sollte kategorisch alle Links ignorieren, die von wegführen www.example.com
, aber keine Links wie images.example.com/picture.jpg
.
Das Programm muss kostenlos, aber nicht unbedingt Open Source sein.
Das Programm sollte unter Windows laufen.
HTTrack ist ein kostenloses (GPL, libre/free software) und benutzerfreundliches Offline-Browser-Dienstprogramm.
Um nur Bilder zu spiegeln, müssen Sie die Scan-Regeln richtig festlegen.
Beschränken Sie den externen Tiefendownload und stellen Sie sicher, dass Sie über geeignete Bildfilter verfügen (Optionen > Scanregeln). Das Folgende akzeptiert alle gefundenen Bilder, auch wenn sie von anderen Servern verlinkt sind:
+*.gif +*.jpg +*.png +*.bmp
Die WFDownloader-App kann Bilder herunterladen, während eine Website gecrawlt wird. Es erfüllt auch Ihre anderen Kriterien, wie z. B. kostenlos zu sein und unter Windows ausgeführt werden zu können. Dazu nutzen Sie den Crawler-Modus.
Download them all , ist ein Add-on für Firefox, mit dem Sie alles von einer ausgewählten Webseite herunterladen können (Sie können nur nach Bildern filtern).
ImgDownloader kann die Arbeit sehr effizient erledigen. Ich habe es persönlich für einige Aufgaben verwendet und es hat gut für mich funktioniert.
Izzy
Nikolaus Raul
Benutzer22923