Laden Sie alle Bilder von einer ganzen Website herunter

Ich spreche von 1000 Bildern, das Format ist so etwas wie (nicht die echte Seite!) travelpics.com/page1-index.html dann dasselbe und Seite2, 3, 100 usw.

Ich verwende Firefox und habe imagehostgrabber, der für die eine Seite sogar nutzlos ist, da diese Person verschiedene Hosts verwendet, wie z. B. imagebox, die aus irgendeinem Grund nicht von meiner FF-Erweiterung heruntergeladen werden. Früher hatte ich Downthemall, von dem ich glaube, dass es auch Imagebox herunterlädt.

Aber das ist nebensächlich. Ich sage nur, es dauert ewig, diese Bilder einzeln anzuklicken.

Ich habe von hTTrack gehört, aber auch gehört, dass es sehr langsam ist und auch die gesamte Website zusammen speichert, nicht Bilder separat.

Sie haben vielleicht bemerkt, dass Sie mehr oder weniger "1-Zeilen mit einem Link" als Antworten erhalten. Dies liegt höchstwahrscheinlich an der Formulierung Ihrer Frage. Könnten Sie es bitte bearbeiten und Ihre Anforderungen deutlicher machen, z. B. Aufzählungszeichen verwenden, erklären (oder verlinken), was "Imagebox" bedeuten soll, Ihr Preislimit nennen usw.? Eine Anleitung finden Sie unter: Was ist erforderlich, damit eine Frage „genügend Informationen“ enthält? Danke im Voraus!
Das Format der Bilder ist nicht travelpics.com/page1-index.html. Bitte bearbeiten Sie und sagen Sie, welche Art von Bildern.

Antworten (4)

Verwenden Sie WinHTTTrack zusammen mit einem Dateiverwaltungstool wie Total Commander .

  • Wen interessiert es, wenn es langsam ist? Es ist viel schneller als das, was Sie jetzt tun. Über Nacht laufen lassen.
  • Wen interessiert es, ob der Rest der Website auch auf Ihre Festplatte geschrieben wird? Sie können die Bilddateien aus diesem Download auswählen. Beachten Sie, dass die Software die HTML-Dateien trotzdem herunterladen muss , um sie zu analysieren und den Links zu den Bildern zu folgen. Außerdem besteht der Großteil der Downloadgröße aus den Bildern, nicht aus den HTML-Seiten.

Geben Sie mit WinHTTrack an, dass es Links zu anderen Websites folgen soll (+ beliebige Einstellungen).
Nachdem die Website heruntergeladen wurde, befinden sich alle Dateien in einem Verzeichnisbaum. Suchen Sie mit Total Commander (standardmäßig alle Ebenen) nach *.jpg-Dateien (oder einem anderen Namensformat), wählen Sie Zuführen zum Listenfeld , wählen Sie dann alle Dateien in diesem Bereich aus und verschieben Sie sie in einen Zielordner Ihrer Wahl.

Entfernen Sie dann das (Rest des) heruntergeladenen Verzeichnisses.

Sie könnten sich ein Addon ansehen, mit dem Sie endlos durch nummerierte Seiten scrollen können, wie z. B. Autopager , und es mit einem automatischen Bild-Downloader koppeln, wie Sie ihn verwendet haben.

Sie könnten Snagit ausprobieren, es gab eine solche Funktion in Snagit 10, ich verstehe nicht, warum es nicht in der aktuellen Version von Snagit 12 enthalten sein sollte . Es hat eine 15-tägige Testversion, wenn Sie es nur für kurze Zeit benötigen.

Ich habe immer die Grabber-Option in IDM verwendet, um alle Dateien von einer Webseite herunterzuladen. Es ist schnell und Sie können festlegen, wie viele Ebenen tief gesucht werden soll: https://www.premiuminfo.org/download-multiple-files-with-idm-using-grabber/

Wenn Sie nach einer kostenlosen Version suchen, können Sie sich einige der Optionen in diesem Link unten ansehen. Ich habe sie nicht ausprobiert, kann also nichts über ihre Funktionalität sagen. https://www.raymond.cc/blog/how-to-download-all-files-from-a-folder-on-a-website-or-ftp/