Wie lade ich alle Bilder einer Webseite auf einmal herunter?

Zum Beispiel liebe ich militärische Auszeichnungen, und hier ist das Service Ribbon von Wikipedia . Wie kann ich alle Ribbon-Bilder auf einmal herunterladen, anstatt sie einzeln anzuklicken und dann "Bild speichern unter" auszuwählen?

Es würde viel schneller gehen, wenn Sie es googeln würden. Zum Beispiel wikihow.com/Download-All-Images-on-a-Web-Page-at-Once
@Jaqenhghar Das ist für Windows, funktioniert es auf dem Mac?

Antworten (4)

Automat

Verwenden Sie die Automator.app von OS X , um die Bilder Ihrer aktuellen Webseite zu finden, zu extrahieren und zu speichern. Die Kombination der erforderlichen Aktionen ist:

  • Holen Sie sich die aktuelle Webseite von Safari
  • Inhalte von Webseiten abrufen
  • Speichern Sie Bilder aus Webinhalten

Weitere Informationen zur Verwendung von Automator finden Sie unter Mac-Grundlagen von Apple: Automator .

Automat

Terminal

Ein alternativer Ansatz ist die Verwendung curlüber die Befehlszeile, Was ist der schnellste und einfachste Weg, um alle Bilder von einer Website herunterzuladen ?

Immer noch relevant in macOS Big Sur. Danke dir!

Verwendung wget:

wget http://en.wikipedia.org/wiki/Service_Ribbon -p -A .jpg,.jpeg,.png -H -nd

-p( --page-requisites) lädt Ressourcen wie Bilder und Stylesheets herunter, auch wenn Sie nicht verwenden -r. -Agibt zu akzeptierende Suffixe oder Muster im Glob-Stil an. -H( --span-hosts) folgt Links zu anderen Domains wie upload.wikimedia.org. -nd( --no-directories) lädt alle Dateien in das aktuelle Verzeichnis herunter, ohne Unterverzeichnisse zu erstellen.

Sie können nach der Installation von Homebrewwget mit installieren .brew install wget

Sie können auch einfach verwenden curl:

curl example.tumblr.com | grep -o 'src="[^"]*.jpg"' | cut -d\" -f2 | 
        while read l; do curl "$l" -o "${l##*/}"; done

Herunterladen von Bildern von Tumblr oder Blogspot:

api="http://api.tumblr.com/v2/blog/example.tumblr.com/posts?type=photo&api_key=get from tumblr.com/api"
seq 0 20 $(curl -s $api | jq .response.total_posts) |
    while read n; do
        curl -s "$api&offset=$n" |
            jq -r '.response.posts[].photos[].original_size.url'
    done | awk '!a[$0]++' | parallel wget -q

curl -L 'http://someblog.blogspot.com/atom.xml?max-results=499' |
    grep -io 'href="http://[^&]*.jpg' | 
    cut -d\; -f2 |
    awk '!a[$0]++' |
    parallel wget -q
Wo kommst du her parallel?
Sie können parallelund jqmit brew install parallel jqnach der Installation von Homebrew oder mit sudo port install parallel jqnach der Installation von MacPorts installieren .

Mit Firefox (getestet mit v. 61), ohne Zusatzsoftware:

  1. Suchen Sie die Registerkarte „Medien“ im Fenster „Seiteninformationen“. Dies kann auf eine der folgenden Arten gefunden werden:

    • Kontextmenü > Seiteninformationen anzeigen > Medien
    • Kontextmenü für Bild > Bildinformationen anzeigen
  2. Wählen Sie alle Bildadressen aus.

  3. Klicken Sie auf Speichern unter... und wählen Sie den Ordner aus, in den alle Bilder heruntergeladen werden sollen.

Sie können Firefox und Flashgot verwenden, eine Erweiterung, die ziemlich genau das tut, wonach Sie suchen.

Sie finden Flashgot auf der offiziellen Mozilla-Addons-Website hier

Flashgot verwendet einen Download-Manager Ihrer Wahl, entweder den in Firefox integrierten, curl, wget oder andere. Ich persönlich mag DownThemAll! .

Hallo, willkommen bei AskDifferent, ich finde, wenn eine Frage es wert ist, beantwortet zu werden, lohnt es sich, sie positiv zu bewerten. Auch einige Anweisungen und ein Link können Ihnen mehr Upvotes einbringen. Bitte nehmen Sie sich die Zeit, den Abschnitt „Antworten und Fragen“ auf der Hilfeseite zu lesen .
@Deesbek erweiterte Antwort :)