¿Cómo descargar todas las imágenes de una página web a la vez?

Por ejemplo, me encantan las condecoraciones militares, y aquí está la cinta de servicio de Wikipedia , ¿cómo puedo descargar todas las imágenes de la cinta a la vez en lugar de hacer clic en ellas una por una y luego seleccionar "Guardar imagen como"?

Sería mucho más rápido que lo busques en Google. Por ejemplo , wikihow.com/Download-All-Images-on-a-Web-Page-at-Once
@Jaqenhghar Eso es para Windows, ¿funciona en Mac?

Respuestas (4)

Automatizador

Utilice Automator.app de OS X para buscar, extraer y guardar las imágenes de su página web actual. La combinación de Acciones necesarias son:

  • Obtener la página web actual de Safari
  • Obtener contenido de páginas web
  • Guardar imágenes del contenido web

Para obtener más información sobre el uso de Automator, consulte Conceptos básicos de Mac de Apple: Automator .

Automatizador

Terminal

Un enfoque alternativo es utilizar a curltravés de la línea de comandos, ¿Cuál es la forma más rápida y sencilla de descargar todas las imágenes de un sitio web ?

Sigue siendo relevante en macOS Big Sur. ¡Gracias!

usando wget:

wget http://en.wikipedia.org/wiki/Service_Ribbon -p -A .jpg,.jpeg,.png -H -nd

-p( --page-requisites) descarga recursos como imágenes y hojas de estilo incluso cuando no usa -r. -Aespecifica sufijos o patrones de estilo global para aceptar. -H( --span-hosts) sigue enlaces a otros dominios como upload.wikimedia.org. -nd( --no-directories) descarga todos los archivos al directorio actual sin crear subdirectorios.

Puede instalar wgetcon brew install wgetdespués de instalar Homebrew .

También puede usar curl:

curl example.tumblr.com | grep -o 'src="[^"]*.jpg"' | cut -d\" -f2 | 
        while read l; do curl "$l" -o "${l##*/}"; done

Descarga de imágenes de Tumblr o Blogspot:

api="http://api.tumblr.com/v2/blog/example.tumblr.com/posts?type=photo&api_key=get from tumblr.com/api"
seq 0 20 $(curl -s $api | jq .response.total_posts) |
    while read n; do
        curl -s "$api&offset=$n" |
            jq -r '.response.posts[].photos[].original_size.url'
    done | awk '!a[$0]++' | parallel wget -q

curl -L 'http://someblog.blogspot.com/atom.xml?max-results=499' |
    grep -io 'href="http://[^&]*.jpg' | 
    cut -d\; -f2 |
    awk '!a[$0]++' |
    parallel wget -q
¿De dónde vienes parallel?
Puede instalar parallely jqcon brew install parallel jqdespués de instalar Homebrew o con sudo port install parallel jqdespués de instalar MacPorts .

Usando Firefox (probado con v. 61), sin software adicional:

  1. Busque la pestaña multimedia de la ventana Información de la página. Esto se puede encontrar a través de una de las siguientes maneras:

    • Menú contextual > Ver información de la página > Medios
    • Menú contextual para la imagen > Ver información de la imagen
  2. Seleccione todas las direcciones de imágenes.

  3. Haga clic en Guardar como... y seleccione la carpeta para descargar todas las imágenes.

Puedes usar Firefox y Flashgot, que es una extensión que hace exactamente lo que estás buscando.

Puede encontrar Flashgot en el sitio web oficial de complementos de Mozilla aquí

Flashgot utiliza un administrador de descargas de su elección, ya sea el integrado en Firefox, curl, wget u otros. ¡Personalmente me gusta DownThemAll! .

Hola, bienvenido a AskDifferent. Creo que si vale la pena responder una pregunta, vale la pena votarla. También algunas instrucciones y un enlace pueden obtener más votos a favor. Tómese el tiempo para leer la sección de Respuestas y Preguntas de la página de ayuda .
@Deesbek respuesta ampliada :)