Descargar todas las imágenes de un sitio web completo

Estoy hablando de 1000 imágenes, el formato es algo así como (¡no el sitio real!) travelpics.com/page1-index.html, luego lo mismo y page2, 3, 100, etc.

Estoy usando Firefox y tengo imagehostgrabber, que incluso es inútil para una página porque esta persona usa diferentes hosts, como imagebox, que por alguna razón no se descarga con mi extensión FF. Solía ​​tener downthemall, que creo que también descarga imagebox.

Pero eso no viene al caso. Solo digo que lleva una eternidad hacer clic individualmente en estas imágenes.

Escuché de hTTrack pero también escuché que es muy lento y también guarda todo el sitio web junto, no las imágenes por separado.

Es posible que haya notado que obtiene más o menos "frases de una línea con un enlace" como respuestas. Lo más probable es que se deba a cómo está redactada su pregunta. ¿Podría editarlo y hacer que sus requisitos sean más obvios, por ejemplo, usando viñetas, explicando (o vinculando a) qué se supone que significa "imagebox", nombre su límite de precio, etc.? Para obtener una guía, consulte: ¿ Qué se requiere para que una pregunta contenga "suficiente información"? ¡Gracias por adelantado!
El formato de las imágenes no es travelpics.com/page1-index.html. Edite y diga qué tipo de imágenes .

Respuestas (4)

Utilice WinHTTTrack junto con una herramienta de gestión de archivos como Total Commander .

  • ¿A quién le importa si es lento? Es mucho más rápido que lo que estás haciendo ahora. Déjelo funcionar durante la noche.
  • ¿A quién le importa si el resto del sitio web también se escribe en su disco? Puede seleccionar los archivos de imagen de esa descarga. Tenga en cuenta que el software tiene que descargar los archivos html de todos modos para analizarlos y seguir los enlaces a las imágenes. Además, la mayor parte del tamaño de la descarga serán las imágenes, no las páginas html.

Con WinHTTrack, especifique que debe seguir enlaces a otros sitios web (+ cualquier configuración que desee).
Después de descargar el sitio web, todos los archivos estarán en un árbol de directorios. Busque archivos *.jpg (o cualquier otro formato de nombre) con Total Commander (predeterminado en todos los niveles), elija Alimentar en el cuadro de lista , luego seleccione todos los archivos en ese panel y muévalos a la carpeta de destino que elija.

Luego elimine el (resto del) directorio descargado.

Podría buscar un complemento que le permita desplazarse infinitamente a través de páginas numeradas como el buscapersonas automático y emparejarlo con un descargador automático de imágenes como el que ha usado.

Podría probar Snagit, había una característica como esa en Snagit 10, no veo por qué no estaría en el Snagit 12 actual . Tiene una prueba de 15 días si solo lo necesita por un corto tiempo.

Siempre he usado la opción Grabber en IDM para descargar todos los archivos de una página web. Es rápido y puede definir cuántos niveles de profundidad desea que busque: https://www.premiuminfo.org/download-multiple-files-with-idm-using-grabber/

Si está buscando una versión gratuita, puede ver algunas de las opciones en este enlace a continuación. No los he probado, así que no puedo comentar sobre su funcionalidad. https://www.raymond.cc/blog/cómo-descargar-todos-los-archivos-de-una-carpeta-en-un-sitio-web-o-ftp/