¿Hay alguna manera de que pueda ejecutar un script con una determinada página web como argumento que descargará todas las imágenes desde allí?
Puede usar un flujo de trabajo de Automator para descargar imágenes incrustadas en una página web o imágenes vinculadas desde una página web. Un buen punto de partida para un flujo de trabajo es:
Puede cambiar el flujo de trabajo para usar una lista de páginas web para buscar.
Automator se incluye con Mac OS X en la Applications > Utilities
carpeta.
Lynx -dump
podría funcionar en la descarga pero mucho análisis, ¿no hay un método más fácil? -1 a menos que se aclare el segundo punto: puede ser mucho trabajo...wget -nd -r -l1 -p -np -A jpg,jpeg,png,svg,gif -e robots=off http://www.apple.com/itunes/
Si las imágenes están en un host o subdominio diferente, debe agregar -H para abarcar hosts:
wget -nd -H -p -A jpg,jpeg,png,gif -e robots=off http://example.tumblr.com/page/{1..2}
También puedes usar curl:
cd ~/Desktop/; IFS=$'\n'; for u in $(curl -Ls http://example.tumblr.com/page/{1..2} | sed -En 's/.*src="([^"]+\.(jpe?g|png))".*/\1/p' | sort -u); do curl -s "$u" -O; done
-L sigue a los encabezados de ubicación (redireccionamientos). -O envía archivos al directorio actual con los mismos nombres.
Aquí hay una solución hacky (pero funciona). Espero que alguien pueda encontrar uno mejor.
En Terminal, usa wget --page-requisites http://example.com/
. Esto descargará la página web en example.com y todos los recursos vinculados desde ella (como imágenes, hojas de estilo y scripts). Más información sobre --page-requisites. Nota: Puede agregar muchas URL separadas por espacios para descargar muchas a la vez. Si muchos son del mismo servidor, debe usar algo comowget --wait=2
para evitar sorber archivos demasiado rápido.
Abra la carpeta en la que descargó esos archivos y use Spotlight para separar las imágenes de los otros archivos. Asumiré que tienes Mountain Lion. Escribe "Imagen" en el campo de búsqueda y selecciona Tipos > Imagen.
wget
el agente de usuario. En el segundo caso, puede intentar usar wget -U "enter your web browser's user-agent here"
para fingir que es un navegador web real.Lynx -dump
y analizar todas las URL de imágenes allí o tal vez algún raspador, tratando de encontrar una mejor solución, aunque esto es bueno. ¿Podría explicar cómo obtuvo GNU coreutils en OS X?Si conoce el patrón en la URL, podría usar la solución *ix con Curl: ¿Usar curl para descargar imágenes del sitio web usando comodines?
Consulte Automator Space en MyAppleSpace http://www.myapplespace.com/pages/view/14664/automator-script-library
bmike