¿Puedo descargar todas las imágenes en una página?

6

¿Hay alguna manera de ejecutar un script con una determinada página web como argumento para descargar todas las imágenes desde allí?

    
pregunta JShoe 16.01.2013 - 05:09

5 respuestas

7

Puede usar un flujo de trabajo de Automator para descargar imágenes incrustadas en una página web o imágenes vinculadas desde una página web. Un buen punto de partida para un flujo de trabajo es:

  1. Obtener la página web actual de Safari
  2. Obtener URL de imágenes de la página web
  3. Descargar URLs

Puede cambiar el flujo de trabajo para usar una lista de páginas web para obtener.

Automator se incluye con Mac OS X en la carpeta Applications > Utilities .

    
respondido por el Graham Miln 17.01.2013 - 18:45
6
wget -nd -r -l1 -p -np -A jpg,jpeg,png,svg,gif -e robots=off http://www.apple.com/itunes/
  • -nd (sin directorios) descarga todos los archivos al directorio actual
  • -r -l1 (nivel recursivo 1) descarga las páginas y los recursos vinculados en la primera página
  • -p (requisitos de página) también incluye recursos en páginas vinculadas
  • -np (no principal) no sigue los enlaces a los directorios principales
  • -A (aceptar) solo descarga o conserva archivos con las extensiones especificadas
  • -e robots = off ignora robots.txt y no descarga un archivo robots.txt al directorio actual

Si las imágenes están en un host o subdominio diferente, debe agregar -H para abarcar hosts:

wget -nd -H -p -A jpg,jpeg,png,gif -e robots=off http://example.tumblr.com/page/{1..2}

También puedes usar curl:

cd ~/Desktop/; IFS=$'\n'; for u in $(curl -Ls http://example.tumblr.com/page/{1..2} | sed -En 's/.*src="([^"]+\.(jpe?g|png))".*//p' | sort -u); do curl -s "$u" -O; done

-L sigue los encabezados de ubicación (redirecciones). -O envía los archivos al directorio actual con los mismos nombres.

    
respondido por el user495470 17.01.2013 - 16:12
4

Aquí hay una solución hacky (pero funciona). Espero que alguien pueda encontrar uno mejor.

  1. En la Terminal, use wget --page-requisites http://example.com/ . Esto descargará la página web en example.com y todos los recursos vinculados desde ella (como imágenes, hojas de estilo y scripts). Más información sobre los requisitos de la página. Nota: Usted Puede agregar muchas URL separadas por espacios para descargar muchos de ellos a la vez. Si muchos son del mismo servidor, deberías usar algo como wget --wait=2 para evitar reducir demasiado rápido los archivos.

  2. Abra la carpeta donde descargó esos archivos y use Spotlight para separar las imágenes de los otros archivos. Voy a asumir que tienes Mountain Lion. Escriba "Imagen" en el campo de búsqueda y seleccione Clases > Imagen.

respondido por el Kevin Chen 16.01.2013 - 08:31
0

Si conoce el patrón en la url, puede usar la solución * ix con Curl: ¿Usar curl para descargar imágenes del sitio web usando comodines?

    
respondido por el hhh 07.02.2013 - 00:58
0

Revisa el espacio de Automator en MyAppleSpace enlace

    
respondido por el brian 29.08.2014 - 21:38

Lea otras preguntas en las etiquetas