Descarga de lotes de URL desde un archivo .txt

2

Tengo un archivo .txt con URL en una línea separada.

http://www.apple.com
http://www.google.com
http://www.reuters.com

Me gustaría descargar estas páginas web como origen de página (un archivo .html) para poder abrirlas sin conexión en mi navegador web.

Intenté hacer esto con automator, pero no parece funcionar correctamente. El flujo de trabajo de Mi Automator consta de 2 pasos: "Extraer datos del texto" y "Descargar URL". He buscado en la web soluciones ya existentes, pero no he encontrado nada que pueda entender.

¿Puede alguien crear un programa con Automator o Applescript (u otra cosa) para que pueda descargar estas páginas web?

El programa debería funcionar de la siguiente manera:

  1. El programa lee un archivo .txt con URL en una línea separada. (Los El tipo de archivo realmente no importa, siempre que sea simple para su programa: .csv, .pages, .doc, ...)
  2. El programa lee cada URL en el archivo y lo descarga como un archivo .html para que se pueda acceder a las páginas web sin conexión a Internet.
  3. Todos los archivos .html deben guardarse en una carpeta, preferiblemente una carpeta en mi escritorio con el nombre "Archivos html descargados"

Gracias de antemano, Si tiene alguna duda, no dude en preguntar. Responderé lo antes posible.

    
pregunta OlivierVR 04.11.2015 - 14:35

2 respuestas

2

Para usar el siguiente método, deberás instalar wget .

Cree un archivo con la extensión .sh en el mismo directorio que el archivo que contiene los enlaces y agregue este texto:

mkdir ~/Desktop/download

while read line; do wget -E -H --directory-prefix=/Users/username/Desktop/download -k -p $line; done < file.txt

cd ~/Desktop/download

Asegúrese de editar el script y cambiar el nombre de usuario a su nombre de usuario

Esto lee file.txt para las URL y ejecuta el comando wget varias veces con todos los enlaces uno por uno y los guarda en una carpeta llamada descargar en tu escritorio.

Ejecutalo en la terminal con ./script.sh o como sea que lo hayas nombrado. Si muestra Permiso denegado , ejecute chmod a+x script.sh

    
respondido por el TheBro21 04.11.2015 - 15:30
-1

La línea de comandos es más fácil ( enlace ):

Usa wget -i urls.txt

Una forma alternativa, utilizando esta , utilizando Extraer URL del texto y luego Descargar URL. Guardar como un servicio. Seleccione todas las URL, haga clic derecho > Servicios > Descargar URLs

    
respondido por el At0mic 04.11.2015 - 15:52

Lea otras preguntas en las etiquetas