Obtener texto de varias páginas web no funciona si una URL está desactivada

0

He creado un flujo de trabajo simple en Automator que extraerá texto de una lista de URL y los guardará en un archivo de texto.

Las acciones son:

  • Obtener texto especificado
  • Obtener texto de la página web
  • Nuevo archivo de texto

Cuando hay un problema con una de las URL, Automator lanza un error y deja de funcionar. ¿Es posible hacer que ignore la URL del problema y continúe?

    
pregunta henry 27.02.2013 - 03:19

2 respuestas

1

El motivo es que el "Obtener texto especificado" no permite devoluciones (si está colocando más de una línea de texto).

Para poder solucionar este problema (el mío era similar), encontré un paquete de acciones de texto de automator en línea y lo compré (muy barato). Lo puedes encontrar aquí:

enlace

    
respondido por el Philippe Dube 28.02.2013 - 03:03
0

¿Podrías usar curl o wget en su lugar?

for u in $(cat urls.txt); do curl -L "$u"; done > output.txt
brew install wget
wget -i urls.txt -U mozilla -O output.txt
    
respondido por el user495470 27.02.2013 - 07:40

Lea otras preguntas en las etiquetas