Estoy tratando de encontrar una manera de descargar una URL y convertirla en un PDF.
He encontrado muchas sugerencias sobre cómo convertir archivos PDF en HTML o HTML en PDF, pero no es lo mismo que quiero hacer.
Básicamente, estoy buscando el mismo resultado que si hubiera abierto la página en {insertar navegador de elección} y seleccionado "Imprimir" y luego PDF »Guardar como PDF ...
Pero quiero poder hacerlo todo desde Terminal, de manera automática, para poder alimentarlo con varias URL a la vez y hacer que lo haga todo por mí.
No necesito o quiero recursión a páginas adicionales.
[Nota: He intentado
wget --page-requisites --convert-links
pero no siempre obtiene imágenes que se cargan desde un servidor remoto. Además, suponga para estos ejecutivos que las URL no están detrás de ningún tipo de requisito de inicio de sesión.]