Cuando muevo un archivo grande entre carpetas, me doy cuenta de que Time Machine toma mucho tiempo en la próxima copia de seguridad por hora. Aparentemente, es bastante estúpido y considera un movimiento de archivo como una eliminación y una adición de un archivo completamente nuevo ...
Dado que mis copias de seguridad son bastante grandes, me gustaría reducirlas eliminando los archivos duplicados en los conjuntos de copias de seguridad. ¿Sería seguro ejecutar simplemente fdupes o un programa similar en los conjuntos de copia de seguridad? Si no es así, ¿sería razonable utilizar un script personalizado que reemplace a cada duplicado encontrado con un enlace físico al archivo duplicado?