Time Machine, ZFS y deduplicación

8

Actualmente estoy exportando una partición ZFS con dedup=on usando ubuntu-zfs y netatalk . Sin embargo, time-machine insiste en crear un conjunto disperso en él, y me hizo comenzar a preguntarme si esto tendría algún impacto en la deduplicación, ya que el concepto de "archivos" desaparece, y probablemente la alineación de bloques tampoco sería genial. .

P.S. Mi idea general de usar dedup es que tengo un par de macbooks que hacen copias de seguridad en el mismo lugar, y muchos de sus archivos son iguales.

Addendum: Parece que la alineación a nivel de bloque está fallando dedup. Aquí está mi experiencia:

  • Copias en tiempo de máquina de dos macbooks diferentes, con una gran cantidad de datos duplicados entre ellos (total de 200Gb)
  • CCC los dos macbooks en dos imágenes dispersas.

Factor de desduplicación? 1.01x

¿Alguna idea sobre cómo configurar el DUP de ZFS para que funcione correctamente con las copias de seguridad de la máquina del tiempo? ¿Debo comenzar a buscar otras alternativas de copia de seguridad (con deducción)?

    
pregunta Hugo Sereno Ferreira 09.01.2012 - 04:22

1 respuesta

7

La deduplicación en ZFS es a nivel de bloque, por lo que no depende del concepto de archivos. La única forma de anular la deduplicación es si el desplazamiento de un archivo dentro del sparsebundle no es siempre el mismo módulo que el tamaño de bloque. Dado que ZFS puede usar tamaños de bloque variables que son más grandes que el tamaño de bloque del sistema de archivos HFS + dentro del sparsebundle, no se garantiza la alineación correcta, pero tampoco se garantiza que la deduplicación fallará.

Si te preocupa el espacio, es posible que también desees habilitar la compresión en tu grupo de ZFS. Impone una sobrecarga adicional de la CPU, pero en realidad puede aumentar el rendimiento efectivo del disco.

    
respondido por el user5516 09.01.2012 - 06:17

Lea otras preguntas en las etiquetas