Es la diferencia entre el valor decimal y el prefijo binario .
En este caso, significa que estás utilizando 0 bytes binarios.
¿Cuál es la diferencia?
Usando "Giga" como nuestro ejemplo, significa 1000 3 de algo (es decir, Gigahertz).
En las computadoras plantea un problema interesante:
Un Gigabyte es 1000 3 bytes. Sin embargo, un byte es de 8 bits (binarios). Lo que significa que técnicamente son 1024 3 bytes. Para dar cuenta de esto, usamos diferentes notaciones:
- Giga es decimal (base 10)
- Gibi es binario (base 2)
La salida le indica que está utilizando unidades binarias.
Si desea obtener la salida en "notación decimal legible por humanos", use una "H" mayúscula:
$ df -H
/dev/disk2 1.1T 413G 706G 37% 100935848 172431606 37%
map auto_home 0B 0B 0B 100% 0 0 100% /home
Finalmente, en realidad no es una convención de Apple, sino una de BSD (es un comando BSD). Puede encontrar más información en la página del manual ( man df
).