Majestio писал(а):
Хотя один момент есть. Где-то читал, что ZFS не требует софта дефрагментации. Поверил на слово.
В теории, из-за copy-on-write и засилия деревьев, требует даже больше классических ФС. На практике механизма дефрагментации кроме бэкапа/пересоздания пула/восстановления нет, и считается что сделать его весьма нетривиально. Но на самом деле ситуации, где это реально влияет на производительность, встречаются весьма нечасто. А когда встречаются, эффект от дефрагментации продержится недолго, а если учесть что дефрагментация сама по себе требует I/O, общий эффект может оказаться и отрицательным.
Majestio писал(а):
Поставил (под линухом правда, Funtoo Linux) одинаковый софт на ZFS и на ext4. Во втором случае прошелся дефрагментатором и скруббером, в первом только скруббером. Потом образы сжал по максимуму LZMA. Образ с машиной на ext4 сжался примерно в 3 раза лучше. Непонятки.
Этот тест не имеет никакого смысла. Что он должен был, по-вашему, показать? Пустое пространство на диске содержит удалённые данные и не использующиеся структуры ФС, так как это всё никто не чистит - их размер вы и посчитали, и у ZFS с версионностью и copy-on-write их ожидаемо больше. О фрагментации этот тест не скажет ничего, поскольку даже максимальная фрагментация при размере блока ФС (десятки-сотни килобайт) на сжатие никак не повлияет. scrub, к слову, на диски ничего не пишет (по крайней мере пока не встретит ошибку чтения), так что на тест не влияет, а в вашем случае не влияет и дефраментация, поскольку данные, очевидно, и не были фрагментированы. В общем случае дефрагментация только увеличила бы размер образа.