Линус Торвальдс утвердил включение в состав Linux-ядра 2.6.34 кода файловой системы Ceph, способной поддерживать работу хранилища объемом в несколько петабайт (1 Пб = 1024 Тб), распределенного по тысячам машин. В запросе
на интеграцию Ceph в состав ядра сообщается, что последние несколько
месяцев стабильность работы Ceph была существенно улучшена и компания
Red Hat собирается включить поддержку работающей на уровне пользователя
реализации Ceph в дистрибутив Fedora 13.

  Встроенные в Ceph механизмы репликации данных (данные
разбиваются на блоки и несколько раз дублируются на разных машинах)
обеспечивают чрезвычайно высокую живучесть системы. При добавлении или
удалении новых узлов, массив данных автоматически ребалансируется с
учетом изменения конфигурации. В Ceph имеется поддержка снапшотов,
причем снапшот может быть создан не только для ФC, но и для отдельных
директорий.

  В отличии от таких файловых систем, как GFS, OCFS2, и GPFS, в
Ceph обработка данных и метаданных разделена на различные группы узлов
в кластере, примерно как это сделано в Lustre, с тем различием, что
обработка производится на уровне пользователя, не требуя какой-либо
особой поддержки от ядра (для включения в 2.6.34 предложен код
высокопроизводительного Ceph-клиента). Ceph может работать поверх
блочных устройств, внутри одного файла или через размещение данных в
существующих ФС (например, XFS).

  Дополнение: сегодня на сайте Ceph анонсирован
интересный новый проект RBD — драйвер блочных устройств для qemu/KVM,
позволяющий организовать хранилище для виртуальной машины, работающее
поверх распределенной инфраструктуры Ceph. Так как данные в Ceph
реплицируются на несколько узлов RBD позволяет легко организовать
процесс миграции виртуальной машины с одного узла на другой.
Карта сайта: 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19, 20, 21, 22, 23, 24, 25, 26, 27, 28, 29, 30, 31, 32, 33, 34