Минус 50% нагрузки на процессор и защита от сбоев. В Linux впервые за 15 лет обновят систему хранения данных
NewsMakerПочему обновление Linux 7.x создаст проблемы системным инженерам.
В ядре Linux готовят одно из самых крупных обновлений подсистемы хранения данных за последние годы. Разработчики решили вдохнуть новую жизнь в DRBD – технологию, о которой многие уже успели забыть.
Кристоф Бёмвальдер из компании LINBIT отправил в рассылку ядра первую серию патчей для глубокой переработки DRBD 9. Задача простая по формулировке, но сложная по исполнению: привести встроенную в ядро версию к актуальному состоянию. Сейчас в Linux до сих пор используется DRBD 8, появившийся ещё во времена ядра 2.6.33, и с тех пор встроенный код отстал от внешнего модуля примерно на 10–15 лет.
DRBD превращает несколько серверов в единое хранилище. Система выглядит как обычный диск, но на деле данные синхронно копируются между узлами. При записи информация сразу отправляется на другие машины, а при отказе одного сервера работа продолжается за счёт оставшихся. Когда узел возвращается в строй, содержимое автоматически синхронизируется.
Новая версия меняет архитектуру. Вместо старой схемы «узел к узлу» вводят полноценную работу с несколькими участниками кластера. Один кластер может включать до 32 узлов, причём серверы могут находиться как в одной сети, так и в разных центрах обработки данных. Данные передаются между ними по цепочке, без единой точки отказа.
В ядре Linux готовят одно из самых крупных обновлений подсистемы хранения данных за последние годы. Разработчики решили вдохнуть новую жизнь в DRBD – технологию, о которой многие уже успели забыть.
Кристоф Бёмвальдер из компании LINBIT отправил в рассылку ядра первую серию патчей для глубокой переработки DRBD 9. Задача простая по формулировке, но сложная по исполнению: привести встроенную в ядро версию к актуальному состоянию. Сейчас в Linux до сих пор используется DRBD 8, появившийся ещё во времена ядра 2.6.33, и с тех пор встроенный код отстал от внешнего модуля примерно на 10–15 лет.
DRBD превращает несколько серверов в единое хранилище. Система выглядит как обычный диск, но на деле данные синхронно копируются между узлами. При записи информация сразу отправляется на другие машины, а при отказе одного сервера работа продолжается за счёт оставшихся. Когда узел возвращается в строй, содержимое автоматически синхронизируется.
Новая версия меняет архитектуру. Вместо старой схемы «узел к узлу» вводят полноценную работу с несколькими участниками кластера. Один кластер может включать до 32 узлов, причём серверы могут находиться как в одной сети, так и в разных центрах обработки данных. Данные передаются между ними по цепочке, без единой точки отказа.