Кластерная самба
Jan. 31st, 2008 01:24 pmВ Мельбурне проходит восьмая конференция Linux.conf.au. Как всегда, на конференции по сути подводятся итоги прошедшего года и разработчики рассказывают о своих достижениях. Andrew Tridgell, автор Samba и rsync, сегодня демонстрировал то, чем мы занимались целый год в рамках SOFS (Scale-Out File Services, коммерческое решение от IBM) и что доступно под названием "Кластерная Самба" под лицензией GNU GPL.
Видео доклада: http://mirror.linux.org.au/pub/linux.conf.au/2008/Thu/mel8-178.ogg (OGG Theora).
Сайт проекта: http://ctdb.samba.org/
Не обошлось и без шуток, как обычно: на этот раз Ронни Сальберг, автор Wireshark и один из авторов алгоритмов, лежащих в основе кластерной Самбы, в качестве демонстрации концепций "активного-пассивного" и "активного-активного" кластеров предложил рассмотреть рок-концерт, на котором выступают одновременно с одной и той же песней Guns'n'Roses и ZZTop. При этом в режиме "активный-пассивный" Билли Гиббонс исполняет песню на сцене, а Аксл Роуз в полном ожидании "заморожен" за сценой седативными веществами. В момент, когда Билли вдруг перестает играть из-за, скажем, проблем с желудком после "вчерашнего", Аксл должен выскочить и доиграть ровно с оборванной ноты. Однако, в "активном-пассивном" варианте всегда есть теоретическая возможность того, что находящийся в пассивном состоянии узел кластера на самом деле не работает (уборщица вырвала шваброй провод FC-контроллера) -- в случае с концертом Аксл мог просто уехать на другую площадку, чтобы не терять время пока Билли и так "зажигает".
В варианте "активный-активный" они оба исполняют одну и ту же песню на сцене и при "отпаде" Билли все, что нужно сделать Акслу -- это переключить внимание зрителя на себя. Вероятность его неработоспособности отсутствует -- ведь он тут же, уже исполняет эту песню. В кластерной самбе это делается следующим образом: если вдруг один из узлов кластера перестал работать, то один из демонов CTDB, запущенных на всех узлах, заметит отсутствие коллеги, перехватит его адрес на себя и пошлет вместо него клиенту подменный пакет TCP ACK (подтверждение прихода от клиента пакета, который тот не посылал) с неверным номером последовательности протокола TCP, но теми же исходными адресом и портом, которые были в общении клиента с почившим уже сервером -- информация о всех соединениях в кластере доступна всем демонам CTDB. В ответ на такой ACK любой TCP-клиент пошлет свой ACK, но уже с правильным номером последовательности на тот адрес и порт, которые были у "почившего". Поскольку этот адрес уже принадлежит другой, работающей машине, то пакет "ударится" в порт, который на этой машине не открыт (он был открыт на "почившем"), TCP-стек работающей машины пошлет TCP reset, а клиент CIFS выполнит переподсоединение с уже работающим сервером (адрес-то не поменялся, несмотря на то, что сменился сам сервер) и работа приложения продолжится.
Вся эта машинерия нужна для того, чтобы вынудить зрителя обратить внимание на того исполнителя, который подменил выбывшего из строя Билла, поскольку в случае TCP-стека если не приходят к клиенту сообщения (и он сам их не посылает), то соединение закроется через некоторое время. В традиционной ситуации CIFS-клиент ждет около 45 секунд, если на его запрос не пришел ответ (на уровне CIFS), но время ожидания варьируется и может достигать на уровне IPv4 двух часов -- во всяком случае, это время keepalive по умолчанию в ядре Linux. То есть, посылая подменный ACK мы провоцируем клиента на ответные действия (посылка пакета по адресу, где заведомо не отвечают по старому порту) и тем самым сводим время простоя при падении одного из узлов, с которыми работал клиент, до нескольких секунд.
Конечно, от приложения тоже требуется определенная логика -- оно должно уметь восстанавливаться при "выпадении" сети. Впрочем, такое требование присутствует и в качестве рекомендаций в MSDN для приложений под Windows, и в книгах по программированию для POSIX-совместимых систем.
Видео доклада: http://mirror.linux.org.au/pub/linux.conf.au/2008/Thu/mel8-178.ogg (OGG Theora).
Сайт проекта: http://ctdb.samba.org/
Не обошлось и без шуток, как обычно: на этот раз Ронни Сальберг, автор Wireshark и один из авторов алгоритмов, лежащих в основе кластерной Самбы, в качестве демонстрации концепций "активного-пассивного" и "активного-активного" кластеров предложил рассмотреть рок-концерт, на котором выступают одновременно с одной и той же песней Guns'n'Roses и ZZTop. При этом в режиме "активный-пассивный" Билли Гиббонс исполняет песню на сцене, а Аксл Роуз в полном ожидании "заморожен" за сценой седативными веществами. В момент, когда Билли вдруг перестает играть из-за, скажем, проблем с желудком после "вчерашнего", Аксл должен выскочить и доиграть ровно с оборванной ноты. Однако, в "активном-пассивном" варианте всегда есть теоретическая возможность того, что находящийся в пассивном состоянии узел кластера на самом деле не работает (уборщица вырвала шваброй провод FC-контроллера) -- в случае с концертом Аксл мог просто уехать на другую площадку, чтобы не терять время пока Билли и так "зажигает".
В варианте "активный-активный" они оба исполняют одну и ту же песню на сцене и при "отпаде" Билли все, что нужно сделать Акслу -- это переключить внимание зрителя на себя. Вероятность его неработоспособности отсутствует -- ведь он тут же, уже исполняет эту песню. В кластерной самбе это делается следующим образом: если вдруг один из узлов кластера перестал работать, то один из демонов CTDB, запущенных на всех узлах, заметит отсутствие коллеги, перехватит его адрес на себя и пошлет вместо него клиенту подменный пакет TCP ACK (подтверждение прихода от клиента пакета, который тот не посылал) с неверным номером последовательности протокола TCP, но теми же исходными адресом и портом, которые были в общении клиента с почившим уже сервером -- информация о всех соединениях в кластере доступна всем демонам CTDB. В ответ на такой ACK любой TCP-клиент пошлет свой ACK, но уже с правильным номером последовательности на тот адрес и порт, которые были у "почившего". Поскольку этот адрес уже принадлежит другой, работающей машине, то пакет "ударится" в порт, который на этой машине не открыт (он был открыт на "почившем"), TCP-стек работающей машины пошлет TCP reset, а клиент CIFS выполнит переподсоединение с уже работающим сервером (адрес-то не поменялся, несмотря на то, что сменился сам сервер) и работа приложения продолжится.
Вся эта машинерия нужна для того, чтобы вынудить зрителя обратить внимание на того исполнителя, который подменил выбывшего из строя Билла, поскольку в случае TCP-стека если не приходят к клиенту сообщения (и он сам их не посылает), то соединение закроется через некоторое время. В традиционной ситуации CIFS-клиент ждет около 45 секунд, если на его запрос не пришел ответ (на уровне CIFS), но время ожидания варьируется и может достигать на уровне IPv4 двух часов -- во всяком случае, это время keepalive по умолчанию в ядре Linux. То есть, посылая подменный ACK мы провоцируем клиента на ответные действия (посылка пакета по адресу, где заведомо не отвечают по старому порту) и тем самым сводим время простоя при падении одного из узлов, с которыми работал клиент, до нескольких секунд.
Конечно, от приложения тоже требуется определенная логика -- оно должно уметь восстанавливаться при "выпадении" сети. Впрочем, такое требование присутствует и в качестве рекомендаций в MSDN для приложений под Windows, и в книгах по программированию для POSIX-совместимых систем.
no subject
Date: 2008-01-31 10:53 am (UTC)no subject
Date: 2008-01-31 11:38 am (UTC)Я не "фоннат" :-)
no subject
Date: 2008-01-31 12:01 pm (UTC)no subject
Date: 2008-01-31 12:03 pm (UTC)no subject
Date: 2008-01-31 12:05 pm (UTC)no subject
Date: 2008-01-31 12:13 pm (UTC)no subject
Date: 2008-02-19 07:39 am (UTC)Правильно я понимаю, что для того, чтобы все это взлетело, нужен shared storage?
no subject
Date: 2008-02-19 07:43 am (UTC)no subject
Date: 2008-02-19 07:58 am (UTC)no subject
Date: 2008-02-19 08:03 am (UTC)no subject
Date: 2008-02-19 08:41 am (UTC)Т.е. GFS держит "13.5Гбит/с"? Или в том конкретном случае (http://abbra.livejournal.com/113563.html?thread=528283#t528283) какая-то другая (какая)?
Поверх какого железа она (эта файловая система) живет?
no subject
Date: 2008-02-19 08:52 am (UTC)Живет она поверх разного железа на разных архитектурах (x86_32, x86_64, ppc64, s390).
Заглянул в Википедию, чтобы "послать" туда на http://en.wikipedia.org/wiki/GPFS, оказалось, что наш http://en.wikipedia.org/wiki/Scale-out_File_Services там тоже уже есть. :-)
no subject
Date: 2008-02-19 09:12 am (UTC)вот-вот!!!
Date: 2009-01-27 09:06 pm (UTC)коннект идет по cifs
Re: вот-вот!!!
Date: 2009-01-28 01:35 am (UTC)Enabling DFS support (used to access shares transparently in an MS-DFS global name space) requires that CONFIG_CIFS_EXPERIMENTAL be enabled. In addition, DFS support for target shares which are specified as UNC
names which begin with host names (rather than IP addresses) requires a user space helper (such as cifs.upcall) to be present in order to translate host names to ip address, and the user space helper must also be configured in the file /etc/request-key.conf
Re: вот-вот!!!
Date: 2009-01-29 01:53 pm (UTC)проверил на RHEL 5.2 - скачал ядро с cifs 1.56RH (так и показывает /sys/module/cifs/version)
увы, по прежнему не вижу глубже одно уровня.
сервер: "NOS: Windows Server 2003 R2 5.2 Capability: 0x1f3fd"
Re: вот-вот!!!
Date: 2009-01-29 01:58 pm (UTC)то в логе:
Jan 29 16:54:46 Piran kernel: CIFS VFS: dns_resolve_server_name_to_ip: unable to resolve: spbfs02.internal. corp
Jan 29 16:54:46 Piran kernel: CIFS VFS: compose_mount_options: Failed to resolve server part of \\spbfs02.i nternal.corp\INST to IP: -11
на:
$ ls -l /mnt/O/INST/
ls: /mnt/O/INST/: Resource temporarily unavailable
и конечно:
$ host spbfs02.internal.corp
spbfs02.internal.corp has address 192.168.32.40
Re: вот-вот!!!
Date: 2009-01-29 01:59 pm (UTC)Re: вот-вот!!!
Date: 2009-01-30 02:22 pm (UTC)ls: reading directory /smb/work/INST/: Object is remote
это была последняя попытка :)
я уволился с того места!
Re: вот-вот!!!
Date: 2009-01-30 08:58 pm (UTC)Тем не менее, надо бы довести до ума. Если в этот раз MS выполнит свои обещания и все-таки пришлет MSDN, я доделаю.
no subject
Date: 2008-01-31 09:00 pm (UTC)если машина выпадает из сети, то gratitious arp она не посылает - и взять ее же ip будет проблематично. вообщем-то свитч, в который включены (?) сервера с вероятностью в 50% почистит свою мак-таблицу (вероятность равна 100%, если отвалился порт), но вот следующий свитч об этом врятли узнает.
или я пропустил какой-то момент?
no subject
Date: 2008-01-31 09:03 pm (UTC)Если узел кластера, то при следующей проверке (несколько секунд спустя) ctdbd на остальных узлах обнаружит, что один отвалился и первый обнаруживший это заберет его IP на себя, поскольку все они знают IP публичных интерфейсов кластера.
Если клиент отвалился, то нам проще -- CIFS возлагает вопрос хранения состояния на клиента.
no subject
Date: 2008-01-31 09:08 pm (UTC)у нас есть кластер, и у каждой из его нод разный ip. так?
no subject
Date: 2008-01-31 09:11 pm (UTC)Поэтому клиенты всегда могут расчитывать на то, что им всегда будет доступен нужный ресурс, даже если у него сменится IP, но при этом имя cifs-сервера останется тем же. При первом соединении с этим "сервером" по имени адрес берется round-robin-ом из DNS.
no subject
Date: 2008-01-31 09:17 pm (UTC)Если да - то где гарантия, что в раунд-робине не попадется нерабочий сервер.
Если нет, и пересоединение происходит по IP - то тогда и возникает проблема, о которой я говорю.
Еще раз ее опишу:
Сервер умер, gratitious arp не послал. Т.е. свитчи в пределах LAN/VLAN не знаю о том, что наш сервер умер и траффик для него не нужно посылать на старое место. И при этом, если новый сервер попробует прислать arp о том, что мол x.x.x.x - это теперь я, то любой нормальный свитч это проигнорирует. Возможно даже выключит порт :)
Понимаешь суть проблемы? (если она конечно всё-таки есть, и я правильно понял картину происходящего)
no subject
Date: 2008-01-31 09:46 pm (UTC)В раунд-робине всегда работающие сервера, потому что _все_ IP адреса кластера всегда работают. Допустим, у нас три узла кластера: A - IP(1), B - IP(2), C - IP(3). Если узел A выйдет из строя, то B/C перехватят его IP(1). Пусть это будет B, тогда у него будет два публичных адреса кластера: IP(2) и IP(1). То есть, адреса по-прежнему доступны. Если следом из строя выйдет B, то его адреса перехватит C, у него будет три адреса. Теперь гибель С приведет к гибели всего кластера, но пока у нас есть работающие узлы, все IP будут доступны клиентам.
При миграции IP-адреса происходит посылка ARPOP_REQUEST (это твой gratitious arp) и ARPOP_REPLY (мы отвечаем широковещательно сами себе). После этого мы посылаем tickle ack клиенту по описанной выше процедуре. Все это работает, в том числе и у заказчиков.
Можешь посмотреть демо вот тут: http://samba.org/~tridge/ctdb_movies/node_reset.html и тут: http://samba.org/~tridge/ctdb_movies/node_disable.html
no subject
Date: 2009-02-10 04:43 am (UTC)P.S. Заранее благодарю за ответы.
Re: Немного вопросов..
Date: 2009-10-03 08:01 pm (UTC)