1 votes

La desserte des ressources revient au nœud primaire même si l'adhérence est activée.

Voici mon installation actuelle de validation du concept.

node ha1
node ha2
primitive HA-mysql lsb:mysql \
        op monitor interval="15s"
primitive VIP ocf:heartbeat:IPaddr2 \
        params ip="10.100.0.10" nic="eth1" \
        op monitor interval="10s"
group HA-Group VIP HA-mysql \
        meta resource-stickiness="101"
location PREFER-NODE1 HA-Group 100: ha1
property $id="cib-bootstrap-options" \
        dc-version="1.0.9-74392a28b7f31d7ddc86689598bd23114f58978b" \
        cluster-infrastructure="openais" \
        expected-quorum-votes="2" \
        stonith-enabled="false" \
        no-quorum-policy="ignore"

Si je lis correctement la documentation, la définition d'une valeur d'adhérence suffisamment élevée devrait empêcher le problème où le service de ressources est renvoyé au nœud primaire lorsqu'il se remet d'une défaillance. Dans ce cas, je devrais définir une valeur d'adhérence pour le groupe HA qui soit au moins égale à

100 < $stickiness-of-group + $stickiness-of-VIP + $stickiness-of-HA-mysql
100 < $stickiness + 0 + 0
100 < $stickiness

donc j'utilise le 101.

Le comportement souhaité que je recherche est le suivant :

  1. D'abord débrancher ha1, puis le groupe de ressources est servi par ha2
  2. Rebranchez ha1, le groupe de ressources est toujours desservi par ha2.

Cependant, avec la configuration actuelle, lorsque je rebranche ha1, le groupe de ressources est immédiatement servi par ha1 une fois qu'il est détecté comme étant opérationnel.

Je me réfère à un autre article du blog pour l'adhérence : http://foaa.de/old-blog/2010/10/intro-to-pacemaker-part-2-advanced-topics/trackback/index.html#stickiness-vs-location-where-is-the-node-and-where-will-it-stay

P/S : J'ai utilisé une valeur beaucoup plus élevée pour l'adhérence du groupe, comme 200, 500, 1000, mais j'obtiens toujours le même comportement.

PP/S : ma version du pacemaker est

ii  pacemaker                           1.0.9.1+hg15626-1            HA cluster resource manager

fonctionnant sur debian squeeze

Linux ha1 2.6.32-5-amd64 #1 SMP Sun Sep 23 10:07:46 UTC 2012 x86_64 GNU/Linux
Distributor ID: Debian
Description:    Debian GNU/Linux 6.0.6 (squeeze)
Release:        6.0.6
Codename:       squeeze

PPP/S : même si je réduis la configuration à ceci, l'adhérence ne fonctionne toujours pas.

node ha1
node ha2
primitive VIP ocf:heartbeat:IPaddr2 \
        params ip="10.100.0.10" nic="eth1" \
        op monitor interval="10s" \
        meta resource-stickiness="1"
property $id="cib-bootstrap-options" \
        dc-version="1.0.9-74392a28b7f31d7ddc86689598bd23114f58978b" \
        cluster-infrastructure="openais" \
        expected-quorum-votes="2" \
        stonith-enabled="false" \
        no-quorum-policy="ignore"

0voto

Jeffrey04 Points 145

J'ai presque trouvé la réponse moi-même après avoir lutté pendant un certain temps. Apparemment, le débranchement n'est pas une bonne simulation, même si l'adhérence est définie. Afin d'obtenir ce que le paramètre stickiness est censé résoudre, le serveur doit être complètement mort, ou au moins avoir le service corosync hors service.

Référence : https://www.mail-archive.com/pacemaker@oss.clusterlabs.org/msg16791.html

SistemesEz.com

SystemesEZ est une communauté de sysadmins où vous pouvez résoudre vos problèmes et vos doutes. Vous pouvez consulter les questions des autres sysadmins, poser vos propres questions ou résoudre celles des autres.

Powered by:

X