Table des Matières

Publicité

Liens rapides

Systèmes Dell™ PowerEdge™ Cluster SE600L - Guide d'installation
et de dépannage
Présentation
Câblage du matériel du cluster
Préparation des nœ uds pour la mise en cluster
Configuration du cluster
Dépannage
Liste de vérification pour la configuration du cluster
 Remarques, avis et précautions
REMARQUE :
Une REMARQUE indique des informations importantes qui peuvent vous aider à mieux utiliser votre ordinateur.
AVIS :
Un AVIS vous avertit d'un risque de dommage matériel ou de perte de données et vous indique comment éviter le problème.
PRÉCAUTION : Une PRÉCAUTION indique un risque potentiel d'endommagement du matériel, de blessure corporelle ou de mort.
Les informations contenues dans ce document peuvent être modifiées sans préavis.
© 2008 Dell Inc. Tous droits réservés.
La reproduction de ce document de quelque manière que ce soit sans l'autorisation écrite de Dell Inc. est strictement interdite.
Marques mentionnées dans le document : Dell, le logo DELL, PowerEdge, PowerVault e t OpenManage sont des marques de Dell Inc. ; Intel est une marque déposée d'Intel 
Corporation; Red Hat e t Red Hat Enterprise Linux sont des marques déposées de Red Hat, Inc. aux États-Unis et dans d'autres pays.
D'autres marques et noms de marques peuvent être utilisés dans ce document pour faire référence aux entités se réclamant de ces marques et de ces noms ou à leurs produits. 
Dell Inc. dénie tout intérêt propriétaire vis-à-vis des marques et des noms de marque autres que les siens.
Janvier 2008     Rév. A00

Publicité

Table des Matières
loading

Sommaire des Matières pour Dell PowerEdge Cluster SE600L

  • Page 1 La reproduction de ce document de quelque manière que ce soit sans l'autorisation écrite de Dell Inc. est strictement interdite. Marques mentionnées dans le document : Dell, le logo DELL, PowerEdge, PowerVault e t OpenManage sont des marques de Dell Inc. ; Intel est une marque déposée d'Intel  Corporation; Red Hat e t Red Hat Enterprise Linux sont des marques déposées de Red Hat, Inc. aux États-Unis et dans d'autres pays. D'autres marques et noms de marques peuvent être utilisés dans ce document pour faire référence aux entités se réclamant de ces marques et de ces noms ou à leurs produits.  Dell Inc. dénie tout intérêt propriétaire vis-à-vis des marques et des noms de marque autres que les siens. Janvier 2008     Rév. A00...
  • Page 2: Liste De Vérification Pour La Configuration Du Cluster

    Retour à la page Contenu Liste de vérification pour la configuration du cluster Systèmes Dell™ PowerEdge™ Cluster SE600L - Guide d'installation et de dépannage  Tableau A-1. A vérifier pour la création du cluster     Élément Vérifié Configuration physique   Câblage   Contrôleurs RAC (Remote Access Controllers) configurés dans le BIOS   Accès Telnet au module DRAC activé (le cas échéant)   Interrupteurs d'alimentation réseau configurés (le cas échéant)   Systèmes d'exploitation installés et mis à jour   Cluster et son stockage   Pilote HBA SAS (progiciel mptlinux)   Pilote MPP (progiciel linuxrdac)   Baie de stockage Dell™ PowerVault™ MD3000 configurée  ...
  • Page 3: Présentation

    Retour à la page Contenu   Présentation  Systèmes Dell™ PowerEdge™ Cluster SE600L - Guide d'installation et de dépannage   Services pouvant être mis en cluster    Configuration prise en charge   Autres documents utiles Ce document donne des instructions sur la configuration d'un système Dell™ PowerEdge™ Cluster SE600L doté de deux serveurs PowerEdge connectés à une  ® ® baie de stockage SCSI (SAS) Dell PowerVault™ MD3000 à l'aide de Red Hat Enterprise Linux 5.1 Advanced Platform, Red Hat Cluster Suite (RHCS) et Red Hat Global File System (GFS).  Services pouvant être mis en cluster  La mise en cluster est un processus qui consiste à configurer au minimum deux systèmes en vue de fournir des services comme si ceux-ci émanaient d'un seul  système. Ces systèmes sont appelés nœ uds de cluster. Vous pouvez utiliser la mise en cluster pour activer l'équilibrage de la charge entre deux nœ uds, le traitement parallèle, la haute disponibilité et le stockage du cluster. Les services pouvant faire l'objet d'une mise en cluster sont présentés ci-dessous :  Equilibrage de la charge : les clusters d'équilibrage de la charge acceptent des demandes émanant de clients et utilisent un algorithme défini pour ...
  • Page 4: Configuration Minimale Requise

      Configuration minimale requise Le système PowerEdge Cluster SE600L prend en charge le système d'exploitation Red Hat Enterprise Linux 5.1 Advanced Platform. La liste ci-dessous présente la configuration minimale prise en charge :  Au moins 1 Go d'espace disque sur chaque nœ ud.  Au moins 512 Mo de RAM sur chaque nœ ud. REMARQUE : La quantité de RAM prise en charge pour chaque nœ ud dépend également du nœ ud de cluster. REMARQUE : L'exécution de versions différentes de Red Hat Enterprise Linux dans un cluster est uniquement prise en charge lors de l'installation d'une  mise à niveau.    Nœuds de cluster Le système PowerEdge Cluster SE600L requiert l'utilisation de deux systèmes PowerEdge homogènes. Chaque système PowerEdge doit exécuter le système  d'exploitation Red Hat Enterprise Linux 5.1 AP. Le tableau 1-1 présente la configuration minimale requise pour chaque système PowerEdge du cluster.  Tableau 1-1. Configuration requise pour les nœuds du cluster     Composant Configuration minimale requise Processeur Au moins un processeur par nœ...
  • Page 5: Nœud De Gestion

    (en anglais). Le système PowerEdge Cluster SE600L a été testé avec le matériel suivant :  Contrôleur DRAC (Dell Remote Access Controller) 5  Interface de gestion de plateforme intelligente (IPMI) PowerEdge ®  Interrupteur d'alimentation réseau APC (AP7867A) REMARQUE : Il est recommandé d'utiliser deux méthodes d'isolement, par exemple un interrupteur d'alimentation réseau et un contrôleur d'accès  distant (DRAC ou IPMI).   Logiciels de gestion du stockage Les sections suivantes présentent les divers composants logiciels de gestion du stockage.   Dell PowerVault Modular Disk Storage Manager Client...
  • Page 6: Autres Documents Utiles

     Le support Dell PowerVault MD3000 Resource (Ressource Dell PowerVault MD3000) contient toute la documentation du système mentionnée dans la  présente section, notamment celle concernant les outils de configuration et de gestion.  Le document Dell PowerVault Modular Disk Storage Manager User's Guide (Dell PowerVault Modular Disk Storage Manager - Guide d'utilisation) contient des instructions sur l'utilisation des logiciels de gestion permettant de configurer la baie de stockage.  Le document Dell PowerVault MD Systems Support Matrix (Matrice de support des systèmes Dell PowerVault MD) contient des informations concernant les ...
  • Page 8: Câblage Du Matériel Du Cluster

     Câblage de la souris, du clavier et du moniteur  Si vous installez le cluster dans un rack, il est recommandé, mais non obligatoire, de connecter une souris, un clavier et un moniteur. Consultez la  documentation fournie avec le rack pour savoir comment connecter les nœ uds.  Câblage des blocs d'alimentation  Pour vous assurer que les spécifications relatives à l'alimentation sont respectées, consultez la documentation fournie avec chaque composant de la solution  cluster. Il est recommandé de respecter les consignes suivantes pour protéger la solution cluster contre les pannes liées aux coupures de courant :  Reliez chacun des blocs d'alimentation à un circuit de courant alternatif distinct.   Reliez chacun des blocs d'alimentation à un interrupteur d'alimentation réseau optionnel distinct.  Utilisez des onduleurs (UPS).  Dans certains environnements, pensez à utiliser des générateurs de secours et des sources d'alimentation provenant de différentes stations  électriques. figure 2-1 et la figure 2-2 présentent le câblage recommandé pour l'alimentation d'une solution cluster comprenant deux systèmes Dell™ PowerEdge™ et  un système de stockage. Pour garantir la redondance de l'alimentation, les blocs d'alimentation principaux de tous les composants sont regroupés sur un ou  deux circuits, et les blocs d'alimentation redondants sur un circuit différent.  Figure 2-1. Exemple de câblage - Systèmes PowerEdge équipés d'un seul bloc d'alimentation REMARQUE : Cette illustration sert uniquement à montrer la répartition de l'alimentation entre les composants.  Figure 2-2. Exemple de câblage - Systèmes PowerEdge équipés de deux blocs d'alimentation...
  • Page 9: Câblage Des Réseaux Public Et Privé

    REMARQUE : Cette illustration sert uniquement à montrer la répartition de l'alimentation entre les composants.  Câblage des réseaux public et privé  Les cartes réseau des nœ uds permettent au moins deux connexions réseau pour chaque nœ ud. Ces connexions sont décrites dans le tableau 2-1.  Tableau 2-1. Connexions réseau     Connexion Description réseau Réseau public Toutes les connexions au réseau local du client. Pour que le basculement vers le réseau privé soit pris en charge, au moins un réseau public doit être configuré en mode mixte (public et  privé). Réseau privé Connexion dédiée permettant le partage des informations sur l'état et l'intégrité du cluster entre les nœ uds du cluster. Les cartes réseau connectées au réseau local permettent également une redondance des communications en cas de panne de  l'interconnexion du cluster. Si vous disposez de cartes DRAC optionnelles, reliez-les au réseau privé. Dans cette configuration, utilisez un commutateur réseau et non  la topologie point à point. Si vous disposez de blocs d'alimentation optionnels, reliez-les au réseau privé. Branchez les câbles des ports Ethernet du contrôleur de  stockage PowerVault MD3000 au réseau privé.
  • Page 10: Câblage Des Systèmes De Stockage

      Câblage du réseau public Toute carte réseau prise en charge par un système exécutant TCP/IP peut être utilisée pour établir la connexion avec les segments du réseau public. Vous  pouvez installer des cartes d'interface réseau (NIC) supplémentaires pour prendre en charge des segments de réseau public additionnels ou fournir une redondance en cas de défaillance de la carte d'interface réseau principale ou du port de commutation.   Câblage du réseau privé La connexion du réseau privé aux nœ uds est assurée par une seconde carte réseau ou par une carte réseau suivante installée sur chaque nœ ud. Ce réseau  est utilisé pour les communications internes du cluster. Reliez tous les composants réseau du cluster, y compris les cartes d'interface du réseau privé des  nœ uds du cluster, les interrupteurs d'alimentation réseau, les contrôleurs d'accès distants (DRAC/IPMI) et les ports Ethernet du contrôleur de  stockage MD3000. Le tableau 2-2 répertorie les composants matériels requis et la méthode de connexion pour deux configurations de réseau privé possibles.   Tableau 2-2. Composants matériels et connexions pour un réseau privé       Méthode Composants matériels Connexion Commutateur Cartes réseau et commutateurs Fast Ethernet  Utilisez des câbles Ethernet standard pour relier les cartes réseau des deux nœ uds à un  réseau ou Ethernet Gigabit. commutateur Fast Ethernet ou Ethernet Gigabit. Point à point Cartes réseau Ethernet Gigabit cuivre.
  • Page 11 Cette section contient des informations concernant la connexion du cluster à un système de stockage. La gestion du stockage peut être effectuée en mode intrabande via l'interface entre système hôte et contrôleur ou bien en mode hors bande (connexion  Ethernet). Pour la gestion hors bande du stockage, reliez les ports Ethernet de la baie de stockage au réseau public. REMARQUE : Il est recommandé de configurer l'enceinte de stockage Dell PowerVault™ MD3000 pour l'utilisation de la gestion hors bande avec un  nœ ud de gestion dédié.   Câblage du cluster dans une configuration non redondante avec un adaptateur HBA SAS 5/E Chaque nœ ud du cluster est connecté au système de stockage au moyen d'un adaptateur HBA SAS 5/E à port double et de deux câbles SAS. Dans cette  configuration, il existe plusieurs chemins redondants entre le nœ ud et le système de stockage. En cas de défaillance d'un composant (port, câble, contrôleur  de stockage, par exemple) du chemin du système de stockage, le pilote MPP (Multi-Path Proxy) réachemine automatiquement les demandes d'E/S vers un  chemin de secours de sorte que la baie de stockage puisse fonctionner sans interruption. Pour câbler le cluster :   ...
  • Page 12 2. Connectez le noeud 2 au système de stockage.  a.  Installez un câble SAS entre le port 0 de l'adaptateur HBA du nœ ud de cluster 2 et le port In-1 du module contrôleur RAID 0.  b.  Installez un câble SAS entre le port 1 de l'adaptateur HBA du nœ ud de cluster 2 et le port In-1 du module contrôleur RAID 1.   Figure 2-5. Configuration de cluster redondante avec deux adaptateurs HBA SAS 5/E   Retour à la page Contenu  ...
  • Page 13: Préparation Des Nœuds Pour La Mise En Cluster

      Préparation du système d'exploitation    Configuration des nœ uds pour l'accès au stockage    Installation et configuration du système de stockage partagé   Opérations requises  Pour installer le système Dell™ PowerEdge™ Cluster SE600L, vérifiez que vous disposez des éléments suivants :  Les composants répertoriés à la section Composants requis ® ®  Le support d'installation de Red Hat Enterprise Linux  5.1 Advanced Platform  Le disque Dell PowerVault™ MD3000 Resource ou l'image ISO la plus récente du support, disponible à l'adresse suivante support.dell.com.   Sélection d'une infrastructure de gestion Assurez-vous d'avoir effectué le câblage et terminé l'installation du matériel . Avant de poursuivre, sélectionnez l'infrastructure de gestion. Pour gérer une baie  de stockage, vous disposez de deux méthodes :  Gestion hors bande : les données sont séparées des commandes et des événements. Elles transitent via les câbles d'interface SAS reliant les systèmes hôtes  aux contrôleurs, tandis que les commandes et les événements sont transmis au moyen de câbles Ethernet.  Gestion intrabande : les commandes, les événements et les données sont tous transmis via les câbles d'interface SAS reliant les systèmes hôtes aux  contrôleurs. Contrairement à la gestion hors bande, les commandes et les événements résident sur le même réseau que les données.  REMARQUE : Il est recommandé d'utiliser la gestion hors bande pour le système PowerEdge Cluster SE600L.   Configuration des nœuds de cluster Pour préparer les nœ...
  • Page 14: Configuration De L'accès À Distance

    Une fois qu'un adaptateur est sélectionné, ses propriétés s'affichent comme suit :   4. Notez l'adresse SAS. L'adresse SAS servira à attribuer des disques virtuels.    5. Faites basculer l'option Boot support (Prise en charge de l'amorçage) sur Disabled (Désactivée). Ce champ permet de démarrer à partir de la baie de  stockage PowerVault MD3000 et n'est pas pris en charge par les systèmes PowerEdge Cluster SE600L.    6. Enregistrez la configuration et quittez.   7. Recommencez la procédure pour tous les autres adaptateurs SAS  5/E.    8. Quittez l'utilitaire de configuration et redémarrez le système.    Configuration de l'accès à distance   1. Pendant l'auto-test de démarrage du BIOS, utilisez la combinaison de touches <Ctrl><E> pour accéder au menu Remote Access Configuration Utility (Utilitaire de configuration de l'accès distant) lorsque le message suivant s'affiche :   2. Le menu Remote Access Configuration Utility (Utilitaire de configuration de l'accès distant) apparaît.
  • Page 15: Configuration Supplémentaire

      3. Si vous avez acheté les systèmes PowerEdge avec les cartes DRAC (Dell Remote Access Controller), vérifiez que l'option IPMI Over LAN (IPMI sur réseau local) est désactivée (sur Off). Si cette option est activée, une carte d'interface réseau (NIC) supplémentaire peut être nécessaire pour une  configuration entièrement redondante. Ce problème se produit lorsque l'interface IPMI utilise une des cartes NIC intégrées, empêchant ainsi toute  configuration réseau redondante sans NIC supplémentaire.  REMARQUE : Si vous utilisez l'interface IPMI à la place d'une carte DRAC pour l'isolement d'un système PowerEdge 1950, une configuration  entièrement redondante est impossible vu le nombre limité de logements disponibles pour des cartes supplémentaires.   4. Dans le menu Remote Access Configuration Utility (Utilitaire de configuration de l'accès distant), sélectionnez LAN Parameters (Paramètres du réseau  local) et attribuez une adresse IP ou sélectionnez DHCP. REMARQUE : Si vous utilisez l'option DHCP, vous devez attribuer l'adresse IP à partir d'un serveur DHCP. Notez l'adresse MAC de ce menu pour  attribuer ultérieurement une IP statique via DHCP. Pour des instructions sur la configuration d'un serveur DHCP, consultez la section  "Configuration d'un serveur DHCP" du Guide de déploiement Red Hat disponible à l'adresse www.redhat.com/docs/manuals/enterprise/RHEL-5- manual/fr-FR/index.html. REMARQUE : Assurez-vous que l'adresse IP attribuée se trouve sur le même sous-réseau que le réseau privé du cluster, car les nœ uds communiquent avec les contrôleurs d'accès à distance dans le cadre des opérations d'isolement de cluster.
  • Page 16: Accès À Red Hat Network

    Si le support du système d'exploitation n'est pas fourni avec le système PowerEdge, téléchargez les images ISO les plus récentes de Red Hat Enterprise Linux  (version 5 pour les systèmes 64 bits x86_64) depuis le site Web de Red Hat, rhn.redhat.com. S'il vous faut un support physique, contactez votre représentant  commercial Dell. Lorsque vous avez obtenu les images ISO ou le support physique approprié, choisissez l'une des méthodes d'installation suivantes.   Installation du système d'exploitation à l'aide d'un support physique  Créez un support physique pour l'installation. Pour plus d'informations, consultez la section "Pouvez-vous installer à partir du CD-ROM ou du DVD" du Guide d'installation Red Hat disponible à l'adresse www.redhat.com/docs/manuals/enterprise/RHEL-5-manual/fr-FR/index.html. REMARQUE : Vous pouvez également utiliser le support Dell Systems Build and Update Utility pour installer le système d'exploitation. Vous pouvez le  télécharger à partir du site du support technique de Dell, support.dell.com.   Installation du système d'exploitation via le réseau  Créez un serveur pour l'installation réseau. Pour plus d'informations, consultez la section "Préparation à une installation réseau" du Guide d'installation Red Hat disponible à l'adresse www.redhat.com/docs/manuals/enterprise/RHEL-5-manual/fr-FR/index.html.   Installation à l'aide d'un fichier kickstart  Le système PowerEdge Cluster SE600L s'installe facilement avec le script kickstart SE600L disponible à l'adresse http://linux.dell.com/files/se600l/ks.cfg. Notez que les nœ uds doivent être connectés à Internet pour pouvoir utiliser ce script. S'ils n'ont pas accès à Internet, vous devrez créer votre propre fichier ...
  • Page 17 RHEL 5.1 (registered with RHN, running SE600L HA Cluster) kernel images/os/linux/redhat/rhel/5.1/x86_64/vmlinuz append initrd=images/os/linux/redhat/rhel/5.1/x86_64/initrd.img   Utilisation d'un support pour une installation du système d'exploitation à partir du réseau Vous pouvez démarrer à partir de n'importe quel CD ou DVD Red Hat Enterprise Linux 5.1 et spécifier le serveur utilisé pour l'installation réseau à l'aide du  paramètre askmethod. Par exemple : boot: linux askmethod Vous pouvez également utiliser le fichier kickstart créé à la section Installation à l'aide d'un fichier kickstart. Par exemple : boot: linux ks=http://linux.dell.com/files/se600l/ks.cfg REMARQUE : Si vous avez modifié le script kickstart SE600L ou fourni votre propre script, indiquez ce fichier kickstart à la place.   Synchronisation des horloges système des nœuds Synchronisez les horloges système de tous les nœ uds. Pour plus d'informations sur la configuration de l'horloge système, consultez le Guide de déploiement  Red Hat disponible à l'adresse www.redhat.com/docs/manuals/enterprise/RHEL-5-manual/fr-FR/index.html.   Enregistrement des nœuds sur RHN Enregistrez tous les nœ...
  • Page 18: Installation Des Groupes De Cluster

    Installation des groupes de cluster Si vos systèmes ont été installés avec le fichier kickstart, les groupes de cluster adéquats devraient déjà définis. Exécutez la commande suivante pour vérifier  ou installer les groupes : [root]# yum groupinstall "Mise en cluster" "Cluster de stockage"   Logithèques de la communauté Dell Les systèmes Dell PowerEdge peuvent être gérés à l'aide de l'utilitaire yum, qui gère déjà les modules pour Red Hat Enterprise Linux 5.1 sur vos nœ uds. L'accès à tous les logiciels Linux fournis par Dell, aux mises à jour de micrologiciel Dell PowerEdge, à certains pilotes dkms et à d'autres logiciels libres est ainsi  facilité. Pour plus d'informations, visitez le site Web linux.dell.com/repo/software/ Si vos nœ uds n'ont pas accès à internet, ignorez cette section et mettez à jour manuellement les micrologiciels pour vos systèmes PowerEdge, le cas échéant.  Visitez le site Web du support technique de Dell support.dell.com pour obtenir des informations. REMARQUE : Les référentiels sont pris en charge par la communauté, mais pas officiellement par Dell. Pour le support, utilisez la liste de diffusion linux- poweredge à l'adresse suivante lists.us.dell.com. Vous pouvez également obtenir les dernières images ISO MD3000 et OMSA (OpenManage Server ...
  • Page 19: Configuration Des Nœuds Pour L'accès Au Stockage

    Une fois ces étapes effectuées, chaque nœ ud a accès au même stockage partagé. Pour plus d'informations, lisez le fichier Readme.txt qui se trouve sur le support Dell PowerVault MD3000 Resource.   Utilisation du support Dell PowerVault MD3000 Resource Les pilotes HBA SAS et MPP sont disponibles sur le support Dell PowerVault MD3000 Resource. Si vous n'utilisez pas la logithèque de la communauté Dell ou que  votre support est antérieur à la version 14, téléchargez les images ISO les plus récentes depuis le site Web du support technique de Dell support.dell.com.   Opérations requises  Avant de lancer l'installation du support Dell PowerVault MD3000 Resource, vérifiez que les modules libXp, libXtst et les modules de développement du noyau ...
  • Page 20 [root]# system-config-display Entrez runlevel 5 avec la commande suivante : [root]# init 5 Ou démarrez X avec la commande suivante : [root]# startx   4. Pour afficher la documentation contenue dans le support Dell PowerVault MD3000 Resource, installez un navigateur Web sur votre système :  [root]# yum install firefox   Lancement du menu principal Pour installer le logiciel requis :   1. Il existe deux manières d'accéder au support Dell PowerVault MD3000 Resource : ...
  • Page 21 REMARQUE : Le pilote SAS 5/E est fourni sous la forme d'un module DKMS (Dynamic Kernel Module Support). Pour plus d'informations sur le module  DKMS, consultez la page www.linux.dell.com/dkms. REMARQUE : Effectuez les procédures suivantes sur les nœ uds de cluster uniquement. N'installez pas le pilote HBA SAS sur les nœ uds de gestion dédiés.   Suivez les étapes de la section Lancement du menu principal.   2. Sélectionnez Option 2. Install SAS 5/E Adapter Driver (Installer le pilote de l'adaptateur SAS 5/E). Suivez les instructions à l'écran pour terminer ...
  • Page 22: Installation Et Configuration Du Système De Stockage Partagé

      2. Sélectionnez 4. Install Multi-Pathing driver (Installer le pilote MPP)   3. Suivez les instructions à l'écran pour terminer l'installation. Le message suivant s'affiche ensuite :  DKMS: install Completed (DKMS : installation terminée) Vous devez redémarrer votre ordinateur pour que les nouveaux paramètres prennent effet. Pour plus d'informations sur l'installation du pilote MPP RDAC, consultez le fichier RDACreadme.txt situé sur le support Dell PowerVault MD3000 Resource.  Installation et configuration du système de stockage partagé  Cette section donne des informations sur l'installation et la configuration des systèmes de stockage partagés. REMARQUE : Pour obtenir la version la plus récente du micrologiciel PowerVault MD3000, consultez le site Web du support technique de Dell à l'adresse  support.dell.com. Utilisez PowerVault Modular Disk Storage Manager pour mettre le micrologiciel à jour. Pour plus d'informations, consultez la section Installation de PowerVault Modular Disk Storage Manager et la documentation fournie avec la baie de stockage.
  • Page 23: Création D'un Groupe De Systèmes Hôtes

    REMARQUE : Avant de créer des disques virtuels, vous devez organiser les disques physiques en groupes et définir les paramètres d'accès des  systèmes hôtes. Vous pouvez ensuite créer des disques virtuels dans ces groupes de disques. Un groupe de disques ne peut pas prendre en charge  plus de 30 lecteurs physiques. Pour créer un disque virtuel, vous disposez de deux méthodes :  Configuration automatique  Configuration manuelle Pour plus d'informations sur la création de groupes de disques et de disques virtuels, consultez la documentation de PowerVault Modular Disk Storage  Manager. REMARQUE : Dell conseille d'utiliser un niveau RAID autre que RAID 0 (aussi appelé "striping" ou "répartition"). Les configurations RAID 0 fournissent de  meilleurs performances mais ne permettent pas de tolérance de pannes. Pour plus d'informations sur la configuration des niveaux RAID du système,  consultez la documentation du système de stockage.    Création de mappages entre les systèmes hôtes et les disques virtuels Créez des mappages entre systèmes hôtes et disques virtuels pour attribuer des disques virtuels aux groupes de systèmes hôtes contenant des nœ uds de cluster :   1. Cliquez sur l'onglet Configure (Configurer) et sélectionnez le lien Create Host-to-Virtual Disk Mappings (Créer des mappages entre les systèmes hôtes  et les disques virtuels).
  • Page 24   2. Une fois la configuration terminée, assurez-vous que le mappage a été correctement créé en cliquant sur le lien Host-to-Virtual Disk Mappings (Mappages entre les systèmes hôtes et les disques virtuels), dans l'onglet Summary (Résumé).  Retour à la page Contenu  ...
  • Page 25: Configuration Du Cluster

    Retour à la page Contenu   Configuration du cluster Systèmes Dell™ PowerEdge™ Cluster SE600L - Guide d'installation et de dépannage   Configuration d'un cluster haute disponibilité    Configuration d'un cluster de stockage   Gestion des services ® Cette section explique comment installer et configurer Red Hat Cluster Suite et Global File System sur un système de cluster Dell™ PowerEdge™ SE600L à  l'aide de Conga et des outils de la ligne de commande (CLI). Conga est une suite logicielle de configuration et de gestion récente basée sur un modèle serveur/agent. Vous pouvez accéder au serveur de gestion (luci) à ...
  • Page 26: Configuration De L'isolement (Fencing) À L'aide De Conga

      7. Vérifiez que l'option Enable Shared Storage Support (Activer le support de stockage partagé) est sélectionnée, puis cliquez sur Submit (Envoyer). Conga télécharge et installe tous les logiciels de cluster requis, crée un fichier de configuration et redémarre chaque nœ ud du cluster. Consultez la fenêtre  d'état de Conga pour obtenir des détails sur la progression de ces opérations sur chaque nœ ud.   Configuration de l'isolement (fencing) à l'aide de Conga Dans un système PowerEdge Cluster SE600L, les interrupteurs d'alimentation réseau constituent la méthode d'isolement la plus fiable. Pour plus  d'informations sur la configuration des interrupteurs d'alimentation réseau pour l'accès à distance, voir la documentation fournie avec ces composants. Configurez les interrupteurs d'alimentation réseau et les contrôleurs d'accès à distance, tels que le DRAC (Dell Remote Access Controller) ou l'IMPI (Intelligent  Platform Management Interface) sur le même réseau privé que les nœ uds du cluster. Consultez la section Configuration de l'accès à distance pour plus d'informations. Vous devriez utiliser les contrôleurs d'accès à distance (DRAC ou IPMI, par exemple) comme méthodes secondaires à moins qu'aucun interrupteur  d'alimentation réseau ne soit disponible. Dans ce cas, configurez la méthode secondaire sur manual (manuelle). Utilisez un utilitaire de journalisation pour recevoir une notification en cas de panne de la méthode d'isolement Pour plus d'informations, consultez Test des mécanismes d'isolement ainsi que la section "Fencing" du document "Cluster Suite Overview" disponible (en anglais) à l'adresse www.redhat.com/docs/manuals/enterprise/RHEL-5-manual/fr-...
  • Page 27: Configuration D'un Cluster De Stockage Avec Conga

    Pour plus d'informations, consultez les documents LVM Administrator's Guide et Global File System disponibles (en anglais) à l'adresse  www.redhat.com/docs/manuals/enterprise/RHEL-5-manual/fr-FR/index.html. Les procédures de configuration d'un cluster de stockage avec Conga et les outils d'interface de commande (CLI) sont toutes deux documentées. Vous pouvez  utiliser l'une ou l'autre méthode.   Configuration d'un cluster de stockage avec Conga Pour configurer un cluster de stockage avec Conga :   1. Ouvrez une session sur Conga.  ...
  • Page 28: Configuration D'un Cluster De Stockage Avec Les Outils De Ligne De Commande (Cli)

    3. Assurez-vous que l'option Clustered (En cluster) est définie sur True (Vrai).   4. Dans le volet de droite, sélectionnez la nouvelle partition de données. Dans cet exemple, il s'agit de la partition /dev/sdb1.   5. Cliquez sur Create (Créer).  Le nouveau groupe de volume est affiché. Vérifiez que la taille du groupe de volume est correcte.   6. Cliquez sur New Logical Volume (Nouveau volume logique). Entrez une valeur dans le champ Logical Volume Name (Nom du volume logique) pour identifier le volume logique de stockage partagé. Par exemple, clustered_lv.  ...
  • Page 29   5. Définissez l'indicateur lvm de la partition de données. Utilisez la commande set : (parted) set 1 lvm on   6. Vérifiez que les partitions sont correctement configurées :  (parted) print Disk geometry for /dev/sdb 0kB - 1000GB (Géométrie du disque pour /dev/sdb 0 Ko - 1000 Go) For Model: DELL MD Virtual Disk (scsi) Disk /dev/sdb: 1000GB (Disque /dev/sdb : 1000 Go) Disk label type: gpt (Type d'étiquette du disque : gpt) Number (Nombre) Start (Début) End (Fin) Size (Taille) FileSystemName (NomSystèmeFichiers) Flags (Indicateurs) 1 17.4kB 1000MB 1000MB primary lvm   7. Quit parted. Les modifications sont immédiatement enregistrées. ...
  • Page 30   1. Créez un volume physique (pv) :  [root@node1 ~]# pvcreate {votre partition de périphérique mpp} Où {votre partition de périphériqe mpp} correspond à la partition que vous venez de créer. Par exemple : [root@node1 ~]# pvcreate /dev/sdb1 Le message suivant s'affiche : Physical volume "/dev/sdb1" successfully created.(Volume physique "/dev/sdb1" correctement créé.)   2. Créez un groupe de volume (vg) :  [root@node1 ~]# vgcreate {nom du groupe de volume} {votre partition de périphérique mpp} Où {votre partition de périphérique mpp} correspond à ce que vous avez choisi pour identifier ce groupe de volume et {votre partition de périphérique mpp} correspond à la partition de données que vous avez créée. Par exemple : [root@node1 ~]# vgcreate clustered_vg /dev/sdb1 Le message suivant s'affiche : Volume group clustered_vg successfully created (Groupe de volume clustered_vg correctement créé).   3. Créez un volume logique (lv) :  [root@node1 ~]# lvcreate {taille du volume logique} -n {nom du volume logique} {nom du groupe de volume} Où {taille du volume logique} correspond à l'une des options suivantes :  -l 100%FREE (LIBRES) (consomme tout l'espace disponible) ¡...
  • Page 31 Recherchez le terme cluster. L'entrée suivante s'affiche : # Type of locking to use. (# Type de verrouillage à utiliser.) Defaults to local file-based locking (1). (Verrouillage basé sur les  fichiers locaux utilisé par défaut (1).) # Turn locking off by setting to 0 (dangerous: risks metadata corruption (# Désactivez le verrouillage en définissant la valeur sur 0  (danger : risques de corruption des métadonnées)) # if LVM2 commands get run concurrently). (# si des commandes LVM2 sont exécutées en même temps).) # Type 2 uses the external shared library locking_library. (# Le type 2 utilise la bibliothèque partagée externe locking_library.) # Type 3 uses built-in clustered locking. (# Le type 3 utilise le verrouillage en cluster intégré.) locking_type = 1 Définissez locking_type sur 3 pour activer la prise en charge du volume logique (lvm) en cluster, comme cela est indiqué dans les  commentaires : locking_type = 3   6. Lancez le service clustered lvm daemon (clvmd) en tapant :  service clvmd start Vérifiez que le service clvmd démarre à l'amorçage : chkconfig clvmd on   Création d'un système de fichiers gloabl à l'aide des outils de ligne de commande (CLI) ...
  • Page 32: Gestion Des Services

    Resource Groups: 8 (Groupes de ressources : 8) Locking Protocol: lock_dlm (Protocole de verrouillage : lock_dlm) Lock Table: SE600L:MD3000_gfs (Table de verrouillage : SE600L:MD3000_gfs)  Syncing... (Synchronisation en cours...) All Done (Terminé)  Gestion des services Cette section indique comment créer et tester des services sur un système PowerEdge Cluster SE600L.   Création de services Vous trouverez ci-dessous une présentation des procédures à effectuer pour créer des services :   1. Cliquez sur Cluster List (Liste des clusters).   2. Sélectionnez le nom du cluster, puis cliquez sur Services dans le volet de gauche.   3. Sélectionnez Add a service (Ajouter un service).  ...
  • Page 33 Vous pouvez également gérer des services à l'aide ded l'interface de ligne de commande (CLI). Utilisez la commande suivante : [root]# clusvcadm Par exemple, pour déplacer un service du nœud 1 au nœud 2, entrez la commande suivante : [root]# clusvcadm -r service_name node2 Utilisez la commande clustat pour afficher le statut du cluster : [root]# clustat Retour à la page Contenu  ...
  • Page 34: Dépannage

    Retour à la page Contenu   Dépannage  Systèmes Dell™ PowerEdge™ Cluster SE600L - Guide d'installation et de dépannage   Connectivité physique   Problèmes liés au fichier de configuration   Vérification de la connectivité du nœ ud   Identification du disque virtuel   Problèmes liés au réseau   Problèmes liés aux volumes logiques   Etat du cluster   Problèmes liés au stockage partagé   Dépannage de Conga   Test des mécanismes d'isolement Cette section présente diverses méthodes permettant d'identifier des problèmes possibles et de tester les fonctionnalités du système Dell™ PowerEdge™  Cluster SE600L haute disponibilité.  Connectivité physique  Vérifiez toutes les connexions physiques. Déconnectez tous les câbles et vérifiez s'ils ne sont pas endommagés, puis reconnectez-les fermement. Si le problème persiste, essayez de permuter un câble avec un autre et voyez si le problème vient du câble ou du périphérique.  Vérification de la connectivité du nœud Pour vérifier la connectivité, procédez comme suit : Sur le nœ ud1 : [root@nœud1]# ping {nom d'hôte complet du nœud2} Par exemple : [root@nœud1]# ping nœud2.local Sur le nœ...
  • Page 35: Dépannage De Conga

    Nov 28 15:37:56 node2 openais[3450]: [CLM ] New Configuration: (Nouvelle configuration :) Nov 28 15:37:56 node2 kernel: dlm: closing connection to node 2 (fermeture de la connexion au nœud 2) Nov 28 15:37:56 node2 fenced[3466]: node1.ha.lab not a cluster member after 0 sec post_fail_delay (node1.ha.lab n'est pas un membre du cluster après post_fail_delay de 0 sec)  Nov 28 15:37:56 node2 openais[3450]: [CLM ] r(0) ip(172.16.0.2) Nov 28 15:37:56 node2 fenced[3466]: fencing node "node1.example.com"...
  • Page 36: Problèmes Liés Aux Volumes Logiques

    Si vous ne parvenez pas à identifier le périphérique SCSI (sd) correspondant au disque virtuel, utilisez la commande suivante : [root]# grep -A 5 "MD Virtual" /var/log/dmesg Les dernières lignes affichées concernent le disque virtuel. Par exemple : Vendor (Fabricant) : DELL  Model (Modèle) : MD Virtual Disk Rev: 0670 Type: Direct-Access (Accès direct)  ANSI SCSI revision (Numéro de révision ANSI SCSI) : 05 scsi(5:0:0:0): Enabled tagged queuing, queue depth 62. (File d'attente activée, longueur de la file d'attente 62.) SCSI device sdb: 2032423936 512-byte hdwr sector(1040601 MB) (2032423936 secteur matériel de 512 octets (1040601 Mo)) sdb: Write Protect is off (Protection en écriture désactivée) Il est également possible de faire correspondre le nom World Wide localisé dans divers fichiers résidant dans les répertoires /var/mpp, /proc/mpp et /proc/scsi/mpp. Pour plus d'informations, reportez-vous à la documentation fournie avec la baie de stockage.  Problèmes liés aux volumes logiques  Il se peut que vous deviez redémarrer le gestionnaire de volumes logiques en cluster avec la commande : [root]# service clvmd restart Vérifiez que tous les nœ uds ont une vue cohérente du stockage partagé avec la commande partprobe ou en cliquant sur reprobe storage (réanalyser le ...
  • Page 37 Retour à la page Contenu  ...

Table des Matières