Dell CAVIUM 41 Série Guide D'utilisation
Dell CAVIUM 41 Série Guide D'utilisation

Dell CAVIUM 41 Série Guide D'utilisation

Adaptateurs réseau convergents
Table des Matières

Publicité

Liens rapides

Guide d'utilisation
Adaptateurs réseau convergents
série 41xxx
Renseignements de tiers fournis
AH0054602-02 F
gracieusement par Dell EMC.

Publicité

Table des Matières
loading

Sommaire des Matières pour Dell CAVIUM 41 Série

  • Page 1 Guide d’utilisation Adaptateurs réseau convergents série 41xxx Renseignements de tiers fournis AH0054602-02 F gracieusement par Dell EMC.
  • Page 2: Historique De Révision Du Document

    Guide d’utilisation—Adaptateurs réseau convergents série 41xxx Historique de révision du document Révision A, 28 avril 2017 Révision B, 24 août 2017 Révision C, 1er octobre 2017 Révision D, 24 janvier 2018 Révision E, 15 mars 2018 Révision F, 19 avril 2018 Modifications Sections touchées Mise à...
  • Page 3 Guide d’utilisation—Adaptateurs réseau convergents série 41xxx Modification des sections majeures suivantes en « Déchargement iSCSI dans les environnements sous-sections sous Déchargement iSCSI dans les Linux » à la page 151 environnements Linux:  « Différences avec bnx2i » à la page 152 ...
  • Page 4 Guide d’utilisation—Adaptateurs réseau convergents série 41xxx Dans la procédure Pour configurer SR-IOV sous « Configuration de SR-IOV sous Linux » à la Linux : page 192  Dansl' Étape 12, commande modifiée de ip link show/ifconfig -a en ip link show | grep -i vf -b2.
  • Page 5 Guide d’utilisation—Adaptateurs réseau convergents série 41xxx Mise à jour de la section comme suit : « Installation des pilotes de périphérique sur les deux serveurs » à la page 205  Dans l’introduction, ajout de « Pour mettre à jour le noyau vers le tout dernier noyau Linux en amont, accédez à...
  • Page 6: Table Des Matières

    Table des matières Préface Produits pris en charge ........xvii Public visé...
  • Page 7: Valeurs Opérationnelles Par Défaut Du Pilote Linux

    Guide d’utilisation—Adaptateurs réseau convergents série 41xxx Paramètres facultatifs du pilote Linux ......Valeurs opérationnelles par défaut du pilote Linux ....Messages du pilote Linux .
  • Page 8 Configuration du commutateur Ethernet Cisco Nexus 6000 ..Configuration du commutateur Ethernet Dell Z9100 ....Configuration de RoCE sur l'adaptateur pour Windows Server ..
  • Page 9 Guide d’utilisation—Adaptateurs réseau convergents série 41xxx Configuration des paramètres d'affinité d'IRQ ....Configuration de la préparation de périphériques de traitement par blocs ..........Configuration d’iSER sous ESXi 6.7 .
  • Page 10 Guide d’utilisation—Adaptateurs réseau convergents série 41xxx Considérations relatives à Open-iSCSI et au démarrage à partir de SAN ..........Démarrage iSCSI L4 pour RHEL 6.9 à...
  • Page 11 Guide d’utilisation—Adaptateurs réseau convergents série 41xxx Configuration de NVMe-oF avec RDMA Installation des pilotes de périphérique sur les deux serveurs... Configuration du serveur cible ........Configuration du serveur initiateur .
  • Page 12 Commutateurs testés ......... . Configuration du commutateur Dell Z9100 Contraintes en matière de fonctionnalités...
  • Page 13 Fenêtre Dell Update Package ........
  • Page 14 Guide d’utilisation—Adaptateurs réseau convergents série 41xxx Affectation d'un vmknic pour PVRDMA ........6-10 Réglage de la règle de pare-feu.
  • Page 15 Guide d’utilisation—Adaptateurs réseau convergents série 41xxx 10-8 Configuration de Red Hat Enterprise Linux 7.4 ......11-1 Configuration système pour SR-IOV : Périphériques intégrés .
  • Page 16 Guide d’utilisation—Adaptateurs réseau convergents série 41xxx Liste des Tableaux Tableau Page Exigences du matériel hôte ......... . . Exigences minimales du système d'exploitation hôte .
  • Page 17: Préface

    QL41264HMCU-DE Adaptateur réseau convergent 10/25Gb Public visé Ce guide est destiné aux administrateurs système et autres membres du personnel technique responsables de la configuration et de la gestion des ® ® adaptateurs installés sur des serveurs Dell PowerEdge dans des ® ® ®...
  • Page 18: Ce Que Ce Guide Comprend

    Windows, Linux et VMware.  Chapitre 4 Mise à niveau du micrologiciel décrit comment utiliser le progiciel de mise à jour Dell (DUP) pour mettre à niveau le micrologiciel de l'adaptateur.  Chapitre 5 Configuration de prédémarrage de l'adaptateur décrit les...
  • Page 19: Conventions De La Documentation

    Adaptateurs série 41xxx. L'Annexe C Configuration du commutateur Dell Z9100 décrit la configuration  du port de commutateur Dell Z9100 pour 25 Gbits/s.  L'Annexe D Contraintes en matière de fonctionnalités fournit des informations sur les contraintes en matière de fonctionnalités mises en œuvre dans la version actuelle.
  • Page 20 Préface Conventions de la documentation  Le texte en police indique un nom de fichier, un chemin d'accès à Courier un répertoire, ou un texte de ligne de commande. Par exemple :  Pour revenir vers le répertoire racine à partir de n'importe où dans la structure de fichiers : Entrez , puis appuyez sur ENTRÉE.
  • Page 21: Avis Légaux

    Préface Avis légaux  1|2|3|4 (Points de suspension) indiquent que l'élément précédent peut  être répété. Par exemple :  signifie une ou plusieurs instances de x... signifie zéro ou plusieurs instances de  [x...]  Des points de suspension verticaux, dans le cadre d'un exemple de sortie de commande, indiquent où...
  • Page 22: Exigences Emi Et Emc

    Préface Avis légaux Exigences EMI et EMC Conformité à l'alinéa 15 de la FCC : Classe A Déclaration de conformité FCC : Cet appareil est conforme à la section 15 des règlements FCC. Son fonctionnement est soumis aux deux conditions suivantes : (1) ce périphérique ne doit pas provoquer d'interférences nuisibles et (2) ce périphérique doit accepter to :te interférence reçue, y compris les interférences pouvant altérer son fonctionnement.
  • Page 23: Vcci : Classe A

    Préface Avis légaux Format de langue coréenne - Classe A VCCI : Classe A Ceci est un produit de Classe A sur la base de la norme du Conseil de contrôle volontaire des interférences (Voluntary Control Council for Interference - VCCI). Si cet équipement est utilisé...
  • Page 24: Présentation Du Produit

    Présentation du produit Ce chapitre fournit les informations suivantes concernant les Adaptateurs série 41xxx :  Description fonctionnelle  Fonctionnalités  « Spécifications de l'adaptateur » à la page 3 Description fonctionnelle ® Les adaptateurs QLogic FastLinQ 41000 Series comprennent des adaptateurs réseau convergents 10 et 25 Gb et des adaptateurs Ethernet intelligents conçus pour la mise en réseau accélérée des données de systèmes de serveurs.
  • Page 25 1–Présentation du produit Fonctionnalités  Fonctionnalités liées aux performances :  Déchargements de somme de contrôle TCP, IP, UDP  Déchargement de segmentation TCP (TSO)  Large segment offload (LSO) (Déchargement de grands segments)  Déchargement de segments génériques (GSO) ...
  • Page 26: Spécifications De L'adaptateur

    1–Présentation du produit Spécifications de l'adaptateur  Mémoire NVRAM flash série  Interface de gestion de l'alimentation PCI (v1.1)  Prise en charge de BAR (base address register) 64 bits  Prise en charge du processeur EM64T  Prise en charge du démarrage iSCSI et FCoE Spécifications de l'adaptateur Les spécifications de l'Adaptateur série 41xxx comprennent les caractéristiques physiques de l'adaptateur et les références de conformité...
  • Page 27: Installation Du Matériel

    Installation du matériel Ce chapitre fournit les informations suivantes concernant l'installation du matériel :  Exigences système  « Précautions de sécurité » à la page 5  « Liste de vérification de préinstallation » à la page 6 « Installation de l'adaptateur » à la page 6 ...
  • Page 28: Précautions De Sécurité

    2–Installation du matériel Précautions de sécurité Tableau 2-2. Exigences minimales du système d'exploitation hôte Système Exigence d'exploitation Windows Server 2012, 2012 R2, 2016 (y compris Nano) Linux ® RHEL 6.8, 6.9, 7.2, 7.3, 7.4 ® SLES 11 SP4, SLES 12 SP2, SLES 12 SP3 VMware ESXi 6.0 u3 et versions ultérieures pour adaptateurs 25 G REMARQUE...
  • Page 29: Liste De Vérification De Préinstallation

    2–Installation du matériel Liste de vérification de préinstallation Liste de vérification de préinstallation Avant d'installer l'adaptateur, procédez ainsi : Assurez-vous que votre système répond bien à la configuration matérielle et logicielle requise décrite dans la section « Exigences système » à la page Vérifiez si votre système utilise le BIOS le plus récent.
  • Page 30: Précaution

    2–Installation du matériel Installation de l'adaptateur Alignez le bord du connecteur de l'adaptateur sur le logement du connecteur PCIe dans le système. En exerçant une pression égale sur les deux coins de la carte adaptateur, enfoncez celle-ci dans le logement jusqu'à ce qu'elle soit bien positionnée. Une fois l'adaptateur correctement positionné, le connecteur du port de l'adaptateur est aligné...
  • Page 31: Installation Des Pilotes

    Messages du pilote Linux  Statistiques Les pilotes Linux des Adaptateur série 41xxx et la documentation complémentaire sont disponibles sur la page de support Dell : dell.support.com Tableau 3-1 décrit les pilotes Linux des Adaptateur série 41xxx : Tableau 3-1. Pilotes Linux des Adaptateurs série 41xxx QLogic...
  • Page 32 3–Installation des pilotes Installation du logiciel pilote pour Linux Tableau 3-1. Pilotes Linux des Adaptateurs série 41xxx QLogic (Suite) Pilote Description Linux qede Pilote Ethernet Linux pour les Adaptateurs série 41xxx. Ce pilote contrôle directement le matériel et est responsable de l'envoi et de la réception des paquets Ethernet au nom de la pile réseau hôte Linux.
  • Page 33: Installation Des Pilotes Linux Sans Rdma

    Installation des pilotes Linux sans RDMA Pour installer les pilotes Linux sans RDMA : Téléchargez les pilotes Linux de l'Adaptateur série 41xxx à partir de Dell : dell.support.com Supprimez les pilotes Linux existants en suivant les instructions de la section «...
  • Page 34 3–Installation des pilotes Installation du logiciel pilote pour Linux rmmod qed depmod -a  Pour RHEL : cd /lib/modules/<version>/extra/qlgc-fastlinq rm -rf qed.ko qede.ko qedr.ko Pour SLES :  cd /lib/modules/<version>/updates/qlgc-fastlinq rm -rf qed.ko qede.ko qedr.ko Pour supprimer les pilotes Linux dans un environnement non-RDMA : Pour obtenir le chemin vers les pilotes actuellement installés, entrez la commande suivante : modinfo <driver name>...
  • Page 35: Installation Des Pilotes Linux À L'aide Du Paquet Rpm Src

    3–Installation des pilotes Installation du logiciel pilote pour Linux Pour supprimer les pilotes Linux dans un environnement RDMA : Pour obtenir le chemin vers les pilotes installés, entrez la commande suivante : modinfo <driver name> Déchargez et supprimez les pilotes Linux. modprobe -r qedr modprobe -r qede modprobe -r qed...
  • Page 36: Installation Des Pilotes Linux En Utilisant Le Package Rpm

    3–Installation des pilotes Installation du logiciel pilote pour Linux Installez le RPM qui vient d'être compilé : rpm -ivh RPMS/<arch>/qlgc-fastlinq-<version>.<arch>.rpm REMARQUE L'option peut être requise sur certaines distributions Linux en --force cas de conflit. Les pilotes seront installés dans les chemins d'accès suivants. Pour SLES : /lib/modules/<version>/updates/qlgc-fastlinq Pour RHEL :...
  • Page 37: Installation Des Pilotes Linux Avec Rdma

    Chapitre 7 Configuration d'iWARP. Pour installer les pilotes Linux dans un environnement avec OFED préinstallé : Téléchargez les pilotes Linux de l'Adaptateur série 41xxx à partir du site Dell : dell.support.com Configurez RoCE sur l'adaptateur comme indiqué à la section «...
  • Page 38: Paramètres Facultatifs Du Pilote Linux

    3–Installation des pilotes Installation du logiciel pilote pour Linux Paramètres facultatifs du pilote Linux Tableau 3-2 décrit les paramètres facultatifs pour le pilote qede. Tableau 3-2. Paramètres facultatifs du pilote qede Paramètre Description Contrôle le niveau de verbosité du pilote de manière similaire à ethtool debug -s <dev>...
  • Page 39: Messages Du Pilote Linux

    3–Installation des pilotes Installation du logiciel pilote pour Windows Tableau 3-3. Valeurs opérationnelles par défaut du pilote Linux (Suite) Valeur par défaut du pilote Valeur par défaut du pilote Opération qede — 4078 (plage : 128 à 8191) Tx Ring Size (Taille d'anneau Tx) —...
  • Page 40: Installation Des Pilotes Windows

    3–Installation des pilotes Installation du logiciel pilote pour Windows Installation des pilotes Windows Installez le logiciel pilote Windows à l'aide du progiciel de mise à jour Dell (Dell Update Package – DUP) :  Exécution du DUP dans l'IUG ...
  • Page 41 3–Installation des pilotes Installation du logiciel pilote pour Windows ® Dans la fenêtre de bienvenue de l'Assistant QLogic Super Installer (Figure 3-2), cliquez sur Suivant. Figure 3-2. Assistant QLogic InstallShield : Fenêtre de bienvenue AH0054602-02 F...
  • Page 42 3–Installation des pilotes Installation du logiciel pilote pour Windows Procédez ainsi dans la fenêtre de contrat de licence de l'Assistant (Figure 3-3) : Lisez le contrat de licence du logiciel de l'utilisateur final QLogic. Pour continuer, sélectionnez I accept the terms in the license agreement (J'accepte les conditions du contrat de licence).
  • Page 43 3–Installation des pilotes Installation du logiciel pilote pour Windows Remplissez la fenêtre de type d'installation de l'Assistant (Figure 3-4) comme suit : Sélectionnez l'un des types d'installation suivants : Cliquez sur Complète pour installer toutes les fonctions  du programme. ...
  • Page 44 3–Installation des pilotes Installation du logiciel pilote pour Windows  This feature, and all subfeatures, will be installed on the local hard drive (Cette fonctionnalité et toutes ses sous-fonctionnalités seront installées sur le disque dur local) : marque la fonction et toutes ses sous-fonctions pour installation ...
  • Page 45 3–Installation des pilotes Installation du logiciel pilote pour Windows Figure 3-6. Assistant InstallShield : Fenêtre Prêt à installer le programme AH0054602-02 F...
  • Page 46 3–Installation des pilotes Installation du logiciel pilote pour Windows Une fois l'installation terminée, la fenêtre Assistant InstallShield terminé apparaît (Figure 3-7). Cliquez sur Finish (Terminer) pour fermer le programme d'installation. Figure 3-7. Assistant InstallShield : Fenêtre Terminé AH0054602-02 F...
  • Page 47: Options D'installation De Dup

    DUP, les versions précédentes installées, les messages d'erreur et d'autres informations au sujet de l'installation.  Pour fermer la fenêtre Dell Update Package, cliquez sur CLOSE (FERMER). Figure 3-8. Fenêtre Dell Update Package Options d'installation de DUP Pour personnaliser le comportement d'installation de DUP, utilisez les options de ligne de commande suivantes.
  • Page 48: Exemples D'installation De Dup

    3–Installation des pilotes Installation du logiciel pilote pour Windows  (Avancé) Utilisez l'option pour envoyer tout le texte suivant /passthrough directement au logiciel d'installation QLogic du DUP. Ce mode /passthrough supprime toutes les interfaces GUI fournies, mais pas nécessairement celles du logiciel QLogic.
  • Page 49: Gestion Des Propriétés De L'adaptateur

    3–Installation des pilotes Installation du logiciel pilote pour Windows Gestion des propriétés de l'adaptateur Pour afficher ou modifier les propriétés de l'Adaptateur série 41xxx : Dans le panneau de configuration, cliquez sur le Gestionnaire de périphériques. Sur les propriétés de l'adaptateur sélectionné, cliquez sur l'onglet Avancé. Sur la page Avancé...
  • Page 50: Définition Des Options De Gestion De L'alimentation

    3–Installation des pilotes Installation du logiciel pilote pour Windows Définition des options de gestion de l'alimentation Vous pouvez définir les options de gestion de l'alimentation de façon à ce que le système d'exploitation désactive le contrôleur pour économiser de l'énergie ou de façon à...
  • Page 51: Installation Du Logiciel Pilote Pour Vmware

    3–Installation des pilotes Installation du logiciel pilote pour VMware Installation du logiciel pilote pour VMware Cette section décrit le pilote VMware ESXi qedentv pour les Adaptateurs série 41xxx.  Pilotes et jeux de pilotes VMware  Installation des pilotes VMware ...
  • Page 52: Installation Des Pilotes Vmware

    3–Installation des pilotes Installation du logiciel pilote pour VMware Tableau 3-5. Paquets de pilotes ESXi par version Version du Version ESXi Protocole Nom du pilote pilote qedentv 3.0.7.5 ESXi 6.5 FCoE qedf 1.2.24.0 iSCSI qedil 1.0.19.0 RoCE qedrntv 3.0.7.5.1 ESXi 6.0u3 qedentv 2.0.7.5 FCoE...
  • Page 53 3–Installation des pilotes Installation du logiciel pilote pour VMware Pour installer le pilote VMware : Téléchargez le pilote VMware des Adaptateur série 41xxx à partir de la page de support VMware : www.vmware.com/support.html Allumez l'hôte ESX et connectez-vous à un compte doté du rôle Administrateur.
  • Page 54: Paramètres Facultatifs Des Pilotes Vmware

    3–Installation des pilotes Installation du logiciel pilote pour VMware  Option 2 : Pour installer tous les fichiers VIB individuels en même temps en entrant la commande suivante : # esxcli software vib install –d /tmp/qedentv-bundle-2.0.3.zip Pour mettre à niveau un pilote existant : Suivez les étapes correspondant à...
  • Page 55: Paramètres Facultatifs Des Pilotes Vmware

    3–Installation des pilotes Installation du logiciel pilote pour VMware Tableau 3-6. Paramètres facultatifs des pilotes VMware (Suite) Paramètre Description Spécifie le nombre de files d'attente de mise à l'échelle en réception utilisées par l'hôte ou par le trafic en tunnel de LAN virtuel extensible (VXLAN) pour une fonction physique (PF).
  • Page 56: Paramètres Par Défaut Des Pilotes Vmware

    3–Installation des pilotes Installation du logiciel pilote pour VMware Paramètres par défaut des pilotes VMware Tableau 3-7 énumère les valeurs par défaut des paramètres des pilotes VMware. Tableau 3-7. Paramètres par défaut des pilotes VMware Paramètre Par défaut Speed (Vitesse) Négociation automatique avec annonce de toutes les vitesses.
  • Page 57: Suppression Du Pilote Vmware

    3–Installation des pilotes Installation du logiciel pilote pour VMware Suppression du pilote VMware Pour supprimer le fichier .vib (qedentv), entrez la commande suivante : # esxcli software vib remove --vibname qedentv Pour supprimer le pilote, entrez la commande suivante : # vmkload_mod -u qedentv Prise en charge de FCoE Tableau 3-8...
  • Page 58: Mise À Niveau Du Micrologiciel

    : Double-cliquez sur l'icône représentant le fichier du progiciel de mise à jour Dell du micrologiciel. L'écran de démarrage du progiciel de mise à jour Dell apparaît, comme illustré à la Figure 4-1. Cliquez sur Install (Installer) pour continuer.
  • Page 59 Le programme d'installation indique qu'il est en train de charger le nouveau micrologiciel, tel qu'illustré à la Figure 4-2. Figure 4-2. Progiciel de mise à jour Dell : Chargement du nouveau micrologiciel Une fois le chargement terminé, le programme d'installation affiche le résultat de l'installation, tel qu'illustré à la Figure 4-3.
  • Page 60 4–Mise à niveau du micrologiciel Exécution du DUP en double-cliquant Figure 4-3. Progiciel de mise à jour Dell : Résultats de l'installation Cliquez sur Yes (Oui) pour redémarrer le système. Cliquez sur Finish (Terminer) pour terminer l'installation, tel qu'illustré à la Figure 4-4.
  • Page 61: Exécution Du Dup Depuis Une Ligne De Commande

    Pour exécuter le DUP du micrologiciel depuis une ligne de commande :  Tapez la commande suivante : C:\> Network_Firmware_2T12N_WN32_<version>_X16.EXE Figure 4-5 indique les options qui peuvent être utilisées pour personnaliser l'installation du progiciel de mise à jour Dell. Figure 4-5. Options de ligne de commande du DUP AH0054602-02 F...
  • Page 62: Exécution Du Dup À L'aide Du Fichier .Bin

    Installed version: 08.07.26 Continue? Y/N:Y Y entered; update was forced by user Executing update... WARNING: DO NOT STOP THIS PROCESS OR INSTALL OTHER DELL PRODUCTS WHILE UPDATE IS IN PROGRESS. THESE ACTIONS MAY CAUSE YOUR SYSTEM TO BECOME UNSTABLE! ................
  • Page 63 4–Mise à niveau du micrologiciel Exécution du DUP à l'aide du fichier .bin Device: BCM57810 10 Gigabit Ethernet rev 10 (p2p2) Application: BCM57810 10 Gigabit Ethernet rev 10 (p2p2) Update success. Would you like to reboot your system now? Continue? Y/N:Y AH0054602-02 F...
  • Page 64: Configuration De Prédémarrage De L'adaptateur

    Configuration de prédémarrage de l'adaptateur Au cours du processus d'amorçage hôte, vous pouvez choisir de cliquer sur Pause et d'effectuer des tâches de gestion de l'adaptateur à l'aide de l'application Human Infrastructure Interface (HII). Il s'agit des tâches suivantes : ...
  • Page 65: Mise En Route

    5–Configuration de prédémarrage de l'adaptateur Mise en route Mise en route Pour démarrer l'application HII : Ouvrez la fenêtre de configuration du système (System Setup) de votre plateforme. Pour plus d'informations sur le lancement de la configuration du système, consultez le manuel d'utilisation de votre système. Dans la fenêtre de configuration du système (Figure 5-1), sélectionnez...
  • Page 66 5–Configuration de prédémarrage de l'adaptateur Mise en route Figure 5-3. Page de configuration principale Sous Configuration au niveau du périphérique, définissez le Mode de partitionnement sur NPAR pour ajouter l'option Configuration de partitionnement NIC à la page de configuration principale, de la façon indiquée dans la Figure 5-4.
  • Page 67: Propriétés De L'adaptateur

    5–Configuration de prédémarrage de l'adaptateur Mise en route Dans la Figure 5-3 et la Figure 5-4, la page de configuration principale montre les éléments suivants :  Propriétés d'image du micrologiciel (voir « Affichage des propriétés d'image du micrologiciel » à la page Configuration au niveau du périphérique (voir «...
  • Page 68: Affichage Des Propriétés D'image Du Micrologiciel

    5–Configuration de prédémarrage de l'adaptateur Affichage des propriétés d'image du micrologiciel Tableau 5-1. Propriétés de l'adaptateur (Suite) Propriété d'adaptateur Description Adresse MAC permanente de déchargement iSCSI de Adresse MAC iSCSI périphérique attribuée par le fabricant Adresse MAC virtuelle Adresse MAC de déchargement iSCSI de périphérique définie par l'utilisateur iSCSI Adresse MAC permanente de déchargement FCoE de...
  • Page 69: Configuration Des Paramètres Au Niveau Du Périphérique

    5–Configuration de prédémarrage de l'adaptateur Configuration des paramètres au niveau du périphérique  Version de pilote EFI est la version de pilote d'Extensible Firmware Interface (EFI).  Version de micrologiciel L2B est la version de micrologiciel de déchargement pour le démarrage. Figure 5-5.
  • Page 70 5–Configuration de prédémarrage de l'adaptateur Configuration des paramètres au niveau du périphérique Pour configurer les paramètres au niveau du périphérique : Sur la page de configuration principale, sélectionnez Configuration au niveau du périphérique (voir la Figure 5-3 à la page 43), puis appuyez sur ENTRÉE.
  • Page 71: Configuration Des Paramètres Nic

    5–Configuration de prédémarrage de l'adaptateur Configuration des paramètres NIC Configuration des paramètres NIC La configuration NIC comprend le réglage des paramètres suivants :  Vitesse de liaison  Mode NIC + RDMA  Prise en charge du protocole RDMA Mode d'amorçage ...
  • Page 72 5–Configuration de prédémarrage de l'adaptateur Configuration des paramètres NIC  25 Gbps active le mode de vitesse fixe 25GbE sur le port. Ce mode n'est pas disponible sur tous les adaptateurs.  SmartAN (valeur par défaut) active le mode de vitesse de liaison FastLinQ SmartAN™...
  • Page 73 5–Configuration de prédémarrage de l'adaptateur Configuration des paramètres NIC  iSCSI active le démarrage à distance iSCSI sur la voie de déchargement de matériel. Le mode iSCSI est disponible uniquement si le Déchargement iSCSI est activé sur la troisième partition en mode NPAR (voir «...
  • Page 74: Configuration De Data Center Bridging

    5–Configuration de prédémarrage de l'adaptateur Configuration de Data Center Bridging À l'invite, cliquez sur Oui pour enregistrer les modifications. Ces modifications prennent effet après la réinitialisation du système. Pour configurer le mode de démarrage du port : Pour une installation à distance PXE UEFI, sélectionnez PXE comme Mode de démarrage.
  • Page 75 5–Configuration de prédémarrage de l'adaptateur Configuration de Data Center Bridging Sur la page de Paramètres de Data Center Bridging (DCB), entrez la Priorité RoCE v1 sous forme de valeur de 0 à 7. Ce paramètre indique le numéro de priorité de classe de trafic DCB utilisé pour le trafic RoCE et doit correspondre au nombre utilisé...
  • Page 76: Configuration Du Démarrage Fcoe

    5–Configuration de prédémarrage de l'adaptateur Configuration du démarrage FCoE Configuration du démarrage FCoE REMARQUE Le menu de configuration de démarrage FCoE est uniquement visible si le Mode de déchargement FCoE est activé sur la deuxième partition en mode NPAR (voir Figure 5-18 à...
  • Page 77: Configuration Du Démarrage Iscsi

    5–Configuration de prédémarrage de l'adaptateur Configuration du démarrage iSCSI Figure 5-10. Configuration de cible FCoE Cliquez sur Précédent. À l'invite, cliquez sur Oui pour enregistrer les modifications. Ces modifications prennent effet après la réinitialisation du système. Configuration du démarrage iSCSI REMARQUE Le menu de Configuration de démarrage iSCSI est uniquement visible si le Mode de déchargement iSCSI est activé...
  • Page 78 5–Configuration de prédémarrage de l'adaptateur Configuration du démarrage iSCSI  Configuration d'initiateur iSCSI Configuration de la première cible iSCSI   Configuration de la deuxième cible iSCSI Appuyez sur ENTRÉE. Choisissez les valeurs des paramètres de configuration iSCSI appropriés : ...
  • Page 79 5–Configuration de prédémarrage de l'adaptateur Configuration du démarrage iSCSI Cliquez sur Précédent. À l'invite, cliquez sur Oui pour enregistrer les modifications. Ces modifications prennent effet après la réinitialisation du système. Figure 5-11. Paramètres généraux iSCSI AH0054602-02 F...
  • Page 80 5–Configuration de prédémarrage de l'adaptateur Configuration du démarrage iSCSI Figure 5-12. Paramètres de configuration de l'initiateur iSCSI Figure 5-13. Paramètres de la première cible iSCSI AH0054602-02 F...
  • Page 81 5–Configuration de prédémarrage de l'adaptateur Configuration du démarrage iSCSI Figure 5-14. Paramètres de la deuxième cible iSCSI AH0054602-02 F...
  • Page 82: Configuration Des Partitions

    5–Configuration de prédémarrage de l'adaptateur Configuration des partitions Configuration des partitions Vous pouvez configurer des plages de bande passante pour chaque partition sur l'adaptateur. Pour des informations spécifiques à la configuration de partition sous VMware ESXi 6.0/6.5, voir Partitionnement pour VMware ESXi 6.0 et ESXi 6.5.
  • Page 83 5–Configuration de prédémarrage de l'adaptateur Configuration des partitions Sur la page Allocation de la bande passante globale (Figure 5-16), cliquez sur le champ de bande passante d'émission (TX) maximale et minimale pour chaque partition, afin d'allouer de la bande passante. Il y a huit partitions par port en mode double port.
  • Page 84 5–Configuration de prédémarrage de l'adaptateur Configuration des partitions  Bande passante TX maximale de la partition n indique la bande passante maximale d'émission (TX) de la partition sélectionnée, exprimée en pourcentage de la vitesse de liaison maximale du port physique. Plage admise : de à...
  • Page 85 5–Configuration de prédémarrage de l'adaptateur Configuration des partitions Pour configurer la deuxième partition, sélectionnez Configuration de la partition 2 pour ouvrir la page de configuration de la partition 2. Si le déchargement FCoE est présent, la configuration de la partition 2 (Figure 5-18) affiche les paramètres suivants : ...
  • Page 86 5–Configuration de prédémarrage de l'adaptateur Configuration des partitions Figure 5-18. Configuration de la partition 2 : Déchargement FCoE Pour configurer la troisième partition, sélectionnez Configuration de la partition 3 pour ouvrir la page de configuration de la partition 3 (Figure 5-17).
  • Page 87: Partitionnement Pour Vmware Esxi 6.0 Et Esxi 6.5

    5–Configuration de prédémarrage de l'adaptateur Configuration des partitions Pour configurer les partitions Ethernet restantes, y compris la précédente (si elle n'est pas activée pour le déchargement), ouvrez la page pour une partition 2 ou une partition Ethernet supérieure (voir la Figure 5-20).
  • Page 88 5–Configuration de prédémarrage de l'adaptateur Configuration des partitions Une réinstallation du pilote est requise parce que les fonctions de stockage peuvent conserver l'énumération plutôt que , comme illustré lorsque vous vmnicX vmhbaX entrez la commande suivante sur le système : # esxcfg-scsidevs -a vmnic4 qedf...
  • Page 89: Configuration De Roce

    Configuration de RoCE Ce chapitre décrit la configuration de RDMA over converged Ethernet (RoCE v1 et v2) sur l'Adaptateur série 41xxx, le commutateur Ethernet, et l'hôte Windows ou Linux, y compris :  Systèmes d'exploitation pris en charge et OFED ...
  • Page 90: Planification Pour Roce

    6–Configuration de RoCE Planification pour RoCE Tableau 6-1. Prise en charge des SE pour RoCE v1, RoCE v2, iWARP et OFED (Suite) Système d'exploitation Préinstallé OFED 3.18-3 GA OFED-4.8-1 GA RHEL 7.3 RoCE v1, RoCE v2, iWARP, RoCE v1, RoCE v2, iSER iWARP RHEL 7.4...
  • Page 91: Préparation De L'adaptateur

    Préparation du commutateur Ethernet ® Cette section explique comment configurer un commutateur Ethernet Cisco ® ® Nexus 6000 et un commutateur Ethernet Dell Z9100 pour RoCE.  Configuration du commutateur Ethernet Cisco Nexus 6000  Configuration du commutateur Ethernet Dell Z9100...
  • Page 92: Configuration Du Commutateur Ethernet Cisco Nexus 6000

    6–Configuration de RoCE Préparation du commutateur Ethernet Configuration du commutateur Ethernet Cisco Nexus 6000 Les étapes de configuration du commutateur Ethernet Cisco Nexus 6000 pour RoCE comprennent la configuration des adressages de classes, la configuration des adressages de stratégies, l'application de la stratégie et l'affectation d'un ID VLAN au port de commutateur.
  • Page 93: Configuration Du Commutateur Ethernet Dell Z9100

    1,5 Configuration du commutateur Ethernet Dell Z9100 Pour configurer le commutateur Ethernet Dell Z9100 pour RoCE, voir la procédure dans Annexe C Configuration du commutateur Dell Z9100.
  • Page 94 6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Windows Server Tableau 6-2. Propriétés avancées pour RoCE (Suite) Propriétés Valeur ou description Mode RDMA RoCE v1 ou RoCE v2. La valeur iWARP s'applique uniquement lors de la configuration des ports pour iWARP, comme décrit au Chapitre 7 Configuration d'iWARP.
  • Page 95 6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Windows Server À l'aide de Windows PowerShell, vérifiez que RDMA est activé sur l'adaptateur. La commande répertorie les Get-NetAdapterRdma adaptateurs qui prennent en charge RDMA (les deux ports sont activés). REMARQUE Si vous configurez RoCE sur Hyper-V, n'attribuez pas d'ID de VLAN à...
  • Page 96: Affichage Des Compteurs Rdma

    6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Windows Server Affichage des compteurs RDMA La procédure suivante s’applique également à iWARP. Pour afficher les compteurs RDMA pour RoCE : Lancez Performance Monitor. Ouvrez la boîte de dialogue Ajouter des compteurs. La Figure 6-2 montre un exemple.
  • Page 97: Compteurs D'erreurs Fastlinq Rdma Cavium

    6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Windows Server REMARQUE Si les compteurs Cavium RDMA ne sont pas répertoriés dans la boîte de dialogue Moniteur de performance Ajouter des compteurs, ajoutez- les manuellement en émettant la commande suivante à partir de l’emplacement du pilote : Sélectionnez l'un des types de compteur suivants : Contrôle de la congestion FastLinQ Cavium :...
  • Page 98 6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Windows Server Figure 6-3 présente des exemples de sorties de la surveillance du compteur. Figure 6-3. Performance Monitor : Compteurs FastLinQ Cavium Tableau 6-3 fournit des détails à propos des compteurs d’erreurs. Table 6-3.
  • Page 99 6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Windows Server Table 6-3. Compteurs d’erreurs FastLinQ RDMA Cavium (Suite) Compteur S’applique S’applique d’erreurs Description Dépannage à RoCE ? à iWARP ? RDMA Mauvaise L’interlocuteur a retourné une — réponse du réponse mal formulée.
  • Page 100 6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Windows Server Table 6-3. Compteurs d’erreurs FastLinQ RDMA Cavium (Suite) Compteur S’applique S’applique d’erreurs Description Dépannage à RoCE ? à iWARP ? RDMA Demande Le côté distant a reçu un Les causes possibles distante du message non valide sur le canal.
  • Page 101 6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Windows Server Table 6-3. Compteurs d’erreurs FastLinQ RDMA Cavium (Suite) Compteur S’applique S’applique d’erreurs Description Dépannage à RoCE ? à iWARP ? RDMA Nombre de Le nombre maximum de Le pair à distance a tentatives nouvelles tentatives dues au RNR peut-être cessé...
  • Page 102: Configuration De Roce Sur L'adaptateur Pour Linux

    6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Linux Table 6-3. Compteurs d’erreurs FastLinQ RDMA Cavium (Suite) Compteur S’applique S’applique d’erreurs Description Dépannage à RoCE ? à iWARP ? RDMA Demande L’interlocuteur a détecté un Indique un mauvais distante de message entrant non valide comportement l'interlocuteur...
  • Page 103: Configuration De Roce Pour Rhel

    6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Linux Configuration de RoCE pour RHEL Pour que vous puissiez configurer RoCE sur l'adaptateur, vous devez avoir installé et configuré OFED (Open Fabrics Enterprise Distribution) sur l'hôte RHEL. Pour préparer OFED préinstallé pour RHEL : Pendant l'installation ou la mise à...
  • Page 104: Vérification De La Configuration Roce Sous Linux

    6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Linux perftest-x.x.x.x86_64.rpm (requis pour les applications de bande passante et de latence) Installez les pilotes Linux, comme décrit à la section « Installation des pilotes Linux avec RDMA » à la page Vérification de la configuration RoCE sous Linux Après avoir installé...
  • Page 105 6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Linux qede 96670 1 qedr 2075255 2 qede,qedr ib_core 88311 qedr, rdma_cm, ib_cm, ib_sa,iw_cm,xprtrdma,ib_mad,ib_srp, ib_ucm,ib_iser,ib_srpt,ib_umad, ib_uverbs,rdma_ucm,ib_ipoib,ib_isert Configurez l'adresse IP et activez le port à l'aide d'une méthode de configuration, comme ifconfig : # ifconfig ethX 192.168.10.10/24 up Entrez la commande : Pour chaque fonction PCI, vous devriez...
  • Page 106: Interfaces Vlan Et Valeurs D'index Gid

    6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Linux Sur le client, entrez la commande suivante : ibv_rc_pingpong -d <ib-dev> -g 0 <server L2 IP address> Voici des exemples de tests ping pong réussis sur le serveur et le client : Ping sur le serveur : root@captain:~# ibv_rc_pingpong -d qedr0 -g 0 local address:...
  • Page 107: Configuration De Roce V2 Pour Linux

    6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Linux fe80:0000:0000:0000:020e:1e00:0350:c5b0 VLAN ID 3 GID[ REMARQUE La valeur GID par défaut est zéro (0) pour les paramètres dos à dos ou pause. Pour les configurations de serveur/commutateur, vous devez identifier la valeur GID correcte. Si vous utilisez un commutateur, consultez la documentation de configuration correspondante pour connaître les paramètres appropriés.
  • Page 108: Vérification De L'adresse Et De L'index Gid De Roce V1 Ou V2 À Partir Des Paramètres Sys Et Class

    6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Linux GID[ 0000:0000:0000:0000:0000:ffff:1e01:010a GID[ 0000:0000:0000:0000:0000:ffff:1e01:010a GID[ 3ffe:ffff:0000:0f21:0000:0000:0000:0004 GID[ 3ffe:ffff:0000:0f21:0000:0000:0000:0004 GID[ 0000:0000:0000:0000:0000:ffff:c0a8:6403 GID[ 0000:0000:0000:0000:0000:ffff:c0a8:6403 Vérification de l'adresse et de l'index GID de RoCE v1 ou v2 à partir des paramètres sys et class Utilisez l'une des options suivantes pour vérifier l'adresse et l'index GID de RoCE v1 ou RoCE v2 à...
  • Page 109: Vérification De La Fonctionnalité De Roce V1 Ou V2 Par Les Applications Perftest

    6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Linux REMARQUE Vous devez spécifier les valeurs de l'index GID de RoCE v1 ou RoCE v2 en fonction de la configuration de serveur ou de commutateur (Pause/PFC). Utilisez l'index GID pour l'adresse IPv6 locale de liaison, l'adresse IPv4 ou l'adresse IPv6.
  • Page 110 6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Linux Pour vérifier RoCE v2 via des sous-réseaux différents Définissez la configuration de routage du serveur et du client en utilisant la configuration DCBX-PFC. Paramètres système :  Adresse IP de VLAN du serveur : 192.168.100.3 et Passerelle :192.168.100.1 Adresse IP de VLAN du client : 192.168.101.3 et Passerelle :192.168.101.1...
  • Page 111 6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Linux Paramètres de commutateur du serveur : Figure 6-4. Paramètres de commutateur, serveur Paramètres de commutateur du client : Figure 6-5. Paramètres de commutateur, client AH0054602-02 F...
  • Page 112 6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Linux Configuration des paramètres de RoCE v1 ou RoCE v2 pour les applications RDMA_CM Pour configurer RoCE, utilisez les scripts suivants du paquet source FastLinQ : # ./show_rdma_cm_roce_ver.sh qedr0 is configured to IB/RoCE v1 qedr1 is configured to IB/RoCE v1 # ./config_rdma_cm_roce_ver.sh v2 configured rdma_cm for qedr0 to RoCE v2...
  • Page 113: Configuration De Roce Sur L'adaptateur Pour Vmware Esx

    6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour VMware ESX Configuration de RoCE sur l'adaptateur pour VMware ESX Cette section fournit les procédures et informations suivantes pour la configuration de RoCE :  Configuration des interfaces RDMA  Configuration de MTU ...
  • Page 114: Configuration De Mtu

    6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour VMware ESX Par exemple : # esxcli network vswitch standard add -v roce_vs Ceci permet de créer un nouveau commutateur virtuel appelé roce_vs. Pour associer le port NIC QLogic au vSwitch, entrez la commande suivante : # esxcli network vswitch standard uplink add -u <uplink device>...
  • Page 115: Mode Et Statistiques De Roce

    6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour VMware ESX Par exemple : # esxcfg-vswitch -m 4000 roce_vs # esxcli rdma device list Name Driver State Speed Paired Uplink Description ------- ------- ------ ---- ------- ------------- ------------------------------- vmrdma0 qedrntv Active 2048 25 Gbps...
  • Page 116: Configuration D'un Périphérique Rdma Paravirtuel (Pvrdma)

    6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour VMware ESX Shared receive queues allocated: 0 Shared receive queue events: 0 Protection domains allocated: 1 Memory regions allocated: 3 Address handles allocated: 0 Memory windows allocated: 0 Configuration d'un périphérique RDMA paravirtuel (PVRDMA) Pour configurer un PVRDMA à...
  • Page 117 6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour VMware ESX Cliquez avec le bouton droit sur RoCE-VDS, puis cliquez sur Ajouter et gérer les hôtes. Sous Ajouter et gérer les hôtes, configurez les éléments suivants : Affecter les liaisons montantes. Sélectionnez dans la liste de ...
  • Page 118 6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour VMware ESX Sur la page Récapitulatif du pare-feu, cliquez sur Modifier. Dans la boîte de dialogue Modifier le profil de sécurité, en dessous de Nom, faites défiler, cochez la case pvrdma, puis cochez la case Définir pare-feu.
  • Page 119: Configuration D'iwarp

    Configuration d'iWARP Internet Wide Area RDMA Protocol (iWARP) est un protocole de réseau informatique qui met en œuvre RDMA pour un transfert de données efficace sur les réseaux IP. iWARP est conçu pour de multiples environnements, y compris les réseaux locaux, les réseaux de stockage, les réseaux de centres de données et les WAN.
  • Page 120: Configuration D'iwarp Sous Windows

    7–Configuration d'iWARP Configuration d'iWARP sous Windows Sur la page de configuration NIC : Définissez le Mode NIC + RDMA sur Activé. Définissez la Prise en charge du protocole RDMA sur iWARP. Cliquez sur Précédent. Sur la page de configuration principale, cliquez sur Terminer. Dans la boîte de dialogue Avertissement –...
  • Page 121 7–Configuration d'iWARP Configuration d'iWARP sous Windows À l'aide de Windows PowerShell, vérifiez que le RDMA est activé. La sortie de la commande (Figure 7-1) montre les adaptateurs qui Get-NetAdapterRdma prennent en charge RDMA. Figure 7-1. Commande Windows PowerShell : Get-NetAdapterRdma À...
  • Page 122 7–Configuration d'iWARP Configuration d'iWARP sous Windows Figure 7-3. Perfmon : Ajouter des compteurs Si un trafic iWARP est exécuté, les compteurs apparaissent comme indiqué dans l'exemple de la Figure 7-4. Figure 7-4. Perfmon : Vérification du trafic iWARP AH0054602-02 F...
  • Page 123: Configuration D'iwarp Sous Linux

    7–Configuration d'iWARP Configuration d'iWARP sous Linux REMARQUE Pour plus d'informations sur l’affichage des compteurs Cavium RDMA dans Windows, voir « Affichage des compteurs RDMA » à la page 73 Pour vérifier la connexion SMB : À l'invite de commande, entrez la commande de la manière net use suivante :...
  • Page 124: Installation Du Pilote

    7–Configuration d'iWARP Configuration d'iWARP sous Linux  Applications iWARP prises en charge  Exécution de perftest pour iWARP  Configuration de NFS-RDMA  Prise en charge d'iWARP RDMA-Core sous SLES 12 SP3, RHEL 7.4, et OFED 4.8x Installation du pilote Installez les pilotes RDMA de la façon indiquée dans le Chapitre 3 Installation des pilotes.
  • Page 125: Détection Du Périphérique

    7–Configuration d'iWARP Configuration d'iWARP sous Linux L'exemple suivant montre les entrées de commande pour changer le protocole RDMA en iWARP sur plusieurs interfaces NPAR : # modprobe qed rdma_protocol_map=04:00.1-3,04:00.3-3,04:00.5-3, 04:00.7-3,04:01.1-3,04:01.3-3,04:01.5-3,04:01.7-3 #modprobe -v qedr # ibv_devinfo |grep iWARP transport: iWARP (1) transport: iWARP (1) transport:...
  • Page 126: Applications Iwarp Prises En Charge

    7–Configuration d'iWARP Configuration d'iWARP sous Linux active_mtu: 1024 (3) sm_lid: port_lid: port_lmc: 0x00 link_layer: Ethernet Applications iWARP prises en charge Les applications RDMA prises en charge par Linux pour iWARP comprennent ce qui suit : ibv_devinfo, ib_devices   ib_send_bw/lat, ib_write_bw/lat, ib_read_bw/lat, ib_atomic_bw/lat Pour iWARP, toutes les applications doivent utiliser le gestionnaire de communication RDMA (rdma_cm) avec l'option ...
  • Page 127: Configuration De Nfs-Rdma

    7–Configuration d'iWARP Configuration d'iWARP sous Linux TX depth : 128 CQ Moderation : 100 : 1024[B] Link type : Ethernet GID index Max inline data : 0[B] rdma_cm QPs : ON Data ex. method : rdma_cm ---------------------------------------------------------------------------- local address: LID 0000 QPN 0x0192 PSN 0xcde932 GID: 00:14:30:196:192:110:00:00:00:00:00:00:00:00:00:00 remote address: LID 0000 QPN 0x0098 PSN 0x46fffc GID: 00:14:30:196:195:62:00:00:00:00:00:00:00:00:00:00...
  • Page 128 7–Configuration d'iWARP Configuration d'iWARP sous Linux Incluez le port RDMA par défaut 20049 dans ce fichier comme suit : # echo rdma 20049 > /proc/fs/nfsd/portlist Pour mettre les répertoires locaux à la disposition des clients NFS à monter, entrez la commande comme suit : exportfs # exportfs -v...
  • Page 129: Prise En Charge D'iwarp Rdma-Core Sous Sles 12 Sp3, Rhel 7.4, Et Ofed 4.8X

    7–Configuration d'iWARP Configuration d'iWARP sous Linux Prise en charge d'iWARP RDMA-Core sous SLES 12 SP3, RHEL 7.4, et OFED 4.8x La bibliothèque d'espace utilisateur libqedr fait partie du rdma-core. Toutefois, le libqedr non préinstallé ne prend pas en charge SLES 12 SP3, RHEL 7.4, OFED 4.8x.
  • Page 130 7–Configuration d'iWARP Configuration d'iWARP sous Linux ping data: rdma-ping-2: CDEFGHIJKLMNOPQRSTUVWXYZ[\]^_`abcdefghijklmnopqrst ping data: rdma-ping-3: DEFGHIJKLMNOPQRSTUVWXYZ[\]^_`abcdefghijklmnopqrstu ping data: rdma-ping-4: EFGHIJKLMNOPQRSTUVWXYZ[\]^_`abcdefghijklmnopqrstuv client DISCONNECT EVENT... Pour exécuter des applications d'OFED préinstallé, telles que perftest et d'autres applications InfiniBand, entrez la commande suivante pour définir le chemin d'accès à...
  • Page 131: Configuration D'iser

    Configuration d'iSER Ce chapitre fournit les procédures de configuration des extensions iSCSI pour RDMA (iSCSI Extensions for RDMA – iSER) sous Linux (RHEL et SLES) et ESXi 6.7, y compris :  Avant de commencer  Configuration d'iSER pour RHEL «...
  • Page 132: Configuration D'iser Pour Rhel

    8–Configuration d'iSER Configuration d'iSER pour RHEL Configuration d'iSER pour RHEL Pour configurer iSER pour RHEL : Installez OFED préinstallé, comme indiqué à la section « Configuration de RoCE pour RHEL » à la page 80. Les versions d'OFED non préinstallées ne sont pas prises en charge pour iSER parce que le module ib_isert n'est pas disponible dans les versions d'OFED non préinstallées 3.18-2 GA/3.18-3 GA.
  • Page 133 8–Configuration d'iSER Configuration d'iSER pour RHEL Figure 8-1 montre un exemple de ping RDMA réussi. Figure 8-1. Ping RDMA réussi Vous pouvez utiliser une cible TCM-LIO Linux pour tester iSER. La configuration est identique pour les cibles iSCSI, mais vous entrez la commande sur les portails concernés.
  • Page 134 8–Configuration d'iSER Configuration d'iSER pour RHEL Pour changer le mode de transport à iSER, entrez la commande . Par exemple : iscsiadm iscsiadm -m node -T iqn.2015-06.test.target1 -o update -n iface.transport_name -v iser Pour vous connecter à la cible iSER, entrez la commande iscsiadm Par exemple : iscsiadm -m node -l -p 192.168.100.99:3260 -T...
  • Page 135: Configuration D'iser Pour Sles 12

    8–Configuration d'iSER Configuration d'iSER pour SLES 12 Pour vérifier un nouveau périphérique iSCSI, comme le montre la Figure 8-4, entrez la commande lsscsi Figure 8-4. Vérification de nouveau périphérique iSCSI Configuration d'iSER pour SLES 12 Étant donné que targetcli n'est pas préinstallé sur SLES 12.x, vous devez effectuer la procédure suivante.
  • Page 136: Utilisation D'iser Avec Iwarp Sous Rhel Et Sles

    8–Configuration d'iSER Utilisation d'iSER avec iWARP sous RHEL et SLES Démarrez l'utilitaire targetcli, puis configurez vos cibles sur le système cible iSER. REMARQUE Les versions de targetcli ne sont pas les mêmes sous RHEL et SLES. Veillez à utiliser les backstores correctes pour configurer vos cibles. ...
  • Page 137 8–Configuration d'iSER Utilisation d'iSER avec iWARP sous RHEL et SLES Figure 8-5 montre la configuration de la cible pour LIO. Figure 8-5. Configuration de cible LIO Pour configurer un initiateur pour iWARP : Pour détecter la cible LIO iSER à l'aide du port 3261, entrez la commande comme suit : iscsiadm # iscsiadm -m discovery -t st -p 192.168.21.4:3261 -I iser...
  • Page 138: Optimisation Des Performances Linux

    8–Configuration d'iSER Optimisation des performances Linux Optimisation des performances Linux Considérez les améliorations de configuration des performances Linux suivantes décrites dans cette section.  Configuration des UC sur le mode Performances maximales  Configuration des paramètres sysctl du noyau  Configuration des paramètres d'affinité...
  • Page 139: Configuration Des Paramètres D'affinité D'irq

    8–Configuration d'iSER Configuration d’iSER sous ESXi 6.7 Configuration des paramètres d'affinité d'IRQ L'exemple suivant configure respectivement les cœurs d'UC 0, 1, 2 et 3 pour interrompre les demandes (IRQ) XX, YY, ZZ et XYZ. Effectuez ces étapes pour chaque IRQ attribuée à un port (par défaut, huit files d'attente par port). systemctl disable irqbalance systemctl stop irqbalance Affiche les IRQ attribuées à...
  • Page 140: Configuration D'iser Pour Esxi 6.7

    8–Configuration d'iSER Configuration d’iSER sous ESXi 6.7 Interface Port Group/DVPort/Opaque Network IP Family IP Address Netmask Broadcast MAC Address TSO MSS Enabled Type NetStack vmk0 Management Network IPv4 172.28.12.94 255.255.240.0 172.28.15.255 e0:db:55:0c:5f:94 1500 65535 true DHCP defaultTcpipStack vmk0 Management Network IPv6 fe80::e2db:55ff:fe0c:5f94 e0:db:55:0c:5f:94 1500...
  • Page 141 8–Configuration d'iSER Configuration d’iSER sous ESXi 6.7 vmnic5 0000:42:00.1 qedentv 40000Mbps Full 00:0e:1e:d5:f6:a3 1500 QLogic Corp. QLogic FastLinQ QL41xxx 10/25/40/50/100 GbE Ethernet Adapter esxcli network vswitch standard uplink add -u vmnic5 -v vSwitch_iser1 esxcli network vswitch standard portgroup add -p "rdma_group1" -v vSwitch_iser1 esxcli network ip interface add -i vmk1 -p "rdma_group1"...
  • Page 142 8–Configuration d'iSER Configuration d’iSER sous ESXi 6.7 esxcli storage core adapter rescan --adapter vmhba65 Répertoriez la cible jointe comme suit : esxcfg-scsidevs -l mpx.vmhba0:C0:T4:L0 Device Type: CD-ROM Size: 0 MB Display Name: Local TSSTcorp CD-ROM (mpx.vmhba0:C0:T4:L0) Multipath Plugin: NMP Console Device: /vmfs/devices/cdrom/mpx.vmhba0:C0:T4:L0 Devfs Path: /vmfs/devices/cdrom/mpx.vmhba0:C0:T4:L0 Vendor: TSSTcorp Model: DVD-ROM SN-108BB...
  • Page 143: Configuration Iscsi

    Configuration iSCSI Ce chapitre fournit les informations suivantes concernant la configuration de iSCSI :  Démarrage iSCSI  « Configuration du démarrage iSCSI » à la page 127  « Configuration du serveur DHCP pour la prise en charge du démarrage iSCSI »...
  • Page 144: Configuration Du Démarrage Iscsi

    9–Configuration iSCSI Démarrage iSCSI Configuration du démarrage iSCSI La configuration du démarrage iSCSI comprend :  Sélection du mode de démarrage iSCSI préféré  Configuration de la cible iSCSI  Configuration des paramètres d'initialisation iSCSI Sélection du mode de démarrage iSCSI préféré L'option de mode de démarrage apparaît sous Configuration iSCSI (Figure 9-1)
  • Page 145: Configuration De La Cible Iscsi

    9–Configuration iSCSI Démarrage iSCSI Configuration de la cible iSCSI La configuration de la cible iSCSI varie en fonction des fournisseurs cibles. Pour plus d'informations sur la configuration de la cible iSCSI, reportez-vous à la documentation du fournisseur. Pour configurer la cible iSCSI : Sélectionnez la procédure appropriée en fonction de votre cible iSCSI : ®...
  • Page 146 9–Configuration iSCSI Démarrage iSCSI Table 9-1. Options de configuration Option Description Cette option est spécifique à IPv4. Contrôle si le logiciel hôte de TCP/IP parameters via DHCP démarrage iSCSI obtient les informations d'adresse IP via DHCP (Paramètres TCP/IP via DHCP) (Enabled) (Activé) ou par le biais d'une configuration IP statique (Disabled) (Désactivé).
  • Page 147: Configuration Du Mode De Démarrage Uefi De L'adaptateur

    9–Configuration iSCSI Démarrage iSCSI Configuration du mode de démarrage UEFI de l'adaptateur Pour configurer le mode de démarrage : Redémarrez votre système. Accédez au menu Utilitaires système (Figure 9-2). REMARQUE Le démarrage SAN est pris en charge uniquement dans l'environnement UEFI.
  • Page 148 9–Configuration iSCSI Démarrage iSCSI Dans Configuration du système, Paramètres de périphérique, sélectionnez le périphérique QLogic (Figure 9-3). Reportez-vous au guide d'utilisation OEM pour accéder au menu de configuration de périphérique PCI. Figure 9-3. Configuration du système : Utilitaire de configuration des paramètres de périphérique AH0054602-02 F...
  • Page 149 9–Configuration iSCSI Démarrage iSCSI Sur la page de configuration principale, sélectionnez Configuration NIC (Figure 9-4), et appuyez sur ENTRÉE. Figure 9-4. Sélection de la configuration NIC AH0054602-02 F...
  • Page 150: Configuration Du Démarrage Iscsi

    9–Configuration iSCSI Configuration du démarrage iSCSI Sur la page « Configuration NIC » (Figure 9-5), sélectionnez Protocole de démarrage, et appuyez sur ENTRÉE pour sélectionner UEFI iSCSI HBA (exige le mode NPAR). Figure 9-5. Configuration du système : Configuration NIC, Protocole de démarrage Choisissez l'une des options de configuration suivantes : ...
  • Page 151 9–Configuration iSCSI Configuration du démarrage iSCSI Pour configurer les paramètres de démarrage iSCSI par le biais d'une configuration statique : Sur la page de configuration principale HII du périphérique, sélectionnez Configuration iSCSI (Figure 9-6), et appuyez sur ENTRÉE. Figure 9-6. Configuration du système : Configuration iSCSI Sur la page de configuration iSCSI, sélectionnez Paramètres généraux iSCSI (Figure...
  • Page 152 9–Configuration iSCSI Configuration du démarrage iSCSI Sur la page des paramètres généraux iSCSI (Figure 9-8), appuyez sur les touches FLÈCHE VERS LE HAUT et FLÈCHE VERS LE BAS pour sélectionner un paramètre, puis appuyez sur la touche ENTRÉE pour sélectionner ou saisir les valeurs suivantes : ...
  • Page 153 9–Configuration iSCSI Configuration du démarrage iSCSI Sélectionnez Paramètres de l'initiateur iSCSI (Figure 9-9) et appuyez sur ENTRÉE. Figure 9-9. Configuration du système : Sélectionner les paramètres d'initiateur iSCSI Sur la page des paramètres d'initiateur iSCSI (Figure 9-10), sélectionnez les paramètres suivants, puis entrez une valeur pour chacun d'eux : ...
  • Page 154 9–Configuration iSCSI Configuration du démarrage iSCSI REMARQUE Notez ce qui suit pour les éléments précédents comportant des astérisques (*) :  Vous verrez IPv6 ou IPv4 (par défaut) en fonction de la version IP définie sur la page des paramètres généraux iSCSI (Figure 9-8 à...
  • Page 155 9–Configuration iSCSI Configuration du démarrage iSCSI Sélectionnez Paramètres de la première cible iSCSI (Figure 9-11) et appuyez sur ENTRÉE. Figure 9-11. Configuration du système : Sélection des paramètres de la première cible iSCSI Sur la page Paramètres cibles iSCSI, définissez l'option Connexion sur Activé...
  • Page 156 9–Configuration iSCSI Configuration du démarrage iSCSI Figure 9-12. Configuration du système : Paramètres de la première cible iSCSI Retournez à la page Configuration du démarrage iSCSI, puis appuyez sur la touche ÉCHAP. AH0054602-02 F...
  • Page 157 9–Configuration iSCSI Configuration du démarrage iSCSI Si vous souhaitez configurer un deuxième périphérique cible iSCSI, sélectionnez Paramètres de la deuxième cible iSCSI (Figure 9-13), et entrez les valeurs des paramètres comme vous l'avez fait à l'étape Sinon, passez à l'étape Figure 9-13.
  • Page 158: Configuration De L'initialisation Iscsi Dynamique

    9–Configuration iSCSI Configuration du démarrage iSCSI Cliquez sur Oui pour enregistrer les modifications, ou suivez les instructions de l'OEM pour enregistrer la configuration au niveau du périphérique. Par exemple, cliquez sur Oui pour confirmer la modification des paramètres (Figure 9-14). Figure 9-14.
  • Page 159 9–Configuration iSCSI Configuration du démarrage iSCSI Pour plus d'informations sur la configuration des options, reportez-vous au Tableau 9-1 à la page 123. REMARQUE Lors de l'utilisation d'un serveur DHCP, les entrées du serveur DNS sont écrasées par les valeurs provenant du serveur DHCP. Cela se produit même si les valeurs fournies localement sont valides et que le serveur DHCP ne transmet aucune information concernant le serveur DNS.
  • Page 160: Activation De L'authentification Chap

    9–Configuration iSCSI Configuration du démarrage iSCSI  ID de LAN virtuel : Selon les besoins Mode de démarrage LAN virtuel : Activé  Figure 9-15. Configuration du système : paramètres généraux iSCSI Activation de l'authentification CHAP Assurez-vous que l'authentification CHAP est activée sur la cible. Pour activer l'authentification CHAP : Accédez à...
  • Page 161: Configuration Du Serveur Dhcp Pour La Prise En Charge Du Démarrage Iscsi

    9–Configuration iSCSI Configuration du serveur DHCP pour la prise en charge du démarrage iSCSI Dans la fenêtre Paramètres de la première cible iSCSI, entrez les valeurs utilisées lors de la configuration de la cible iSCSI :  ID CHAP (facultatif si CHAP bidirectionnel) Secret CHAP (facultatif si CHAP bidirectionnel ;...
  • Page 162: Définition

    9–Configuration iSCSI Configuration du serveur DHCP pour la prise en charge du démarrage iSCSI Tableau 9-2 répertorie les paramètres de l'option DHCP 17. Table 9-2. Définition des paramètres de l'option DHCP 17 Paramètre Définition Une chaîne littérale "iscsi:" Adresse IP ou nom de domaine complet (FQDN) de la cible iSCSI <servername>...
  • Page 163: Configuration Du Serveur Dhcp

    9–Configuration iSCSI Configuration du serveur DHCP pour la prise en charge du démarrage iSCSI Tableau 9-3 répertorie les sous-options de l'option DHCP 43. Table 9-3. Définition des sous-options de l'option DHCP 43 Sous-option Définition Informations sur la première cible iSCSI au format du chemin racine standard : "iscsi:"<servername>":"<protocol>":"<port>":"<LUN>": "<targetname>"...
  • Page 164: Configuration De Dhcp Pour Le Démarrage Iscsi Pour Ipv6

    9–Configuration iSCSI Configuration du serveur DHCP pour la prise en charge du démarrage iSCSI Configuration de DHCP pour le démarrage iSCSI pour IPv6 Le serveur DHCPv6 peut fournir plusieurs options, y compris la configuration IP sans état ou avec état, ainsi que des informations pour le client DHCPv6. Pour un démarrage iSCSI, les adaptateurs QLogic prennent en charge les configurations DHCP suivantes : ...
  • Page 165: Configuration Des Vlan Pour Le Démarrage Iscsi

    9–Configuration iSCSI Déchargement iSCSI sous Windows Server Le contenu de l'option 17 devrait être le suivant : <2-byte Option Number 201|202|203> <2-byte length> <data> Configuration des VLAN pour le démarrage iSCSI Le trafic iSCSI sur le réseau peut être isolé dans un VLAN de couche 2 pour le séparer du trafic général.
  • Page 166: Installation Des Pilotes Qlogic

    9–Configuration iSCSI Déchargement iSCSI sous Windows Server Si vous détenez une licence adéquate pour le déchargement iSCSI, vous pouvez configurer votre Adaptateur série 41xxx compatible iSCSI de sorte à décharger le traitement iSCSI du processeur hôte. Les sections suivantes décrivent la façon de permettre au système de bénéficier de la fonction de déchargement iSCSI de QLogic.
  • Page 167 9–Configuration iSCSI Déchargement iSCSI sous Windows Server Sur la page de configuration (Figure 9-17), cliquez sur Modifier pour modifier le nom de l'initiateur. Figure 9-17. Propriétés de l'initiateur d'iSCSI, page de configuration Dans la boîte de dialogue Nom de l'initiateur iSCSI, entrez le nouveau nom IQN de l'initiateur, puis cliquez sur OK.
  • Page 168 9–Configuration iSCSI Déchargement iSCSI sous Windows Server Dans Propriétés de l'initiateur d'iSCSI, cliquez sur l'onglet Détection. Sur la page Détection (Figure 9-19), sous Portails cibles, cliquez sur Détecter le portail. Figure 9-19. Initiateur iSCSI – Détecter le portail cible AH0054602-02 F...
  • Page 169 9–Configuration iSCSI Déchargement iSCSI sous Windows Server Dans la boîte de dialogue Détecter le portail cible (Figure 9-20) : Dans la zone Adresse IP ou Nom DNS, entrez l'adresse IP de la cible. Cliquez sur Avancé. Figure 9-20. Adresse IP du portail cible Dans la boîte de dialogue Paramètres avancés (Figure 9-21), procédez...
  • Page 170 9–Configuration iSCSI Déchargement iSCSI sous Windows Server Cliquez sur OK. Figure 9-21. Sélection de l'adresse IP de l'initiateur Dans Propriétés de l'initiateur iSCSI, page Détection, cliquez sur OK. AH0054602-02 F...
  • Page 171 9–Configuration iSCSI Déchargement iSCSI sous Windows Server Cliquez sur l'onglet Cibles, puis sur la page Cibles (Figure 9-22), cliquez sur Connexion. Figure 9-22. Connexion à la cible iSCSI AH0054602-02 F...
  • Page 172: Faq Sur Le Déchargement Iscsi

    9–Configuration iSCSI Déchargement iSCSI sous Windows Server Dans la boîte de dialogue Connexion à la cible, (Figure 9-23), cliquez sur Avancé. Figure 9-23. Boîte de dialogue Connexion à la cible Dans la boîte de dialogue Adaptateur local, sélectionnez l'adaptateur <nom ou modèle>...
  • Page 173: Installation Du Démarrage Iscsi Windows Server 2012 R2 Et 2016

    9–Configuration iSCSI Déchargement iSCSI sous Windows Server Question : Comment savoir si la connexion est déchargée ? Réponse : Utilisez l'initiateur logiciel iSCSI Microsoft. Depuis une ligne de commande, saisissez . Depuis Initiator oiscsicli sessionlist Name (Nom de l'initiateur), une connexion iSCSI déchargée affiche une entrée commençant par .
  • Page 174: Vidage Sur Incident Iscsi

    9–Configuration iSCSI Déchargement iSCSI dans les environnements Linux Suivez les instructions à l'écran. Sur la fenêtre qui affiche la liste des disques disponibles pour l'installation, le disque de la cible iSCSI devrait être visible. Il s'agit d'un disque connecté via le protocole de démarrage iSCSI et situé...
  • Page 175: Différences Avec Bnx2I

    9–Configuration iSCSI Déchargement iSCSI dans les environnements Linux Cette section fournit les informations suivantes sur le déchargement iSCSI sous Linux :  Différences avec bnx2i  Configuration de qedi.ko Vérification des interfaces iSCSI sous Linux   Considérations relatives à Open-iSCSI et au démarrage à partir de SAN Différences avec bnx2i Il existe plusieurs différences importantes entre qedi –...
  • Page 176: Vérification Des Interfaces Iscsi Sous Linux

    9–Configuration iSCSI Déchargement iSCSI dans les environnements Linux Vérification des interfaces iSCSI sous Linux Après l'installation et le chargement du module du noyau qedi, vous devez vérifier que les interfaces iSCSI ont été détectées correctement. Pour vérifier les interfaces iSCSI sous Linux : Pour vérifier que le module qedi et les modules du noyau associés sont activement chargés, entrez la commande suivante : # lsmod | grep qedi...
  • Page 177 9–Configuration iSCSI Déchargement iSCSI dans les environnements Linux Pour vous assurer que le service iscsiuio est exécuté, entrez la commande suivante : # systemctl status iscsiuio.service iscsiuio.service - iSCSI UserSpace I/O driver Loaded: loaded (/usr/lib/systemd/system/iscsiuio.service; disabled; vendor preset: disabled) Active: active (running) since Fri 2017-01-27 16:33:58 IST; 6 days ago Docs: man:iscsiuio(8) Process: 3745 ExecStart=/usr/sbin/iscsiuio (code=exited, status=0/SUCCESS)
  • Page 178: Considérations Relatives À Open-Iscsi Et Au Démarrage À Partir De San

    9–Configuration iSCSI Déchargement iSCSI dans les environnements Linux Pour vérifier que la session iSCSI a été créée, entrez la commande suivante : # iscsiadm -m session qedi: [297] 192.168.25.100:3260,1 iqn.2003-04.com.sanblaze:virtualun.virtualun.target-05000007 (non-flash) Pour vérifier les périphériques iSCSI, entrez la commande iscsiadm # iscsiadm -m session -P3 ************************ Attached SCSI devices:...
  • Page 179: Démarrage Iscsi L4 Pour Rhel 6.9 À Partir De La Migration

    9–Configuration iSCSI Déchargement iSCSI dans les environnements Linux Pour démarrer à partir de SAN à l'aide des solutions Dell OEM : Sur la page « Configuration NIC », sélectionnez Protocole de démarrage, et appuyez sur ENTRÉE pour sélectionner Environ. exéc. Prédémarrag hérité.
  • Page 180 9–Configuration iSCSI Déchargement iSCSI dans les environnements Linux # rpm -ivh --force iscsiuio-2.11.5.2-1.rhel6u9.x86_64.rpm Modifiez le fichier , ajoutez la commande suivante, /etc/init.d/iscsid puis enregistrez le fichier : modprobe -q qedi Par exemple : echo -n $"Starting $prog: " modprobe -q iscsi_tcp modprobe -q ib_iser modprobe -q cxgb3i modprobe -q cxgb4i...
  • Page 181 9–Configuration iSCSI Déchargement iSCSI dans les environnements Linux Créez un enregistrement Iface pour une interface L4. Tapez la commande suivante : # iscsiadm -m iface -I qedi.14:02:ec:ce:dc:71 -o new New interface qedi.14:02:ec:ce:dc:71 added Le format de l’enregistrement Iface doit être .
  • Page 182 9–Configuration iSCSI Déchargement iSCSI dans les environnements Linux kernel /vmlinuz-2.6.32-696.el6.x86_64 ro root=/dev/mapper/vg_prebooteit-lv_root rd_NO_LUKS iscsi_firmware LANG=en_US.UTF-8 rd_NO_MD SYSFONT=latarcyrheb-sun16 crashkernel=auto rd_NO_DM rd_LVM_LV=vg_prebooteit/lv_swap KEYBOARDTYPE=pc KEYTABLE=us rd_LVM_LV=vg_prebooteit/lv_root selinux=0 initrd /initramfs-2.6.32-696.el6.x86_64.img Montez le fichier en entrant la commande suivante : initramfs # dracut -f Redémarrez le serveur et ouvrez le HII. Dans le HII, activez le mode déchargement de l’iSCSI.
  • Page 183 9–Configuration iSCSI Déchargement iSCSI dans les environnements Linux #systemctl daemon-reload Redémarrez les services iscsid et iscsiuio en entrant les commandes suivantes : # systemctl restart iscsiuio # systemctl restart iscsid Créez un enregistrement Iface pour l’interface L4 en entrant la commande suivante : # iscsiadm -m iface -I qedi.
  • Page 184 9–Configuration iSCSI Déchargement iSCSI dans les environnements Linux Créez un nouveau fichier en entrant la commande suivante : grub.cfg # grub2-mkconfig -o /boot/efi/EFI/redhat/grub.cfg Montez le fichier en entrant la commande suivante : initramfs # dracut -f Redémarrez le serveur et ouvrez le HII. Dans le HII, activez le mode déchargement de l’iSCSI.
  • Page 185 9–Configuration iSCSI Déchargement iSCSI dans les environnements Linux Modifiez le fichier et trouvez l’élément suivant : /etc/sysconfig/kernel INITRD_MODULES=”ata_piix ata_generic” Remplacez-le par : INITRD_MODULES=”ata_piix ata_generic qedi” Enregistrez le fichier. Modifiez le fichier , modifiez la /etc/modprobe.d/unsupported-modules valeur pour à 1 et enregistrez le fichier : allow_unsupported_modules allow_unsupported_modules 1 Trouvez et supprimez les fichiers suivants :...
  • Page 186 9–Configuration iSCSI Déchargement iSCSI dans les environnements Linux Enregistrez la configuration et redémarrez le serveur. REMARQUE Le système d'exploitation peut maintenant démarrer via l'interface de déchargement. Démarrage iSCSI L4 pour SLES 12 SP1/SP2 à partir de la migration SAN Pour migrer d'une interface sans déchargement vers une interface avec déchargement : Démarrez dans le système d'exploitation iSCSI sans déchargement/L2 démarrage à...
  • Page 187: Démarrage Iscsi L4 Pour Sles 12 Sp1/Sp2 À Partir De La Migration San À L'aide

    9–Configuration iSCSI Déchargement iSCSI dans les environnements Linux  Démarrage UEFI : pour SLES /boot/efi/EFI/sles/grub.cfg Créez un nouveau fichier en entrant la commande suivante : grub.cfg # grub2-mkconfig -o <new file name> Comparez l’ancien fichier et le nouveau fichier pour grub.cfg grub.cfg vérifier les modifications apportées.
  • Page 188 9–Configuration iSCSI Déchargement iSCSI dans les environnements Linux Allez à et mettez le paramètre /etc/default/grub rd.iscsi.ibft rd.iscsi.firmware Tapez la commande suivante : grub2-mkconfig -o /boot/efi/EFI/suse/grub.cfg Pour charger le module multichemin, entrez la commande suivante : modprobe dm_multipath Pour activer le démon multichemin, entrez les commandes suivantes : systemctl start multipathd.service systemctl enable multipathd.service systemctl start multipathd.socket...
  • Page 189: Configuration Du Démarrage Iscsi À Partir Du San Pour Rhel 7.4 Et Les Versions Ultérieures

    9–Configuration iSCSI Configuration du démarrage iSCSI à partir du SAN pour RHEL 7.4 et les versions ultérieures Allez sur la page « Configuration principale », puis sélectionnez Configuration iSCSI. Sur la page « Configuration iSCSI », sélectionnez Paramètres généraux iSCSI. Sur la page «...
  • Page 190 9–Configuration iSCSI Configuration du démarrage iSCSI à partir du SAN pour RHEL 7.4 et les versions ultérieures Appuyez sur ‘e’ pour modifier l'élément sélectionné ou sur ‘c’ pour une invite de commande Pour installer un pilote non préinstallé, saisissez . Sinon, passez à l'étape Sélectionnez la ligne de noyau, puis saisissez Utilisez la commande suivante, puis appuyez sur ENTRÉE.
  • Page 191 9–Configuration iSCSI Configuration du démarrage iSCSI à partir du SAN pour RHEL 7.4 et les versions ultérieures Si votre configuration l'exige, chargez le disque de mise à jour de pilote FastLinQ lorsque vous êtes invité à introduire des disques de pilote supplémentaires.
  • Page 192 9–Configuration iSCSI Configuration du démarrage iSCSI à partir du SAN pour RHEL 7.4 et les versions ultérieures Modifiez le fichier /sysroot/usr/libexec/iscsi-mark-root-nodes trouvez l’élément suivant : if [ "$transport" = bnx2i ]; then Remplacez-le par : if [ "$transport" = bnx2i ] || [ "$transport" = qedi ]; then Démontez le système de fichiers à...
  • Page 193: Configuration De Fcoe

    Configuration de FCoE Ce chapitre fournit les informations de configuration suivantes de Fibre Channel over Ethernet (FCoE) :  Démarrage FCoE à partir de SAN  « Injection (intégration) de pilotes de l'adaptateur dans les fichiers image Windows » à la page 178 «...
  • Page 194: Préparation Du Bios Système Pour La Version De Fcoe Et Le Démarrage

    10–Configuration de FCoE Démarrage FCoE à partir de SAN Préparation du BIOS système pour la version de FCoE et le démarrage Pour préparer le BIOS du système, modifiez la séquence de démarrage du système et spécifiez le protocole de démarrage du BIOS, si nécessaire. Spécification du protocole de démarrage du BIOS Le démarrage FCoE à...
  • Page 195 10–Configuration de FCoE Démarrage FCoE à partir de SAN REMARQUE Le démarrage SAN est pris en charge uniquement dans l'environnement UEFI. Assurez-vous que l'option de démarrage du système est UEFI et non le BIOS hérité. Sur la page Paramètres de périphérique, sélectionnez le périphérique QLogic (Figure 10-2).
  • Page 196 10–Configuration de FCoE Démarrage FCoE à partir de SAN Sur la page de configuration principale, sélectionnez Configuration NIC (Figure 10-3), et appuyez sur ENTRÉE. Figure 10-3. Configuration du système : Configuration NIC Sur la page de configuration NIC, sélectionnez Mode de démarrage, et appuyez sur ENTRÉE pour sélectionner FCoE comme mode de démarrage préféré.
  • Page 197 10–Configuration de FCoE Démarrage FCoE à partir de SAN Figure 10-4. Configuration du système : Mode FCoE activé Pour configurer les paramètres de démarrage FCoE : Sur la page de configuration principale HII du périphérique, sélectionnez Configuration FCoE, et appuyez sur ENTRÉE. Sur la page de configuration FCoE, sélectionnez Paramètres généraux FCoE, et appuyez sur ENTRÉE.
  • Page 198 10–Configuration de FCoE Démarrage FCoE à partir de SAN Figure 10-5. Configuration du système : Paramètres généraux FCoE Retournez à la page Configuration FCoE. Appuyez sur ÉCHAP et sélectionnez Paramètres de cible FCoE. Appuyez sur ENTRÉE. Dans le menu Paramètres de cible FCoE, activez Connexion à la cible FCoE préférée.
  • Page 199: Démarrage Fcoe À Partir De San Pour Windows

    10–Configuration de FCoE Démarrage FCoE à partir de SAN Figure 10-6. Configuration du système : Paramètres généraux FCoE Démarrage FCoE à partir de SAN pour Windows Les informations du démarrage FCoE à partir SAN pour Windows comprennent :  Installation du démarrage FCoE Windows Server 2012 R2 et 2016 ...
  • Page 200: Configuration De Fcoe

    10–Configuration de FCoE Démarrage FCoE à partir de SAN Chargez les images de démarrage FCoE QLogic les plus récentes dans la NVRAM de l'adaptateur. Configurez la cible FCoE de sorte à autoriser une connexion depuis le périphérique distant. Assurez-vous que l'espace disque soit suffisant sur la cible pour contenir l'installation du nouveau système d'exploitation.
  • Page 201: Injection (Intégration) De Pilotes De L'adaptateur Dans Les Fichiers Image

    10–Configuration de FCoE Injection (intégration) de pilotes de l'adaptateur dans les fichiers image Windows Injection (intégration) de pilotes de l'adaptateur dans les fichiers image Windows Pour injecter des pilotes de l'adaptateur dans les fichiers image Windows : Procurez-vous le paquet de pilotes le plus récent pour la version Windows Server applicable (2012, 2012 R2 ou 2016).
  • Page 202: Configuration Du Déchargement Fcoe Pour Linux

    10–Configuration de FCoE Configuration du déchargement FCoE pour Linux REMARQUE Notez ce qui suit concernant le support d'installation du système d'exploitation :  Le support d'installation du système d'exploitation devrait être un lecteur local. Les chemins réseau des supports d'installation du système d'exploitation ne sont pas pris en charge.
  • Page 203: Différences Entre Qedf Et Bnx2Fc

    10–Configuration de FCoE Différences entre qedf et bnx2fc REMARQUE En cas d’installation avec SLES 11 ou SLES 12, le paramètre n’est pas requis car l’Adaptateur série 41xxx ne requiert withfcoe=1 plus le démon logiciel FCoE. Différences entre qedf et bnx2fc Il existe des différences significatives entre qedf –...
  • Page 204: Vérification Des Périphériques Fcoe Sous Linux

    10–Configuration de FCoE Vérification des périphériques FCoE sous Linux REMARQUE Reportez-vous au Chapitre 3 Installation des pilotes pour plus de renseignements sur l'installation des pilotes FastLinQ. Le chargement du module du noyau qedf.ko effectue les actions suivantes : # modprobe qed # modprobe libfcoe # modprobe qedf Vérification des périphériques FCoE sous Linux...
  • Page 205: Configuration Du Démarrage Fcoe À Partir Du San Pour Rhel 7.4 Et Les Versions Ultérieures

    10–Configuration de FCoE Configuration du démarrage FCoE à partir du SAN pour RHEL 7.4 et les versions ultérieures 243.991851] [0000:21:00.3]: [qedf_link_update:489]:5: LINK UP (40 GB/s). Vérifiez les périphériques FCoE détectés à l'aide de lsblk -S # lsblk -S NAME HCTL TYPE VENDOR MODEL...
  • Page 206 10–Configuration de FCoE Configuration du démarrage FCoE à partir du SAN pour RHEL 7.4 et les versions ultérieures Utilisez la commande suivante, puis appuyez sur ENTRÉE. linux dd modprobe.blacklist=qed modprobe.blacklist=qede modprobe.blacklist=qedr modprobe.blacklist=qedi modprobe.blacklist=qedf Vous pouvez utiliser l'option au lieu de inst.dd linux dd Le processus d'installation vous invite à...
  • Page 207 10–Configuration de FCoE Configuration du démarrage FCoE à partir du SAN pour RHEL 7.4 et les versions ultérieures Poursuivez l'installation. Vous pouvez ignorer le test de support. Cliquez sur Suivant pour poursuivre l'installation. Dans la fenêtre de Configuration (Figure 10-8), sélectionnez la langue à utiliser pendant le processus d'installation, et cliquez ensuite sur Continuer.
  • Page 208: Configuration De Sr-Iov

    Configuration de SR-IOV Single Root Input/Output Virtualization (SR-IOV) est une spécification de PCI-SIG qui permet à un seul périphérique PCI Express (PCIe) d'apparaître sous la forme de plusieurs périphériques PCIe physiques distincts. SR-IOV permet d'isoler les ressources PCIe à des fins de performance, d'interopérabilité et de gestion. REMARQUE Certaines fonctionnalités SR-IOV peuvent ne pas être entièrement activées dans la version actuelle.
  • Page 209 11–Configuration de SR-IOV Configuration de SR-IOV sous Windows Sur la page Périphériques intégrés (Figure 11-1) : Définissez l'option Activation globale SR-IOV sur Activé. Cliquez sur Précédent. Figure 11-1. Configuration système pour SR-IOV : Périphériques intégrés Sur la page de configuration principale de l'adaptateur sélectionné, cliquez sur Configuration au niveau du périphérique.
  • Page 210 11–Configuration de SR-IOV Configuration de SR-IOV sous Windows Sur la page de configuration principale, cliquez sur Terminer. Dans la boîte de dialogue Avertissement – Enregistrement des modifications, cliquez sur Oui pour enregistrer la configuration. Dans la boîte de dialogue Succès – Enregistrement des modifications, cliquez sur OK.
  • Page 211 11–Configuration de SR-IOV Configuration de SR-IOV sous Windows Cochez la case Activer single-root I/O virtualization (SR-IOV), et cliquez ensuite sur Appliquer. REMARQUE Veillez à activer SR-IOV lorsque vous créez le vSwitch. Cette option n'est pas disponible après que le vSwitch est créé. Figure 11-4.
  • Page 212 11–Configuration de SR-IOV Configuration de SR-IOV sous Windows Pour obtenir les capacités de commutateur de machine virtuelle, entrez la commande Windows PowerShell suivante : PS C:\Users\Administrator> Get-VMSwitch -Name SR-IOV_vSwitch | fl La sortie de la commande comprend les capacités SR-IOV Get-VMSwitch suivantes : IovVirtualFunctionCount...
  • Page 213 11–Configuration de SR-IOV Configuration de SR-IOV sous Windows Figure 11-5. Paramètres de la VM : Activation de SR-IOV Installez les pilotes QLogic pour les adaptateurs détectés dans la VM. Utilisez les pilotes les plus récents disponibles auprès du fournisseur de votre système d'exploitation hôte (n'utilisez pas les pilotes préinstallés).
  • Page 214 11–Configuration de SR-IOV Configuration de SR-IOV sous Windows Après l'installation des pilotes, l'adaptateur QLogic est répertorié dans la VM. La Figure 11-6 montre un exemple. Figure 11-6. Gestion de périphériques : VM avec adaptateur QLogic Pour afficher les détails de VF pour SR-IOV, entrez la commande Windows PowerShell suivante : PS C:\Users\Administrator>...
  • Page 215: Configuration De Sr-Iov Sous Linux

    11–Configuration de SR-IOV Configuration de SR-IOV sous Linux Configuration de SR-IOV sous Linux Pour configurer SR-IOV sous Linux : Accédez à la configuration système du BIOS du serveur, puis cliquez sur Paramètres BIOS système. Sur la page Paramètres BIOS système, cliquez sur Périphériques intégrés. Sur la page Périphériques intégrés du système (voir Figure 11-1 à...
  • Page 216 11–Configuration de SR-IOV Configuration de SR-IOV sous Linux Sur la page Configuration système, sélectionnez Paramètres de périphérique. Sur la page Paramètres de périphérique, sélectionnez le Port 1 de l'adaptateur QLogic. Sur la page Configuration au niveau du périphérique (Figure 11-9) : Définissez le Mode de virtualisation sur SR-IOV.
  • Page 217 11–Configuration de SR-IOV Configuration de SR-IOV sous Linux Figure 11-10. Modification du fichier grub.conf pour SR-IOV Enregistrez le fichier et redémarrez le système. grub.conf Pour vérifier que les modifications ont été appliquées, entrez la commande suivante : dmesg | grep iommu Une sortie réussie de la commande input–output memory management unit (IOMMU) devrait afficher, par exemple :...
  • Page 218 11–Configuration de SR-IOV Configuration de SR-IOV sous Linux Pour un port spécifique, activez une quantité de VF. Entrez la commande suivante pour activer, par exemple, 8 VF sur l'instance PCI 04 :00.0 (bus 4, périphérique 0, fonction 0) : [root@ah-rh68 ~]# echo 8 > /sys/devices/pci0000:00/0000:00:02.0/0000:04:00.0/sriov_numvfs Vérifiez la sortie de la commande (Figure...
  • Page 219 11–Configuration de SR-IOV Configuration de SR-IOV sous Linux Figure 11-12. Sortie de la commande ip link show Attribuez et vérifiez les adresses MAC : Pour attribuer une adresse MAC à la VF, entrez la commande suivante : ip link set <pf device> vf <vf index> mac <mac address> Assurez-vous que l'interface VF est opérationnelle et exécutée avec l'adresse MAC attribuée.
  • Page 220 11–Configuration de SR-IOV Configuration de SR-IOV sous Linux Éteignez la VM et attachez la VF. (Certains systèmes d'exploitation prennent en charge la connexion à chaud de VF à la VM). Dans la boîte de dialogue Machine virtuelle (Figure 11-13), cliquez sur Ajouter un matériel.
  • Page 221: Configuration De Sr-Iov Sous Vmware

    11–Configuration de SR-IOV Configuration de SR-IOV sous VMware Cliquez sur Terminer. Figure 11-14. Ajouter un nouveau matériel virtuel Allumez la VM et entrez la commande suivante : check lspci -vv|grep -I ether Installez les pilotes pour les adaptateurs détectés dans la VM. Utilisez les pilotes les plus récents disponibles auprès du fournisseur de votre système d'exploitation hôte (n'utilisez pas les pilotes préinstallés).
  • Page 222 11–Configuration de SR-IOV Configuration de SR-IOV sous VMware Sur la page Configuration au niveau du périphérique (voir Figure 11-2 à la page 186) : Définissez le Mode de virtualisation sur SR-IOV. Cliquez sur Précédent. Sur la page de configuration principale, cliquez sur Terminer. Enregistrez les paramètres de configuration et redémarrez le système.
  • Page 223 11–Configuration de SR-IOV Configuration de SR-IOV sous VMware 0000:05:03.7 Network controller: QLogic Corp. QLogic FastLinQ QL41xxx Series 10/25 GbE Controller (SR-IOV VF) [PF_0.5.0_VF_15] 0000:05:0e.0 Network controller: QLogic Corp. QLogic FastLinQ QL41xxx Series 10/25 GbE Controller (SR-IOV VF) [PF_0.5.1_VF_0] 0000:05:0e.1 Network controller: QLogic Corp. QLogic FastLinQ QL41xxx Series 10/25 GbE Controller (SR-IOV VF) [PF_0.5.1_VF_1] 0000:05:0e.2 Network controller: QLogic Corp.
  • Page 224 11–Configuration de SR-IOV Configuration de SR-IOV sous VMware Figure 11-15. Paramètres de modification de l'hôte VMware Pour valider les VF par port, entrez la commande comme suit : esxcli [root@localhost:~] esxcli network sriovnic vf list -n vmnic6 VF ID Active PCI Address Owner World ID -----...
  • Page 225 11–Configuration de SR-IOV Configuration de SR-IOV sous VMware false 005:02.2 false 005:02.3 false 005:02.4 false 005:02.5 false 005:02.6 false 005:02.7 false 005:03.0 false 005:03.1 false 005:03.2 false 005:03.3 false 005:03.4 false 005:03.5 false 005:03.6 false 005:03.7 Installez les pilotes QLogic pour les adaptateurs détectés dans la VM. Utilisez les pilotes les plus récents disponibles auprès du fournisseur de votre système d'exploitation hôte (n'utilisez pas les pilotes préinstallés).
  • Page 226: Configuration De Nvme-Of Avec Rdma

    Configuration de NVMe-oF avec RDMA Le protocole Non-Volatile Memory Express over Fabrics (NVMe-oF) permet d'utiliser des transports alternatifs vers PCIe pour étendre la distance sur laquelle peuvent se connecter un périphérique hôte NVMe et un lecteur ou sous-système de stockage NVMe. NVMe-oF définit une architecture commune qui prend en charge une gamme de matrices réseau de stockage pour le protocole de stockage de blocs NVMe sur une matrice réseau de stockage.
  • Page 227 12–Configuration de NVMe-oF avec RDMA Figure 12-1 illustre un exemple de réseau. Adaptateur série Adaptateur série 41xxx 41xxx Figure 12-1. Réseau NVMe-oF Le processus de configuration de NVMe-oF couvre les procédures suivantes : Installation des pilotes de périphérique sur les deux serveurs Configuration du serveur cible Configuration du serveur initiateur Préconditionnement du serveur cible...
  • Page 228: Installation Des Pilotes De Périphérique Sur Les Deux Serveurs

    12–Configuration de NVMe-oF avec RDMA Installation des pilotes de périphérique sur les deux serveurs Installation des pilotes de périphérique sur les deux serveurs Après installation de votre système d'exploitation (RHEL 7.4 ou SLES 12 SP3), installez les pilotes de périphérique sur les deux serveurs. Pour mettre à jour le noyau vers le tout dernier noyau Linux en amont, accédez à...
  • Page 229: Configuration Du Serveur Cible

    12–Configuration de NVMe-oF avec RDMA Configuration du serveur cible Si des changements ont été apportés au noyau, redémarrez sur ce nouveau noyau de système d’exploitation. Pour obtenir des instructions sur la configuration du noyau de démarrage par défaut, accédez à : https://wiki.centos.org/HowTos/Grub2 Activez et démarrez le service RDMA comme suit : # systemctl enable rdma.service...
  • Page 230: Paramètres De Cible

    12–Configuration de NVMe-oF avec RDMA Configuration du serveur cible Tableau 12-1. Paramètres de cible Commande Description Autoriser n'importe quel hôte à se connecter. # echo 1 > attr_allow_any_host Créer un espace de noms # mkdir namespaces/1 Définir le chemin d'accès au périphérique NVMe. # echo -n /dev/nvme0n1 >namespaces/ Le chemin d'accès au périphérique NVMe peut 1/device_path...
  • Page 231: Configuration Du Serveur Initiateur

    12–Configuration de NVMe-oF avec RDMA Configuration du serveur initiateur Configuration du serveur initiateur Vous configurez le serveur initiateur après le processus de redémarrage. Une fois le serveur en fonctionnement, vous ne pouvez plus modifier la configuration sans redémarrage. Si vous utilisez le script de démarrage pour configurer le serveur initiateur, pensez à...
  • Page 232 12–Configuration de NVMe-oF avec RDMA Configuration du serveur initiateur Figure 12-2. NQN de sous-système Connectez la cible NVMe-oF détectée ( ) à l'aide de nvme-qlogic-tgt1 NQN. Entrez la commande suivante après chaque redémarrage du serveur. Par exemple : # nvme connect -t rdma -n nvme-qlogic-tgt1 -a 1.1.1.1 -s 1023 Confirmez la connexion de la cible NVMe-oF au périphérique NVMe-oF de la façon suivante : # dmesg | grep nvme...
  • Page 233: Préconditionnement Du Serveur Cible

    12–Configuration de NVMe-oF avec RDMA Préconditionnement du serveur cible Préconditionnement du serveur cible Les serveurs cibles NVMe qui sont testés non préinstallés présentent un niveau de performance plus élevé qu'attendu. Avant l'exécution d'une batterie d'essais, le serveur cible doit être prérempli ou préconditionné. Pour préconditionner le serveur cible : Procédez à...
  • Page 234: Optimisation Des Performances

    12–Configuration de NVMe-oF avec RDMA Optimisation des performances Exécutez l'utilitaire FIO pour mesurer la latence du périphérique NVMe-oF initiateur. Tapez la commande suivante : # fio --filename=/dev/nvme0n1 --direct=1 --time_based --rw=randread --refill_buffers --norandommap --randrepeat=0 --ioengine=libaio --bs=4k --iodepth=1 --numjobs=1 --runtime=60 --group_reporting --name=temp.out FIO indique deux types de latence : soumission et achèvement.
  • Page 235: Affinité .Irq (Multi_Rss-Affin.sh)

    12–Configuration de NVMe-oF avec RDMA Optimisation des performances  Hyperthreading = désactivé Configurez les paramètres du noyau Linux en modifiant le fichier grub (/etc/default/grub). Ajoutez les paramètres à la fin de la ligne GRUB_CMDLINE_LINUX : GRUB_CMDLINE_LINUX="nosoftlockup intel_idle.max_cstate=0 processor.max_cstate=1 mce=ignore_ce idle=poll" Enregistrez le fichier grub.
  • Page 236: Fréquence D'uc (Cpufreq.sh)

    12–Configuration de NVMe-oF avec RDMA Optimisation des performances #!/bin/bash #RSS affinity setup script #input: the device name (ethX) #OFFSET=0 0/1/2 0/1/2/3 #FACTOR=1 OFFSET=0 FACTOR=1 LASTCPU='cat /proc/cpuinfo | grep processor | tail -n1 | cut -d":" -f2' MAXCPUID='echo 2 $LASTCPU ^ p | dc' OFFSET='echo 2 $OFFSET ^ p | dc'...
  • Page 237 12–Configuration de NVMe-oF avec RDMA Optimisation des performances for CPUFREQ in /sys/devices/system/cpu/cpu*/cpufreq/scaling_governor; do [ -f $CPUFREQ ] || continue; echo -n performance > $CPUFREQ; done cat /sys/devices/system/cpu/cpu0/cpufreq/scaling_governor Pour configurer les paramètres de réseau ou de mémoire : sysctl -w net.ipv4.tcp_mem="16777216 16777216 16777216" sysctl -w net.ipv4.tcp_wmem="4096 65536 16777216"...
  • Page 238: Windows Server 2016

    Windows Server 2016 Ce chapitre fournit les informations suivantes concernant Windows Server 2016 :  Configuration des interfaces RoCE avec Hyper-V  « RoCE sur Switch Embedded Teaming » à la page 220  « Configuration de QoS pour RoCE » à la page 222 «...
  • Page 239: Création D'un Commutateur Virtuel Hyper-V Avec Une Nic Virtuelle Rdma

    13–Windows Server 2016 Configuration des interfaces RoCE avec Hyper-V Création d'un commutateur virtuel Hyper-V avec une NIC virtuelle RDMA Suivez les procédures de cette section pour créer un commutateur virtuel Hyper-V, puis activez RDMA dans la VNIC hôte. Pour créer un commutateur virtuel Hyper-V avec une NIC virtuelle RDMA : Lancez le Gestionnaire Hyper-V.
  • Page 240: Ajout D'un Id Vlan À Une Nic Virtuelle Hôte

    13–Windows Server 2016 Configuration des interfaces RoCE avec Hyper-V Sur la page Avancé (Figure 13-2) : Sous Propriété, sélectionnez Network Direct (RDMA). Sous Valeur, sélectionnez Activé. Cliquez sur OK. Figure 13-2. Propriétés de la carte Ethernet virtuelle Hyper-V Pour activer RDMA, entrez la commande Windows PowerShell suivante : PS C:\Users\Administrator>...
  • Page 241: Vérification De L'activation De Roce

    13–Windows Server 2016 Configuration des interfaces RoCE avec Hyper-V Pour définir l'ID VLAN sur la NIC virtuelle hôte, entrez la commande Windows PowerShell suivante : PS C:\Users\Administrator> Set-VMNetworkAdaptervlan -VMNetworkAdapterName ""New Virtual Switch" -VlanId 5 -Access -Management05 REMARQUE Prenez note de ce qui suit concernant l'ajout d'un ID VLAN à une NIC virtuelle hôte : ...
  • Page 242: Mappage Du Lecteur Smb Et Exécution Du Trafic Roce

    13–Windows Server 2016 Configuration des interfaces RoCE avec Hyper-V Pour attribuer un ID VLAN au port virtuel, entrez la commande suivante : Set-VMNetworkAdapterVlan -VMNetworkAdapterName SMB -VlanId 5 -Access -ManagementOS Mappage du lecteur SMB et exécution du trafic RoCE Pour mapper le lecteur SMB et exécuter le trafic RoCE : Lancez Performance Monitor (Perfmon).
  • Page 243: Roce Sur Switch Embedded Teaming

    13–Windows Server 2016 RoCE sur Switch Embedded Teaming Si le trafic RoCE est exécuté, les compteurs apparaissent comme indiqué à Figure 13-6. Figure 13-6. Performance Monitor montre le trafic RoCE RoCE sur Switch Embedded Teaming Switch Embedded Teaming (SET) est la solution alternative d'association de NIC de Microsoft qui peut être utilisée dans les environnements incluant Hyper-V et la pile SDN (Software Defined Networking) dans Windows Server 2016 Technical Preview.
  • Page 244: Création D'un Commutateur Virtuel Hyper-V Avec Des Nic Virtuelles Rdma Et Set

    13–Windows Server 2016 RoCE sur Switch Embedded Teaming Création d'un commutateur virtuel Hyper-V avec des NIC virtuelles RDMA et SET Pour créer un commutateur virtuel Hyper-V avec des NIC virtuelles RDMA et SET :  Pour créer un SET, entrez la commande Windows PowerShell suivante : PS C:\Users\Administrator>...
  • Page 245: Exécution Du Trafic Rdma Sur Set

    13–Windows Server 2016 Configuration de QoS pour RoCE REMARQUE Prenez note de ce qui suit lors de l'ajout d'un ID VLAN à une NIC virtuelle hôte :  Assurez-vous que l'ID VLAN n'est pas affecté à l'interface physique lors de l'utilisation d'une NIC virtuelle hôte pour RoCE. ...
  • Page 246 13–Windows Server 2016 Configuration de QoS pour RoCE Activez QoS sur le miniport comme suit : Ouvrez la fenêtre miniport, puis cliquez sur l'onglet Avancé. Sur la page Propriétés avancées de l'adaptateur (Figure 13-9), sous Propriété, sélectionnez Qualité de service, puis définissez la valeur sur Activé.
  • Page 247 13–Windows Server 2016 Configuration de QoS pour RoCE Figure 13-10. Propriétés avancées : Configuration d'ID VLAN Pour activer le contrôle de flux basé sur la priorité pour RoCE pour une priorité spécifique, entrez la commande suivante : PS C:\Users\Administrators> Enable-NetQoSFlowControl -Priority 4 REMARQUE Si vous configurez RoCE sur Hyper-V, n'attribuez pas d'ID VLAN à...
  • Page 248 13–Windows Server 2016 Configuration de QoS pour RoCE True Global False Global False Global False Global Pour configurer QoS et attribuer la priorité pertinente à chaque type de trafic, entrez les commandes suivantes (où la Priorité 4 correspond à RoCE et la Priorité...
  • Page 249: Configuration De Qos En Activant Dcbx Sur L'adaptateur

    13–Windows Server 2016 Configuration de QoS pour RoCE Name Algorithm Bandwidth(%) Priority PolicySet IfIndex IfAlias ---- --------- ------------ -------- --------- ------- ------- [Default] 2-3,5-7 Global RDMA class Global TCP class Global Pour afficher la QoS de l'adaptateur réseau à partir de la configuration précédente, entrez la commande Windows PowerShell suivante : PS C:\Users\Administrator>...
  • Page 250 13–Windows Server 2016 Configuration de QoS pour RoCE Pour installer le rôle DCB sur l'hôte, entrez la commande Windows PowerShell suivante : PS C:\Users\Administrators> Install-WindowsFeature Data-Center-Bridging REMARQUE Pour cette configuration, configurez le Protocole DCBX sur CEE. Pour définir le mode DCBX Willing sur Vrai, entrez la commande PowerShell suivante : PS C:\Users\Administrators>...
  • Page 251 13–Windows Server 2016 Configuration de QoS pour RoCE Attribuez un ID VLAN à l'interface (requis pour PFC) comme suit : Ouvrez la fenêtre miniport, puis cliquez sur l'onglet Avancé. Sur la page Propriétés avancées de l'adaptateur (Figure 13-12), sous Propriété, sélectionnez ID VLAN, puis définissez la valeur. Cliquez sur OK.
  • Page 252: Configuration De Vmmq

    13–Windows Server 2016 Configuration de VMMQ OperationalTrafficClasses : TC TSA Bandwidth Priorities -- --- --------- ---------- 0 ETS 0-3,5-7 1 ETS OperationalFlowControl : Priority 4 Enabled OperationalClassifications : Protocol Port/Type Priority -------- --------- -------- NetDirect 445 RemoteTrafficClasses : TC TSA Bandwidth Priorities -- --- --------- ----------...
  • Page 253: Activation De Vmmq Sur L'adaptateur

    13–Windows Server 2016 Configuration de VMMQ  Création d'une VM et activation de VMMQ sur VMNetworkadapters dans la VM  NIC virtuelle VMMQ par défaut et maximum Activation et désactivation de VMMQ sur une NIC de gestion   Surveillance des statistiques de trafic Activation de VMMQ sur l'adaptateur Pour activer VMMQ sur l'adaptateur : Ouvrez la fenêtre miniport, puis cliquez sur l'onglet Avancé.
  • Page 254: Création D'un Commutateur De Machine Virtuelle Avec Ou

    13–Windows Server 2016 Configuration de VMMQ Configuration du port virtuel par défaut et non-par défaut de paires de files d'attente (QP) max VMMQ Pour configurer le port virtuel par défaut et non-par défaut de paires de files d'attente (QP) maximum VMMQ : Ouvrez la fenêtre miniport, et cliquez sur l'onglet Avancé.
  • Page 255 13–Windows Server 2016 Configuration de VMMQ Sous Type de connexion : Cliquez sur Réseau externe. Cochez la case Autoriser le système d'exploitation de gestion à partager cette carte réseau. Figure 13-15. Gestionnaire de commutateur virtuel Cliquez sur OK. AH0054602-02 F...
  • Page 256: Activation De Vmmq Sur Le Commutateur De Machine Virtuelle

    13–Windows Server 2016 Configuration de VMMQ Activation de VMMQ sur le commutateur de machine virtuelle Pour activer VMMQ sur le commutateur de machine virtuelle :  Entrez la commande Windows PowerShell suivante : PS C:\Users\Administrators> Set-VMSwitch -name q1 -defaultqueuevmmqenabled $true -defaultqueuevmmqqueuepairs 4 Obtention de la fonction de commutateur de machine virtuelle Pour obtenir la fonction de commutateur de machine virtuelle : ...
  • Page 257: Création D'une Vm Et Activation De Vmmq Sur Vmnetworkadapters Dans La Vm

    13–Windows Server 2016 Configuration de VMMQ Création d'une VM et activation de VMMQ sur VMNetworkadapters dans la VM Pour créer une machine virtuelle (VM) et activer VMMQ sur les VMNetworkadapters dans la VM : Créez une VM. Ajoutez le VMNetworkadapter à la VM. Affectez un commutateur virtuel au VMNetworkadapter.
  • Page 258: Nic Virtuelle Vmmq Par Défaut Et Maximum

    13–Windows Server 2016 Configuration de VMMQ Name MacAddress ProcMask State QPairs ---- ---------- -------- ----- ------ Ethernet 3 00-15-5D-36-0A-07 Activated Adaptive Ethernet 3 00-15-5D-36-0A-08 0:16 Activated Adaptive Ethernet 3 00-15-5D-36-0A-09 Activated Adaptive Ethernet 3 00-15-5D-36-0A-0A Activated Adaptive Ethernet 3 00-15-5D-36-0A-0B Activated Adaptive Ethernet 3...
  • Page 259: Surveillance Des Statistiques De Trafic

    13–Windows Server 2016 Configuration de VXLAN Surveillance des statistiques de trafic Pour surveiller le trafic de fonction virtuelle dans une machine virtuelle, entrez la commande Windows PowerShell suivante : PS C:\Users\Administrator> Use get-netadapterstatistics | fl Configuration de VXLAN Les informations de configuration de VXLAN comprennent : ...
  • Page 260: Déploiement D'un Réseau Défini Par Logiciel

    13–Windows Server 2016 Configuration des Espaces de stockage direct Déploiement d'un réseau défini par logiciel Pour profiter du déchargement de tâches d'encapsulation VXLAN sur les machines virtuelles, vous devez déployer une pile de réseau défini par logiciel (Software-Defined Networking – SDN) qui utilise un contrôleur réseau Microsoft. Pour plus de détails, reportez-vous au lien de Microsoft TechNet suivant sur les réseaux définis par logiciel : https://technet.microsoft.com/en-us/windows-server-docs/networking/sdn/...
  • Page 261: Déploiement D'un Système Hyper-Convergé

    13–Windows Server 2016 Configuration des Espaces de stockage direct REMARQUE Les disques utilisés dans cet exemple sont des disques NVMe ™ 400 G x4 et SSD 200 G x12. Déploiement d'un système hyper-convergé Cette section comprend les instructions pour installer et configurer les composants d'un système hyper-convergé...
  • Page 262 Activez le port du commutateur et assurez-vous que le port du commutateur prend en charge le mode d'association indépendante du commutateur et fait également partie de plusieurs réseaux VLAN. Exemple de configuration de commutateur Dell : no ip address mtu 9416...
  • Page 263: Configuration Des Espaces De Stockage Direct

    13–Windows Server 2016 Configuration des Espaces de stockage direct REMARQUE Les commandes précédentes configurent la NIC virtuelle à partir du commutateur virtuel que vous venez de configurer pour le système d'exploitation de gestion à utiliser. Pour configurer la NIC virtuelle hôte pour utiliser un VLAN, entrez les commandes suivantes : Set-VMNetworkAdapterVlan -VMNetworkAdapterName "SMB_1"...
  • Page 264 13–Windows Server 2016 Configuration des Espaces de stockage direct  Étape 3. Configuration d'un témoin de cluster  Étape 4. Disques de nettoyage utilisés pour les Espaces de stockage direct  Étape 5. Activation des Espaces de stockage direct  Étape 6.
  • Page 265 13–Windows Server 2016 Configuration des Espaces de stockage direct La commande Windows PowerShell suivante peut être placée dans un fichier Windows PowerShell script ( ) et exécutée à partir du système de gestion .PS1 dans une console ouverte Windows PowerShell (ou Windows PowerShell ISE) avec privilèges d'Administrateur.
  • Page 266: Déploiement Et Gestion De Nano Server

    13–Windows Server 2016 Déploiement et gestion de Nano Server  Configure le cache des Espaces de stockage direct S'il existe plusieurs types de support disponibles pour l'utilisation d'Espaces de stockage direct, il configure le type le plus efficace en tant que périphériques de cache (dans la plupart des cas, lecture et écriture).
  • Page 267: Rôles Et Fonctionnalités

    13–Windows Server 2016 Déploiement et gestion de Nano Server Rôles et fonctionnalités Tableau 13-1 montre les rôles et les fonctionnalités disponibles dans cette version de Nano Server, ainsi que les options Windows PowerShell qui installeront les paquets correspondants. Certains paquets sont installés directement avec leurs propres options Windows PowerShell (par exemple ).
  • Page 268: Déploiement De Nano Server Sur Un Serveur Physique

    13–Windows Server 2016 Déploiement et gestion de Nano Server Tableau 13-1. Rôles et fonctionnalités de Nano Server (Suite) Rôle ou fonctionnalité Article Agent System Center Virtual Machine Manager -Packages Microsoft-Windows-Server- SCVMM-Package -Packages Microsoft-Windows-Server- SCVMM-Compute-Package Remarque : Utilisez ce paquet uniquement si vous surveillez Hyper-V.
  • Page 269 13–Windows Server 2016 Déploiement et gestion de Nano Server Changez le répertoire au dossier dans lequel vous avez copié les fichiers à l'étape Importez le script NanoServerImageGenerator en entrant la commande suivante : Import-Module .\NanoServerImageGenerator.psm1 -Verbose Pour créer un VHD qui définit un nom d'ordinateur et inclut les pilotes OEM et Hyper-V, entrez la commande Windows PowerShell suivante : REMARQUE Cette commande vous demande un mot de passe administrateur pour...
  • Page 270 13–Windows Server 2016 Déploiement et gestion de Nano Server INFO : Creating single partition... INFO : Formatting windows volume... INFO : Windows path (I:) has been assigned. INFO : System volume location: I: INFO : Applying image to VHD. This could take a while... INFO : Image was applied successfully.
  • Page 271: Déploiement De Nano Server Sur Une Machine Virtuelle

    13–Windows Server 2016 Déploiement et gestion de Nano Server Déploiement de Nano Server sur une machine virtuelle Pour créer un disque dur virtuel (VHD) Nano Server pour s'exécuter dans une machine virtuelle : Téléchargez l'image du SE Windows Server 2016. Accédez au dossier à...
  • Page 272 13–Windows Server 2016 Déploiement et gestion de Nano Server La commande précédente met environ 10 à 15 minutes pour créer un fichier VHD. Voici un exemple de sortie de cette commande : PS C:\Nano> New-NanoServerImage –DeploymentType Guest –Edition Datacenter -MediaPath C:\tmp\TP4_iso\Bld_10586_iso -BasePath .\Base -TargetPath .\Nano1\VM_NanoServer.vhd -ComputerName Nano-VM1 –GuestDrivers cmdlet New-NanoServerImage at command pipeline position 1...
  • Page 273: Gestion À Distance De Nano Server

    13–Windows Server 2016 Déploiement et gestion de Nano Server Obtenez l'adresse IP de l'ordinateur de Nano Server. Utilisez l'outil d'accès à distance Windows PowerShell (ou un autre outil de gestion à distance) pour vous connecter et gérer à distance le serveur. Gestion à...
  • Page 274: Démarrage De La Session Windows Powershell À Distance

    13–Windows Server 2016 Déploiement et gestion de Nano Server Démarrage de la session Windows PowerShell à distance À une session Windows PowerShell locale élevée, démarrez la session Windows PowerShell à distance en entrant les commandes suivantes : $ip = "<IP address of Nano Server>" $user = "$ip\Administrator"...
  • Page 275 13–Windows Server 2016 Déploiement et gestion de Nano Server Pour déterminer si les pilotes sont installés et que la liaison est établie, entrez la commande Windows PowerShell suivante : [172.28.41.152]: PS C:\Users\Administrator\Documents> Get-NetAdapter Figure 13-19 montre un exemple de sortie. Figure 13-19.
  • Page 276 13–Windows Server 2016 Déploiement et gestion de Nano Server Figure 13-21 montre un exemple de sortie. Figure 13-21. Commande Windows PowerShell : New-Item [172.28.41.152]: PS C:\> New-SMBShare -Name "smbshare" -Path C:\smbshare -FullAccess Everyone Figure 13-22 montre un exemple de sortie. Figure 13-22.
  • Page 277 13–Windows Server 2016 Déploiement et gestion de Nano Server Figure 13-23 montre la sortie de la commande. Figure 13-23. Commande Windows PowerShell : Get-NetAdapterStatistics AH0054602-02 F...
  • Page 278: Dépannage

    Dépannage Ce chapitre fournit les informations de dépannage suivantes :  Liste de vérification pour le dépannage  « Vérification du chargement des pilotes à jour » à la page 256  « Vérification de la connectivité du réseau » à la page 257 «...
  • Page 279: Vérification Du Chargement Des Pilotes À Jour

    14–Dépannage Vérification du chargement des pilotes à jour  Essayez d'insérer l'adaptateur dans un autre logement. Si cette nouvelle position assure son fonctionnement, il se peut que le logement d'origine de votre système soit défectueux.  Remplacez l'adaptateur défectueux par un adaptateur en bon état de fonctionnement.
  • Page 280: Vérification Des Pilotes Sous Vmware

    14–Dépannage Vérification de la connectivité du réseau firmware-version: mfw 8.4.7.0 storm 8.4.7.0 bus-info: 0000:04:00.2 Si vous avez chargé un nouveau pilote, mais que vous n'avez pas encore redémarré, la commande n'affiche pas d'informations à jour sur le pilote. modinfo Entrez plutôt la commande suivante pour afficher les journaux.
  • Page 281: Test De La Connectivité Réseau Pour Linux

    14–Dépannage Virtualisation Microsoft avec Hyper-V Utilisez la commande suivante puis appuyez sur ENTRÉE. ping <ip_address> Les statistiques ping affichées indiquent si la connectivité réseau fonctionne. Test de la connectivité réseau pour Linux Pour vérifier que l'interface Ethernet est opérationnelle : Pour vérifier l'état de l'interface Ethernet, entrez la commande ifconfig Pour vérifier les statistiques de l'interface Ethernet, entrez la commande...
  • Page 282: Problèmes Divers

    14–Dépannage Problèmes divers Problèmes divers Problème : L'Adaptateur série 41xxx s'est arrêté et un message d'erreur s'affiche, indiquant une défaillance de son ventilateur. Solution : L'adaptateur Adaptateur série 41xxx peut s'arrêter intentionnellement afin d'éviter des dommages irréversibles. Contactez le support technique QLogic pour obtenir de l'aide. Problème : Dans un environnement ESXi, lorsque le pilote iSCSI (qedil) est installé, parfois, le client d’infrastructure virtuelle ne peut pas...
  • Page 283: Voyants De L'adaptateur

    Voyants de l'adaptateur Tableau A-1 répertorie les voyants d'état de liaison et d'activité de port de l'adaptateur. Tableau A-1. Voyants de liaison et d'activité de port de l'adaptateur Voyant de port État du voyant État du réseau Voyant de liaison Désactivé...
  • Page 284: Câbles Et Modules Optiques

    Câbles et modules optiques Cette annexe fournit les informations suivantes concernant les câbles et les modules optiques pris en charge :  Spécifications prises en charge  « Câbles et modules optiques testés » à la page 262  « Commutateurs testés » à la page 266 Spécifications prises en charge Les Adaptateurs série 41xxx prennent en charge divers câbles et modules optiques conformes à...
  • Page 285: Câbles Et Modules Optiques Testés

    SFP+10G-vers-SFP+10G Brocade 48V40 SFP+10G-vers-SFP+10G H606N SFP+10G-vers-SFP+10G Cisco K591N SFP+10G-vers-SFP+10G G849N SFP+10G-vers-SFP+10G DAC 10 G V250M SFP+10G-vers-SFP+10G 53HVN SFP+10G-vers-SFP+10G 358VV SFP+10G-vers-SFP+10G Dell 407-BBBK SFP+10G-vers-SFP+10G 407-BBBI SFP+10G-vers-SFP+10G 407-BBBP SFP+10G-vers-SFP+10G NDCCGF0001 SFP28-25G-vers-SFP28-25G NDCCGF0003 SFP28-25G-vers-SFP28-25G ® Amphenol NDCCGJ0003 SFP28-25G-vers-SFP28-25G NDCCGJ0005 SFP28-25G-vers-SFP28-25G DAC 25 G...
  • Page 286: Câbles Et Modules Optiques Testés

    Table B-1. Câbles et modules optiques testés (Suite) Vitesse/ Longueur Facteur Fabricant Référence Type Calibre de câble de forme TCPM2 QSFP+40G-vers-4xSFP+10G QSFP Cuivre 40G Dell 27GG5 QSFP+40G-vers-4xSFP+10G Diviseur (4 × 10G) P8T4W QSFP+40G-vers-4xSFP+10G 8T47V SFP+ vers 1G RJ 1G RJ45 RJ45 Cuivre 1G Dell XK1M7...
  • Page 287 Solutions optiques AFBR-703SMZ SFP+ SR ® Avago AFBR-701SDZ SFP+ LR Y3KJN SFP+ SR 1G/10G WTRD1 SFP+ SR Émetteur- Dell récepteur 3G84K SFP+ SR optique RN84N SFP+ SR 10G-LR FTLX8571D3BCL- SFP+ SR ® Finisar FTLX1471D3BCL- SFP+ LR P7D7R Émetteur-récepteur optique...
  • Page 288 SFP+ AOC 470-ABLZ SFP+ AOC 470-ABLT SFP+ AOC 470-ABML SFP+ AOC 470-ABLU SFP+ AOC 470-ABMD SFP+ AOC 470-ABMJ SFP+ AOC Dell 10G AOC YJF03 SFP+ AOC P9GND SFP+ AOC T1KCN SFP+ AOC 1DXKP SFP+ AOC MT7R2 SFP+ AOC K0T7R SFP+ AOC...
  • Page 289: Commutateurs Testés

    Table B-2. Commutateurs testés pour l'interopérabilité Modèle de commutateur Fabricant Ethernet 7060X Arista 7160 Nexus 3132 Nexus 3232C Cisco Nexus 5548 Nexus 5596T Nexus 6000 S6100 Dell EMC Z9100 FlexFabric 5950 SN2410 ® Mellanox SN2700 AH0054602-02 F...
  • Page 290: Configuration Du Commutateur Dell Z9100

    être explicitement configuré pour se connecter à l'adaptateur à 25 Gbits/s. Pour configurer un port de commutateur Dell Z9100 pour la connexion à l'Adaptateur série 41xxx à 25 Gb/s : Établissez une connexion de port série entre votre station de travail de gestion et le commutateur.
  • Page 291 Pour plus d'informations sur la configuration du commutateur Dell Z9100, reportez-vous au Guide de configuration du commutateur Dell Z9100 sur le site Web de support Dell : support.dell.com AH0054602-02 F...
  • Page 292: Contraintes En Matière De Fonctionnalités

    Contraintes en matière de fonctionnalités Cette annexe fournit des informations sur les contraintes en matière de fonctionnalités mises en œuvre dans la version actuelle. Ces contraintes de coexistence de fonctionnalités peuvent être supprimées dans une version future. À ce moment, vous devriez pouvoir utiliser les combinaisons de fonctionnalités sans aucune étape de configuration supplémentaire outre celles habituellement exigées pour activer les fonctionnalités.
  • Page 293 D–Contraintes en matière de fonctionnalités Le démarrage SAN et NIC sur base est pris en charge uniquement sur certaines PF Le démarrage PXE et Ethernet n'est actuellement pris en charge que sur PF0 et PF1. Dans la configuration NPAR, les autres PF ne prennent pas en charge le démarrage PXE et Ethernet.
  • Page 294: Glossaire

    Glossaire ACPI bande passante La spécification Advanced Configuration Mesure du volume de données pouvant and Power Interface (ACPI) fournit une être transmises à une vitesse de norme ouverte pour la gestion de transmission donnée. Un port Fibre l'alimentation et la configuration unifiées Channel 1 Gb/s ou 2 Gb/s peut effectuer de périphériques axées sur le système des transmissions/réceptions à...
  • Page 295 Guide d’utilisation—Adaptateurs réseau convergents série 41xxx carte réseau Voir NIC. Data center bridging. Apporte des améliorations aux spécifications de cible pont 802.1 afin de satisfaire les exigences Point final de périphérique de stockage des protocoles et applications du centre d'une session SCSI. Les initiateurs de données.
  • Page 296 Guide d’utilisation—Adaptateurs réseau convergents série 41xxx eCore Ethernet Une couche entre le système d'exploitation Technologie LAN la plus utilisée qui et le matériel et le micrologiciel. Elle est transmet des informations entre des propre au périphérique et indépendante ordinateurs, typiquement à des vitesses du SE.
  • Page 297 Guide d’utilisation—Adaptateurs réseau convergents série 41xxx file transfer protocol Voir FTP. Internet protocol. Méthode par laquelle les données sont envoyées d'un ordinateur à l'autre sur Internet. IP spécifie le format File transfer protocol. Protocole de réseau des paquets, également appelés standard servant à...
  • Page 298 Guide d’utilisation—Adaptateurs réseau convergents série 41xxx LLDP mémoire non volatile expresse Un protocole de Couche 2 neutre quant au Voir NVMe. fournisseur qui permet à un périphérique message signaled interrupts réseau de publier son identité et ses capacités sur le réseau local. Ce protocole Voir MSI, MSI-X.
  • Page 299 Guide d’utilisation—Adaptateurs réseau convergents série 41xxx NPAR périphérique partitionnement NIC. Division d'un port Une cible, généralement un lecteur de NIC en plusieurs partitions ou fonctions disque. Matériel tel qu'un lecteur de physiques, dotées chacune d'une bande disque, un lecteur de bande, une passante et d'une personnalité...
  • Page 300 Guide d’utilisation—Adaptateurs réseau convergents série 41xxx RDMA over Converged Ethernet SerDes Voir RoCE. Serializer/deserializer. Paire de blocs fonctionnels couramment utilisés au cours reduced instruction set computer des communications à haute vitesse pour Voir RISC. compenser l'entrée/sortie limitée. Ces blocs convertissent les données entre les remote direct memory access données série et les interfaces parallèles Voir RDMA.
  • Page 301 Guide d’utilisation—Adaptateurs réseau convergents série 41xxx UEFI Type-length-value. Informations facultatives Unified extensible firmware interface. pouvant être codées en tant qu'élément à Spécification qui détaille une interface l'intérieur du protocole. Les champs de type servant à transmettre le contrôle du et de longueur sont de taille fixe (en règle système pour l'environnement de générale, 1-4 octets) et le champ de valeur préamorçage (après l'allumage du...
  • Page 302 Guide d’utilisation—Adaptateurs réseau convergents série 41xxx Machine virtuelle. Mise en œuvre logicielle d'une machine (ordinateur) qui exécute des programmes comme une machine réelle. wake on LAN Voir WoL. Wake on LAN. Norme de réseau informatique Ethernet qui permet à un ordinateur d'être allumé...
  • Page 303 Siège social Cavium, Inc. 2315 N. First Street San Jose, CA 95131 408-943-7100 Bureaux internationaux Royaume-Uni | Irlande | Allemagne | France | Inde | Japon | Chine | Hong Kong | Singapour | Taïwan | Israël Copyright © 2017, 2018 Cavium, Inc. Tous droits réservés dans le monde entier. QLogic Corporation est une filiale à part entière de Cavium, Inc. Cavium, FastLinQ, QConvergeConsole, QLogic et SmartAN sont des marques déposées de Cavium, Inc.

Table des Matières