Guide d’utilisation Adaptateur Ethernet intelligent QL45212 BC0154503-02 F Renseignements de tiers fournis gracieusement par Dell EMC.
Guide d’utilisation—Adaptateur Ethernet intelligent QL45212 Historique de révision du document Révision A, dimanche 11 janvier 2015 Révision B, mardi 19 avril 2016 Révision C, vendredi 27 janvier 2017 Révision D, jeudi 24 août 2017 Révision E, mercredi 31 janvier 2018 Révision F, jeudi 19 avril 2018 Modifications Sections touchées Mise à jour des exemples concernant les conventions de documents.
Guide d’utilisation—Adaptateur Ethernet intelligent QL45212 « Configuration de SR-IOV sous VMware » à la page 111 Dans la procédure Configuration de SR-IOV sur VMware, réorganisation de certaines étapes : Déplacement de l’étape « Validation des VF par port, émission de la commande esxcli après l’étape « Remplir la boîte de dialogue Modifier les paramètres... ». Déplacement de l’étape « Mise sous tension de la VM... » après l’étape « Installation des pilotes QLogic pour les adaptateurs détectés...
Table des matières Préface Produits pris en charge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Public visé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ce que ce guide comprend . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Conventions de la documentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Avis légaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Guide d’utilisation—Adaptateur Ethernet intelligent QL45212 Installation des pilotes Linux sans RDMA . . . . . . . . . . . . . . . . . . . . . . Suppression des pilotes Linux . . . . . . . . . . . . . . . . . . . . . . . . . . Installation des pilotes Linux à l'aide du paquet RPM src. . . . . . Installation des pilotes Linux à l'aide du paquet RPM kmp/kmod . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Installation des pilotes Linux à l'aide du fichier TAR . . . . . . . . . .
Guide d’utilisation—Adaptateur Ethernet intelligent QL45212 6 Configuration de RoCE Systèmes d'exploitation pris en charge et OFED . . . . . . . . . . . . . . . . . . . . . Planification pour RoCE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Préparation de l'adaptateur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Préparation du commutateur Ethernet . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Guide d’utilisation—Adaptateur Ethernet intelligent QL45212 8 Configuration de SR-IOV Configuration de SR-IOV sous Windows . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration de SR-IOV sous Linux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration de SR-IOV sous VMware. . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 97 104 111 Windows Server 2016 Configuration des interfaces RoCE avec Hyper-V . . . . . . . . . . . . . . . . . . . .
Guide d’utilisation—Adaptateur Ethernet intelligent QL45212 Déploiement d'un système hyper-convergé . . . . . . . . . . . . . . . . . . . . Déploiement du système d'exploitation . . . . . . . . . . . . . . . . . . . Configuration du réseau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration des Espaces de stockage direct. . . . . . . . . . . . . . Déploiement et gestion de Nano Server . . . . . . . . . . . . . . . . . . . . . . . . . . . Rôles et fonctionnalités . . . . . . . . . .
Guide d’utilisation—Adaptateur Ethernet intelligent QL45212 Liste des Figures Figure Page 3-1 Fenêtre Dell Update Package . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 3-2 Assistant QLogic InstallShield : Fenêtre de bienvenue . . . . . . . . . . . . . . . . . . . . . . 19 3-3 Assistant QLogic InstallShield : Fenêtre de contrat de licence . . . . . . . . . . . . . . . . 20 3-4 Assistant InstallShield : Fenêtre de type d'installation . . . . . . . . . . . . . . . . . .
Guide d’utilisation—Adaptateur Ethernet intelligent QL45212 7-3 7-4 8-1 8-2 8-3 8-4 8-5 8-6 8-7 8-8 8-9 8-10 8-11 8-12 8-13 8-14 8-15 9-1 9-2 9-3 9-4 9-5 9-6 9-7 9-8 9-9 9-10 9-11 9-12 9-13 9-14 9-15 9-16 9-17 9-18 9-19 9-20 9-21 9-22 Vérification de Iface Transport . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Vérification de nouveau périphérique iSCSI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Guide d’utilisation—Adaptateur Ethernet intelligent QL45212 Liste des Tableaux Tableau Page 2-1 Exigences matérielles de l'hôte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 2-2 Configuration minimale requise du système d'exploitation hôte . . . . . . . . . . . . . . . 6 3-1 Pilotes Linux des adaptateurs QLogic QL45212 . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 3-2 Paramètres facultatifs du pilote qede. . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Préface Cette préface énumère les produits pris en charge, spécifie le public visé, explique les conventions typographiques utilisées dans ce guide et décrit les avis légaux. Produits pris en charge Ce guide d'utilisation décrit l'installation, la configuration et la gestion de l'adaptateur Ethernet intelligent Cavium™ QL45212 25 Gb (QL45212HLCU-DE, support hauteur standard).
Préface Conventions de la documentation Le Chapitre 6 Configuration de RoCE explique comment configurer l'adaptateur, le commutateur Ethernet et l'hôte afin d'utiliser RDMA over converged Ethernet (RoCE). Le Chapitre 7 Configuration d'iSER explique comment configurer les extensions iSCSI pour RDMA (iSER) pour Linux RHEL et SLES. Le Chapitre 8 Configuration de SR-IOV fournit les procédures pour configurer single root input/output virtualization (SR-IOV) sur les systèmes Windows, Linux et VMware.
Préface Conventions de la documentation Pour plus d'informations, rendez vous sur www.cavium.com. Le texte en gras indique les éléments de l'interface utilisateur comme les options de menu, les boutons, les cases à cocher ou les en-têtes de colonne. Par exemple : Cliquez sur le bouton Démarrer, pointez sur Programmes, pointez sur Accessoires, puis cliquez sur Invite de commande. Sous Options de notification, cochez la case Alarmes d'avertissement.
Préface Conventions de la documentation REMARQUE Pour les commandes de l'interface CLI uniquement, les noms des variables sont toujours indiqués en utilisant des crochets angulaires au lieu de l'italique. [ ] (Crochets) indiquent un paramètre facultatif. Par exemple : [] signifie spécifier un nom de fichier, ou l'omettre pour sélectionner le nom de fichier par défaut. | (Barre verticale) indique les options mutuellement exclusives ; sélectionnez une seule option.
Préface Avis légaux Avis légaux Les avis légaux inclus dans cette section comprennent la sécurité relative au laser (avis de la FDA), l'homologation d'organisme et la conformité en matière de sécurité du produit. Sécurité relative au laser – Avis de la FDA Ce produit est conforme aux règles DHHS 21CFR Chapitre I, Sous-chapitre J. Ce produit a été conçu et fabriqué selon la norme IEC60825-1 indiquée sur l'étiquette de sécurité du produit laser.
Préface Avis légaux EN55024:2010 EN61000-3-2: Émission de courant harmonique EN61000-3-3 : Fluctuations et inégalités de tension Normes d'immunité EN61000-4-2 : Décharges électrostatiques EN61000-4-3 : Rayonnements électromagnétiques EN61000-4-4 : Transitoires rapides en salves EN61000-4-5 : Onde de choc EN61000-4-6 : Injection de courant HF EN61000-4-8 : Champ magnétique de fréquence industrielle EN61000-4-11 : Creux et variations de tension VCCI : 2015-04 ; Classe A AS/NZS ; CISPR 32 : 2015 Classe A CNS
Préface Avis légaux VCCI : Classe A Ceci est un produit de Classe A sur la base de la norme du Conseil de contrôle volontaire des interférences (Voluntary Control Council for Interference - VCCI). Si cet équipement est utilisé dans un environnement local, des interférences radio peuvent se produire, auquel cas l'utilisateur peut être amené à prendre des mesures correctives. Conformité sécurité du produit Sécurité du produit UL, cUL : UL 60950-1 (2ème édition) A1 + A2 2014-10-14 CSA C22.2 No.
1 Présentation du produit Ce chapitre fournit les informations suivantes concernant les adaptateurs QL45212 : Description fonctionnelle Fonctionnalités « Spécifications de l'adaptateur » à la page 3 Description fonctionnelle L'adaptateur Cavium QL45212 est un adaptateur Ethernet intelligent 25 Gb conçu pour la mise en réseau accélérée des données des systèmes Dell PowerEdge. L'adaptateur QL45212 comprend un MAC Ethernet 25 Gb doté de fonctionnalité duplex intégral.
1–Présentation du produit Fonctionnalités Regroupement de segments de réception (Receive segment coalescing - RSC) File d'attente de machine virtuelle (VMQ) dynamique, files d'attente multiples de machine virtuelle (VMMQ) Microsoft®, et files d'attente multiples Linux Interruptions adaptives : Extensibilité en émission/réception (TSS/RSS) Déchargements sans état pour la virtualisation réseau utilisant l'encapsulation de routage générique (NVGRE) et le trafic de tunnels GRE L2/L3 de
1–Présentation du produit Spécifications de l'adaptateur Fonctionnalités spécifiques du Dell QL45212 Les fonctionnalités propres à l'adaptateur Ethernet intelligent Dell QL45212 comprennent la fréquence d'interruption adaptative et l'ASIC avec processeur RISC intégré. Fréquence d'interruption adaptative Le pilote de l'adaptateur règle intelligemment la fréquence d'interruption de l'hôte en fonction des conditions d'écoulement du trafic, de façon à augmenter le débit global de l'application.
1–Présentation du produit Spécifications de l'adaptateur 802.1ad (QinQ) 802.1p (Codage basé sur les priorités) 1588-2002 PTPv1 (Precision Time Protocol) 1588-2008 PTPv2 IEEE 802.
2 Installation du matériel Ce chapitre fournit les informations suivantes concernant l'installation du matériel : Configuration système « Mesures de sécurité » à la page 6 « Liste de vérification de préinstallation » à la page 7 « Installation de l'adaptateur » à la page 7 Configuration système Avant d'installer un adaptateur QL45212 Cavium, vérifiez que votre système répond aux exigences en matière de matériel et de système d'exploitation affichées dans le Tableau 2-1 et le Tableau 2-2.
2–Installation du matériel Mesures de sécurité Tableau 2-2. Configuration minimale requise du système d'exploitation hôte Système d'exploitation Exigence Windows Server 2012, 2012 R2, 2016 (y compris Nano) Linux RHEL® 6.8, 6.9, 7.2, 7.3, 7.4 SLES® 11 SP4, SLES 12 SP2, SLES 12 SP3 VMware ESXi 6.0 u3 et versions ultérieures pour adaptateurs 25 G REMARQUE Le Tableau 2-2 indique la configuration minimale requise du système d'exploitation hôte.
2–Installation du matériel Liste de vérification de préinstallation Liste de vérification de préinstallation Avant d'installer l'adaptateur, procédez ainsi : 1. Assurez-vous que votre système répond bien à la configuration matérielle et logicielle requise décrite dans la section « Configuration système » à la page 5. 2. Vérifiez si votre système utilise le BIOS le plus récent.
2–Installation du matériel Installation de l'adaptateur 4. Alignez le bord du connecteur de l'adaptateur sur le logement du connecteur PCIe dans le système. 5. En exerçant une pression égale sur les deux coins de l'adaptateur, enfoncez-le dans le logement jusqu'à ce qu'il soit bien positionné. Une fois l'adaptateur correctement positionné, le connecteur du port de l'adaptateur est aligné sur l'ouverture du logement et sa platine avant se trouve dans l'alignement du châssis du système.
3 Installation des pilotes Ce chapitre fournit les informations suivantes concernant l'installation des pilotes : Installation du logiciel pilote pour Linux « Installation du logiciel pilote pour Windows » à la page 18 « Installation du logiciel pilote pour VMware » à la page 27 Installation du logiciel pilote pour Linux Cette section décrit la manière d'installer des pilotes Linux avec ou sans accès direct à la mémoire à distance (RDMA).
3–Installation des pilotes Installation du logiciel pilote pour Linux Tableau 3-1. Pilotes Linux des adaptateurs QLogic QL45212 (Suite) Pilote Linux Description qede Pilote Ethernet Linux pour l'adaptateur QL45212. Ce pilote contrôle directement le matériel et est responsable de l'envoi et de la réception des paquets Ethernet au nom de la pile réseau hôte Linux. Ce pilote reçoit et traite également les interruptions de périphérique, pour son propre compte (pour les réseaux L2).
3–Installation des pilotes Installation du logiciel pilote pour Linux REMARQUE Pour les installations réseau via NFS, FTP ou HTTP (à l'aide d'une disquette de démarrage de réseau), vous devrez peut-être utiliser un disque de pilote contenant le pilote qede. Les pilotes de démarrage Linux peuvent être compilés en modifiant l'environnement makefile et make. Installation des pilotes Linux sans RDMA Pour installer les pilotes Linux sans RDMA : 1.
3–Installation des pilotes Installation du logiciel pilote pour Linux Si vous avez installé les pilotes Linux à l'aide d'un fichier TAR, saisissez les commandes suivantes : rmmod qede rmmod qed depmod -a Pour RHEL : cd /lib/modules//extra/qlgc-fastlinq rm -rf qed.ko qede.ko qedr.ko Pour SLES : cd /lib/modules//updates/qlgc-fastlinq rm -rf qed.ko qede.ko qedr.ko Pour supprimer les pilotes Linux dans un environnement non RDMA : 1.
3–Installation des pilotes Installation du logiciel pilote pour Linux rm -rf qedr.ko depmod -a Pour supprimer les pilotes Linux dans un environnement RDMA : 1. Pour obtenir le chemin vers les pilotes installés, entrez la commande suivante : modinfo 2. Déchargez et supprimez les pilotes Linux. modprobe -r qedr modprobe -r qede modprobe -r qed depmod -a 3.
3–Installation des pilotes Installation du logiciel pilote pour Linux Pour SLES : cd /usr/src/packages rpmbuild -bb SPECS/fastlinq-.spec 3. Installez le RPM qui vient d'être compilé : rpm -ivh RPMS//qlgc-fastlinq-..rpm REMARQUE L'option --force peut être requise sur certaines distributions Linux en cas de conflit. Les pilotes seront installés dans les chemins d'accès suivants.
3–Installation des pilotes Installation du logiciel pilote pour Linux 2. Allez au répertoire récemment créé, puis installez les pilotes : cd fastlinq- make clean; make install Les pilotes qed et qede seront installés dans les chemins d'accès suivants : Pour SLES : /lib/modules//updates/qlgc-fastlinq Pour RHEL : /lib/modules//extra/qlgc-fastlinq 3.
3–Installation des pilotes Installation du logiciel pilote pour Linux 6. Pour construire et installer la bibliothèque d'espace utilisateur libqedr, entrez la commande suivante : 'make libqedr_install' 7. Testez les pilotes en les chargeant ainsi : modprobe qedr make install_libeqdr Paramètres facultatifs des pilotes Linux Le Tableau 3-2 décrit les paramètres facultatifs du pilote qede. Tableau 3-2.
3–Installation des pilotes Installation du logiciel pilote pour Linux Paramètres de fonctionnement par défaut des pilotes Linux Le Tableau 3-3 répertorie les paramètres de fonctionnement par défaut des pilotes Linux qed et qede. Tableau 3-3.
3–Installation des pilotes Installation du logiciel pilote pour Windows Installation du logiciel pilote pour Windows Installation des pilotes Windows Suppression des pilotes Windows Gestion des propriétés de l'adaptateur Définition des options de gestion de l'alimentation Installation des pilotes Windows Installez le logiciel pilote Windows à l'aide du progiciel de mise à jour Dell (Dell Update Package – DUP) : Exécution du DUP dans l'IUG Options d'installation de DUP Exemples d'
3–Installation des pilotes Installation du logiciel pilote pour Windows 3. Dans la fenêtre de bienvenue de l'Assistant QLogic Super Installer—InstallShield® (Figure 3-2), cliquez sur Next (Suivant). Figure 3-2. Assistant QLogic InstallShield : Fenêtre de bienvenue 4. Procédez ainsi dans la fenêtre de contrat de licence de l'Assistant (Figure 3-3) : a. Lisez le contrat de licence du logiciel de l'utilisateur final QLogic. b.
3–Installation des pilotes Installation du logiciel pilote pour Windows c. Cliquez sur Next. Figure 3-3. Assistant QLogic InstallShield : Fenêtre de contrat de licence 5. Remplissez la fenêtre de type d'installation de l'Assistant (Figure 3-4) comme suit : a. b. Sélectionnez l'un des types d'installation suivants : Cliquez sur Complete pour installer toutes les fonctions du programme. Cliquez sur Custom (Personnalisée) pour sélectionner les fonctions à installer.
3–Installation des pilotes Installation du logiciel pilote pour Windows Si vous avez choisi Complete, passez directement à l'étape 6b. Figure 3-4. Assistant InstallShield : Fenêtre de type d'installation 6. Si vous avez sélectionné Custom à l'étape 5, remplissez la fenêtre d'installation personnalisée (Figure 3-5) comme suit : a. Sélectionnez les fonctions à installer. Par défaut, toutes les fonctions sont sélectionnées.
3–Installation des pilotes Installation du logiciel pilote pour Windows b. Cliquez sur Next pour continuer. Figure 3-5. Assistant InstallShield : Fenêtre d'installation personnalisée 7. Dans la fenêtre Prêt à installer de l'Assistant InstallShield (Figure 3-6), cliquez sur Install (Installer). L'Assistant InstallShield installe les pilotes et le programme d'installation du logiciel de gestion de l'adaptateur QLogic. Figure 3-6.
3–Installation des pilotes Installation du logiciel pilote pour Windows 8. Une fois l'installation terminée, la fenêtre Assistant InstallShield terminé apparaît (Figure 3-7). Cliquez sur Finish (Terminer) pour fermer le programme d'installation. Figure 3-7. Assistant InstallShield : Fenêtre Terminé 9. Dans la fenêtre DUP (Figure 3-8), le message « Update installer operation was successful » (« L'opération d'installation de la mise à jour a réussi ») indique que l'installation est terminée.
3–Installation des pilotes Installation du logiciel pilote pour Windows Figure 3-8. Fenêtre Dell Update Package Options d'installation de DUP Pour personnaliser le comportement d'installation de DUP, utilisez les options de ligne de commande suivantes. Pour extraire uniquement les composants du pilote sur un répertoire : /drivers= REMARQUE Cette commande exige l'option /s.
3–Installation des pilotes Installation du logiciel pilote pour Windows REMARQUE Cette commande exige l'option /s. Exemples d'installation de DUP Les exemples suivants montrent comment utiliser les options d'installation. Pour mettre à jour le système automatiquement : .exe /s Pour extraire le contenu de la mise à jour dans le répertoire C:\mydir\ : .exe /s /e=C:\mydir Pour extraire les composants de pilote dans le répertoire C:\mydir\ : .exe /s /drivers=C:\m
3–Installation des pilotes Installation du logiciel pilote pour Windows Figure 3-9.
3–Installation des pilotes Installation du logiciel pilote pour VMware Définition des options de gestion de l'alimentation Vous pouvez définir les options de gestion de l'alimentation de façon à ce que le système d'exploitation désactive le contrôleur pour économiser de l'énergie ou de façon à permettre au contrôleur de « réveiller » le système. Si le périphérique est occupé (à gérer un appel par exemple), le système d'exploitation ne l'arrête pas.
3–Installation des pilotes Installation du logiciel pilote pour VMware Installation des pilotes VMware Paramètres facultatifs des pilotes VMware Paramètres par défaut des pilotes VMware Suppression du pilote VMware Pilotes et paquets de pilotes VMware Le Tableau 3-4 énumère les pilotes VMware ESXi pour les protocoles. Tableau 3-4.
3–Installation des pilotes Installation du logiciel pilote pour VMware Tableau 3-5. Paquets de pilotes ESXi par version Version ESXi a ESXi 6.5 b ESXi 6.0u3 Protocole Nom du pilote Version du pilote NIC qedentv 3.0.7.5 FCoE qedf 1.2.24.0 iSCSI qedil 1.0.19.0 RoCE qedrntv 3.0.7.5.1 NIC qedentv 2.0.7.5 FCoE qedf 1.2.24.0 iSCSI qedil 1.0.19.0 a Des pilotes ESXi supplémentaires pourraient être disponibles après la publication de ce guide d’utilisation.
3–Installation des pilotes Installation du logiciel pilote pour VMware Pour installer le pilote VMware : 1. Téléchargez le pilote VMware l'adaptateur QL45212 à partir de la page de support VMware : www.vmware.com/support.html 2. Allumez l'hôte ESX et connectez-vous à un compte doté du rôle Administrateur. 3. Décompressez le fichier ZIP de pilotes, puis extrayez le fichier .vib. 4. Utilisez l'utilitaire Linux scp pour copier un fichier .
3–Installation des pilotes Installation du logiciel pilote pour VMware Option 2 : Installez tous les fichiers VIB individuels en même temps en saisissant la commande suivante : # esxcli software vib install –d /tmp/qedentv-bundle-2.0.3.zip Pour mettre à niveau un pilote existant : Suivez les étapes correspondant à une nouvelle installation, en remplaçant la commande de l'option 1 précédente par celle-ci : #esxcli software vib update -v /tmp/qedentv-1.0.3.11-1OEM.550.0.0.1331820.x86_64.
3–Installation des pilotes Installation du logiciel pilote pour VMware Tableau 3-6. Paramètres facultatifs des pilotes VMware (Suite) Paramètre RSS Description Spécifie le nombre de files d'attente de mise à l'échelle en réception utilisées par l'hôte ou par le trafic en tunnel de LAN virtuel extensible (VXLAN) pour une fonction physique (PF). RSS peut être égal à 2, 3 ou 4, ou à l'une des valeurs suivantes : –1 utilise le nombre de files d'attente par défaut. 0 ou 1 désactive les files d'attente RSS.
3–Installation des pilotes Installation du logiciel pilote pour VMware Paramètres par défaut des pilotes VMware Le Tableau 3-7 énumère les valeurs par défaut des paramètres des pilotes VMware. Tableau 3-7. Paramètres par défaut des pilotes VMware Paramètre Par défaut Speed Négociation automatique avec annonce de toutes les vitesses. Le paramètre de vitesse doit être identique sur tous les ports. Si la négociation automatique est activée sur le périphérique, tous les ports du périphérique l'utiliseront.
4 Mise à niveau du micrologiciel Ce chapitre fournit des informations sur la mise à niveau du micrologiciel à l'aide du progiciel de mise à jour Dell (DUP). Le DUP du micrologiciel est un utilitaire de mise à jour Flash uniquement. Il ne sert pas à la configuration de l'adaptateur. Pour exécuter le DUP du micrologiciel, double-cliquez sur le fichier exécutable.
4–Mise à niveau du micrologiciel Exécution du DUP en double-cliquant L'écran de démarrage du progiciel de mise à jour Dell apparaît, comme illustré à la Figure 4-1. Cliquez sur Install (Installer) pour continuer. Figure 4-1.
4–Mise à niveau du micrologiciel Exécution du DUP en double-cliquant 2. Suivez les instructions à l'écran. Dans la boîte de dialogue d'avertissement, cliquez sur Yes (Oui) pour continuer l'installation, comme l'illustre la Figure 4-2. Figure 4-2.
4–Mise à niveau du micrologiciel Exécution du DUP en double-cliquant Le programme d'installation indique qu'il est en train de charger le nouveau micrologiciel, tel qu'illustré à la Figure 4-3. Figure 4-3. Progiciel de mise à jour Dell : Chargement du nouveau micrologiciel Une fois le chargement terminé, le programme d'installation affiche le résultat de l'installation, tel qu'illustré à la Figure 4-4. Figure 4-4.
4–Mise à niveau du micrologiciel Exécution du DUP depuis une ligne de commande 3. Cliquez sur Yes (Oui) pour redémarrer le système. 4. Cliquez sur Finish (Terminer) pour terminer l'installation, tel qu'illustré à la Figure 4-5. Figure 4-5. Progiciel de mise à jour Dell : Terminer l'installation Exécution du DUP depuis une ligne de commande L'exécution du DUP du micrologiciel à partir de la ligne de commande, sans spécifier d'options, produit le même résultat qu'un double clic sur l'icône du DUP.
4–Mise à niveau du micrologiciel Exécution du DUP à l'aide du fichier .bin La Figure 4-6 indique les options qui peuvent être utilisées pour personnaliser l'installation du progiciel de mise à jour Dell. Figure 4-6. Options de ligne de commande du DUP Exécution du DUP à l'aide du fichier .bin La procédure suivante est prise en charge uniquement sur le système d'exploitation Linux. Pour exécuter le DUP à l'aide du fichier .bin : 1. Copiez le fichier Network_Firmware_NJCX1_LN_X.Y.Z.
4–Mise à niveau du micrologiciel Exécution du DUP à l'aide du fichier .bin Exemple de sortie du SUT pendant la mise à jour du DUP : ./Network_Firmware_NJCX1_LN_08.07.26.BIN Collecting inventory... Running validation... BCM57810 10 Gigabit Ethernet rev 10 (p2p1) The version of this Update Package is the same as the currently installed version. Software application name: BCM57810 10 Gigabit Ethernet rev 10 (p2p1) Package version: 08.07.26 Installed version: 08.07.
5 Configuration de prédémarrage de l'adaptateur Au cours du processus d'amorçage hôte, vous pouvez choisir de cliquer sur Pause et d'effectuer des tâches de gestion de l'adaptateur à l'aide de l'application Human Infrastructure Interface (HII).
5–Configuration de prédémarrage de l'adaptateur Mise en route Mise en route Pour démarrer l'application HII : 1. Ouvrez la fenêtre de configuration du système (System Setup) de votre plateforme. Pour plus d'informations sur le lancement de la configuration du système, consultez le manuel d'utilisation de votre système. 2. Dans la fenêtre de configuration du système (Figure 5-1), sélectionnez Device Settings (Paramètres de périphérique), puis appuyez sur ENTRÉE. Figure 5-1. Configuration du système 3.
5–Configuration de prédémarrage de l'adaptateur Mise en route La page de configuration principale (Figure 5-3) présente les options de gestion de l'adaptateur où vous pouvez définir le mode de partitionnement. Figure 5-3. Page de configuration principale 4.
5–Configuration de prédémarrage de l'adaptateur Mise en route Figure 5-5.
5–Configuration de prédémarrage de l'adaptateur Affichage des propriétés d'image du micrologiciel Tableau 5-1.
5–Configuration de prédémarrage de l'adaptateur Configuration des paramètres au niveau du périphérique L2B Firmware Version (Version de micrologiciel L2B) est la version du micrologiciel de déchargement NIC pour le démarrage. Figure 5-6.
5–Configuration de prédémarrage de l'adaptateur Configuration des paramètres NIC Pour activer le partitionnement de carte réseau (NPAR), la virtualisation des entrées/sorties en racine unique (SR-IOV) ou les deux : 1. Sur la page de configuration principale (Figure 5-3 à la page 43), sélectionnez Device Level Configuration (Configuration au niveau du périphérique), puis cliquez sur Finish (Terminer). 2.
5–Configuration de prédémarrage de l'adaptateur Configuration des paramètres NIC Pour configurer les paramètres NIC : 1. Sur la page de configuration principale, sélectionnez NIC Configuration (Configuration NIC) (Figure 5-3 à la page 43), puis cliquez sur Finish (Terminer). La Figure 5-8 affiche la page Configuration NIC. Figure 5-8. Configuration NIC 2.
5–Configuration de prédémarrage de l'adaptateur Configuration des paramètres NIC 5. 6. Fire Code indique que le lien est configuré pour utiliser Fire Code FEC ; la sous-couche FEC fonctionne de manière similaire à la clause FEC 74. Pour Boot Mode (Mode d'amorçage), sélectionnez l'une des options suivantes : PXE active le démarrage PXE. Disabled (Désactivé) empêche ce port d'être utilisé en tant que source de démarrage à distance.
5–Configuration de prédémarrage de l'adaptateur Configuration de Data Center Bridging 3. À l'invite, cliquez sur Yes (Oui) pour enregistrer les modifications. Ces modifications prennent effet après la réinitialisation du système. Pour configurer l'installation à distance PXE du port pour utiliser un VLAN : REMARQUE Ce VLAN n'est pas persistant après la fin d'une installation à distance PXE. 1. Définissez Virtual LAN Mode (Mode LAN virtuel) sur Enabled (Activé). 2.
5–Configuration de prédémarrage de l'adaptateur Configuration de Data Center Bridging 4 spécifie le numéro de priorité utilisé par le trafic iSCSI-TLV over DCB sans perte. 1, 2, 5, 6 et 7 spécifie les numéros de priorité de classe de trafic DCB disponibles pour l'utilisation de RoCE. Suivez les instructions de configuration RoCE respectives pour utiliser cette commande RoCE. Figure 5-9. Configuration du système : Paramètres Data Center Bridging (DCB) 4. Cliquez sur Back (Précédent). 5.
5–Configuration de prédémarrage de l'adaptateur Configuration des partitions Configuration des partitions Vous pouvez configurer des plages de bande passante pour chaque partition sur l'adaptateur. Pour configurer l'allocation de bande passante maximale et minimale : 1. Sur la page Configuration principale, sélectionnez NIC Partitioning Configuration (Configuration des partitions NIC), et appuyez sur ENTRÉE. 2.
5–Configuration de prédémarrage de l'adaptateur Configuration des partitions Figure 5-11 Présente l’allocation globale de bande passant pour la partition 1. Figure 5-11. Allocation de bande passante globale, configuration de la partition 1 3. Sur la page Allocation de la bande passante globale (Figure 5-12), cliquez sur le champ de bande passante d'émission (TX) maximale et minimale pour chaque partition, afin d'allouer de la bande passante.
5–Configuration de prédémarrage de l'adaptateur Configuration des partitions Partition n Minimum TX Bandwidth (Bande passante TX minimale de la partition n) indique la bande passante minimale d'émission (TX) de la partition sélectionnée, exprimée en pourcentage de la vitesse de liaison maximale du port physique. Plage admise : de 0 à 100.
5–Configuration de prédémarrage de l'adaptateur Configuration des partitions Figure 5-13. Configuration de la partition 1 3. Pour configurer la deuxième partition, sélectionnez Partition 2 Configuration (Configuration de la partition 2) pour ouvrir la page Configuration de la partition 2.
6 Configuration de RoCE Ce chapitre décrit la configuration de RDMA over converged Ethernet (RoCE v1 et v2) sur l'adaptateur QL45212, le commutateur Ethernet, et l'hôte Windows ou Linux, y compris : Systèmes d'exploitation pris en charge et OFED « Planification pour RoCE » à la page 57 « Préparation de l'adaptateur » à la page 58 « Préparation du commutateur Ethernet » à la page 58 « Configuration de RoCE sur l'adaptateur pour Windows Server » à la page 60 « Configuration de RoCE sur
6–Configuration de RoCE Planification pour RoCE Tableau 6-1. Prise en charge des SE pour RoCE v1, RoCE v2, iWARP et OFED (Suite) Système d'exploitation Préinstallé OFED 3.18-3 GA OFED-4.8-1 GA RHEL 6.9 RoCE v1 Non Non RHEL 7.3 RoCE v1, RoCE v2, iSER Non RoCE v1, RoCE v2 RHEL 7.4 RoCE v1, RoCE v2, iSER Non Non SLES 12 SP3 RoCE v1, RoCE v2, iSER Non Non CentOS 7.3 RoCE v1, RoCE v2, iSER Non RoCE v1, RoCE v2 CentOS 7.4 RoCE v1, RoCE v2, iSER Non Non Non S/O S/O VMware ESXi 6.
6–Configuration de RoCE Préparation de l'adaptateur RoCE prend uniquement en charge le format Little Endian. RoCE ne fonctionne pas sur une VF dans un environnement SR-IOV. Préparation de l'adaptateur Suivez les étapes suivantes pour activer DCBX et définir la priorité RoCE à l'aide de l'application de gestion HII. Pour plus d'informations sur l'application HII, voir Chapitre 5 Configuration de prédémarrage de l'adaptateur. Pour préparer l'adaptateur : 1.
6–Configuration de RoCE Préparation du commutateur Ethernet Configuration du commutateur Ethernet Cisco Nexus 6000 Les étapes de configuration du commutateur Ethernet Cisco Nexus 6000 pour RoCE comprennent la configuration des adressages de classes, la configuration des adressages de stratégies, l'application de la stratégie et l'affectation d'un ID VLAN au port de commutateur. Pour configurer le commutateur Cisco : 1.
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Windows Server 8. Appliquez la nouvelle stratégie au niveau du système de la façon suivante : switch(config)# switch(config)# switch(config)# switch(config)# switch(config)# 9.
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Windows Server Tableau 6-2. Propriétés avancées pour RoCE (Suite) Propriétés Valeur ou description Mode RDMA RoCE v1 ou RoCE v2. ID VLAN Attribuez un ID de VLAN à l'interface. La valeur doit être identique à celle attribuée sur le commutateur. La Figure 6-1 montre un exemple de configuration d'une valeur de propriété. Figure 6-1. Configuration des propriétés RoCE 2.
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Windows Server PS C:\Users\Administrator> Get-NetAdapterRdma 3. Name InterfaceDescription Enabled ----- -------------------- ------- SLOT 4 3 Port 1 QLogic FastLinQ QL45212... True SLOT 4 3 Port 2 QLogic FastLinQ QL45212... True En utilisant Windows PowerShell, vérifiez que NetworkDirect est activé sur le système d'exploitation hôte. La commande Get-NetOffloadGlobalSetting indique que NetworkDirect est activé. PS C:\Users\Adm
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Windows Server Affichage des compteurs RDMA Pour afficher les compteurs RDMA pour RoCE : 1. Lancez Performance Monitor. 2. Ouvrez la boîte de dialogue Ajouter des compteurs. La Figure 6-2 montre un exemple. Figure 6-2.
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Windows Server 3. Sélectionnez l'un des types de compteur suivants : 4. Contrôle de la congestion FastLinQ Cavium : Ajout d’un incrément en cas de surcharge du réseau et lorsque ECN est activé sur le commutateur. Description des Paquets marqués ECN RoCE V2 et les Paquets de notification de surcharge (CNP) envoyés et reçus avec succès. S’applique uniquement à RoCE v2.
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Windows Server La Figure 6-3 présente des exemples de sorties de la surveillance du compteur. Figure 6-3. Performance Monitor : Compteurs FastLinQ Cavium Le Tableau 6-3 fournit des détails à propos des compteurs d’erreurs. Tableau 6-3. Compteurs d’erreurs FastLinQ RDMA Cavium Compteur d’erreurs RDMA Débordement du CQ Description Une file d’attente d’achèvement dans laquelle une demande de travail RDMA est publiée.
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Windows Server Tableau 6-3. Compteurs d’erreurs FastLinQ RDMA Cavium (Suite) Compteur d’erreurs RDMA Description S’applique à RoCE ? Dépannage Mauvaise réponse du demandeur L’interlocuteur a retourné une réponse mal formulée.
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Windows Server Tableau 6-3. Compteurs d’erreurs FastLinQ RDMA Cavium (Suite) Compteur d’erreurs RDMA Description S’applique à RoCE ? Dépannage Demande distante du demandeur non valide Le côté distant a reçu un message non valide sur le canal. La demande non valide peut porter sur un message d’envoi ou une demande RDMA.
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Windows Server Tableau 6-3. Compteurs d’erreurs FastLinQ RDMA Cavium (Suite) Compteur d’erreurs RDMA Description S’applique à RoCE ? Dépannage CQE de l’interlocuteur purgé Les demandes de travail publiées (tampons reçus sur RQ) peuvent être purgées par l’envoi d’état Achevé avec purge au CQ au cas où le QP passe à l’état d’erreur pour quelque raison que ce soit et où des tampons de réception soient en attente sur le RQ.
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Windows Server Tableau 6-3. Compteurs d’erreurs FastLinQ RDMA Cavium (Suite) Compteur d’erreurs RDMA Demande distante de l'interlocuteur non valide Description L’interlocuteur a détecté un message entrant non valide sur le canal. 69 S’applique à RoCE ? Oui Dépannage Indique un mauvais comportement possible de la part du pair distant.
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Linux Configuration de RoCE sur l'adaptateur pour Linux Cette section présente la procédure de configuration de RoCE pour RHEL et SLES. Elle décrit également la vérification de la configuration de RoCE et fournit des indications sur l'utilisation d'ID de groupe (GID) avec les interfaces VLAN.
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Linux Configuration de RoCE pour SLES Pour que vous puissiez configurer RoCE sur l'adaptateur pour un hôte SLES, vous devez avoir installé et configuré OFED sur l'hôte SLES. Pour installer OFED préinstallé pour SLES Linux : 1. Pendant l'installation ou la mise à niveau du système d'exploitation, sélectionnez les paquets de support InfiniBand. 2.
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Linux Si RDMA ne démarre pas, entrez l'une des commandes de substitution suivantes : # /etc/init.d/rdma start ou # systemctl start rdma.service 3. Vérifiez que les périphériques RoCE ont été détectés, en examinant les journaux dmesg : # dmesg|grep qedr [87910.988411] qedr: discovered and registered 2 RoCE funcs 4. Vérifiez que tous les modules ont été chargés. Par exemple : # lsmod|grep qedr 5.
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Linux 7. sm_lid: 0 port_lid: 0 port_lmc: 0x00 link_layer: Ethernet Vérifiez la connectivité L2 et RoCE entre tous les serveurs : l'un des serveurs joue le rôle de serveur et l'autre de client. Vérifiez la connexion L2 avec une simple commande ping.
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Linux Interfaces VLAN et valeurs d'index GID Si vous utilisez des interfaces VLAN à la fois sur le serveur et sur le client, vous devez également configurer le même ID VLAN sur le commutateur. Si vous exécutez du trafic via un commutateur, les applications InfiniBand doivent utiliser la valeur GID correcte, qui dépend de l'ID VLAN et de l'adresse IP VLAN.
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Linux REMARQUE Vous pouvez configurer RoCE v1 et RoCE v2 en utilisant des noyaux pris en charge par RoCE v2. Ces noyaux vous permettent d'exécuter le trafic RoCE sur le même sous-réseau, ainsi que sur des sous-réseaux différents tels que RoCE v2 et tout environnement routable. Seuls quelques paramètres sont requis pour RoCE v2, et tous les autres paramètres de commutateur et d'adaptateur sont communs pour RoCE v1 et RoCE v2.
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Linux Option 2 Utilisez les scripts du paquet source FastLinQ. #/../fastlinq-8.x.x.x/add-ons/roce/show_gids.sh DEV PORT INDEX GID IPv4 VER DEV --- ---- ------------ ----- --- --- --- qedr0 1 0 fe80:0000:0000:0000:020e:1eff:fec4:1b20 v1 p4p1 qedr0 1 1 fe80:0000:0000:0000:020e:1eff:fec4:1b20 v2 p4p1 qedr0 1 2 0000:0000:0000:0000:0000:ffff:1e01:010a 30.1.1.
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Linux Vérification de RoCE v2 Exécutez sur le même sous-réseau et utilisez l'index GID de RoCE v2. Server# ib_send_bw -d qedr0 -F -x 1 Client# ib_send_bw -d qedr0 -F -x 1 192.168.100.3 REMARQUE Si vous exécutez via une configuration PFC de commutateur, utilisez les GID de VLAN de RoCE v1 ou v2 via le même sous-réseau.
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Linux 2. Configurez les paramètres de commutateur à l'aide de la procédure suivante. Utilisez une méthode quelconque de contrôle de flux (Pause, DCBX-CEE ou DCBX-IEEE), et activez le routage IP pour RoCE v2. Reportez-vous à « Préparation du commutateur Ethernet » à la page 58 pour la configuration de RoCE v2, ou consultez les documents relatifs au commutateur fournis par le fournisseur.
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Linux Paramètres de commutateur du client : Figure 6-5. Paramètres de commutateur, client Configuration des paramètres de RoCE v1 ou RoCE v2 pour les applications RDMA_CM Pour configurer RoCE, utilisez les scripts du paquet source FastLinQ suivants : # ./show_rdma_cm_roce_ver.sh qedr0 is configured to IB/RoCE v1 qedr1 is configured to IB/RoCE v1 # ./config_rdma_cm_roce_ver.
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour VMware ESX Paramètres du client : Figure 6-7.
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour VMware ESX 4. Pour afficher une liste des périphériques RDMA, entrez la commande esxcli rdma device list .
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour VMware ESX Pour exécuter le trafic RoCE avec l'ID VLAN, configurez l'ID VLAN sur le groupe de ports VMkernel correspondant. Configuration du MTU Pour modifier l'interface MTU pour RoCE, modifiez le MTU du vSwitch correspondant.
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour VMware ESX Queue pairs in RESET state: 0 Queue pairs in INIT state: 0 Queue pairs in RTR state: 0 Queue pairs in RTS state: 0 Queue pairs in SQD state: 0 Queue pairs in SQE state: 0 Queue pairs in ERR state: 0 Queue pair events: 0 Completion queues allocated: 1 Completion queue events: 0 Shared receive queues allocated: 0 Shared receive queue events: 0 Protection domains allocated: 1 Memory regions allocated: 3 Address handles allocated: 0
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour VMware ESX La Figure 6-8 montre un exemple. Figure 6-8. Configuration d'un nouveau commutateur distribué 2. 3. Configurez un commutateur virtuel distribué comme suit : a. Dans le client Web vSphere VMware, développez le noeud RoCE dans le volet gauche de la fenêtre du Navigateur. b. Cliquez avec le bouton droit de la souris sur RoCE-VDS (VDS RoCE), puis cliquez sur Add and Manage Hosts (Ajouter et gérer les hôtes). c.
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour VMware ESX La Figure 6-9 montre un exemple. Figure 6-9. Assignation d'un vmknic pour un PVRDMA 4. Définissez la règle de pare-feu pour le PVRDMA : a. Cliquez avec le bouton droit de la souris sur un hôte, puis cliquez sur Settings (Paramètres). b. Dans la page Paramètres, développez le noeud System (Système), puis cliquez sur Security Profile (Profil de sécurité). c.
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour VMware ESX 5. Configurez la VM pour le PVRDMA comme suit : a. Installez l'un des systèmes d'exploitation invités pris en charge suivants : RHEL 7.2 Ubuntu 14.04 (kernel version 4.0) b. Installez OFED-3.18. c. Compilez et installez le pilote invité et la bibliothèque PVRDMA. d. Ajoutez une nouvelle carte réseau PVRDMA à la VM comme suit : e. Modifiez les paramètres de la VM. Ajoutez une nouvelle carte réseau.
7 Configuration d'iSER Ce chapitre fournit des procédures pour configurer les Extensions iSCSI pour RDMA (iSER) pour Linux (RHEL et SLES) et ESXi 6.7, notamment : Avant de commencer Configuration d'iSER pour RHEL « Configuration d'iSER pour SLES 12 » à la page 91 « Optimisation des performances Linux » à la page 92 « Configuration d’iSER sous ESXi 6.
7–Configuration d'iSER Configuration d'iSER pour RHEL Configuration d'iSER pour RHEL Pour configurer iSER pour RHEL : 1. Installez OFED préinstallé, comme indiqué à la section « Configuration de RoCE pour RHEL » à la page 70. Les versions d'OFED non préinstallées ne sont pas prises en charge pour iSER parce que le module ib_isert n'est pas disponible dans les versions d'OFED non préinstallées 3.18-2 GA/3.18-3 GA.
7–Configuration d'iSER Configuration d'iSER pour RHEL La Figure 7-1 montre un exemple de ping RDMA réussi. Figure 7-1. Ping RDMA réussi 8. Vous pouvez utiliser une cible TCM-LIO Linux pour tester iSER. La configuration est identique pour les cibles iSCSI, mais vous entrez la commande enable_iser Boolean=true sur les portails concernés. Les instances de portail sont identifiées comme iser à la Figure 7-2. Figure 7-2. Instances de portail iSER 9.
7–Configuration d'iSER Configuration d'iSER pour RHEL b. Pour changer le mode de transport à iSER, entrez la commande iscsiadm. Par exemple : iscsiadm -m node -T iqn.2015-06.test.target1 -o update -n iface.transport_name -v iser c. Pour vous connecter à la cible iSER, entrez la commande iscsiadm. Par exemple : iscsiadm -m node -l -p 192.168.100.99:3260 -T iqn.2015-06.test.target1 d. Vérifiez que la valeur de Iface Transport est iser dans la connexion cible, comme le montre la Figure 7-3.
7–Configuration d'iSER Configuration d'iSER pour SLES 12 e. Pour vérifier un nouveau périphérique iSCSI, comme le montre la Figure 7-4, entrez la commande lsscsi. Figure 7-4. Vérification de nouveau périphérique iSCSI Configuration d'iSER pour SLES 12 Étant donné que targetcli n'est pas préinstallé sur SLES 12.x, vous devez effectuer la procédure suivante. Pour configurer iSER pour SLES 12 : 1.
7–Configuration d'iSER Optimisation des performances Linux 4. Démarrez l'utilitaire targetcli, puis configurez vos cibles sur le système cible iSER. NOTE Les versions de targetcli ne sont pas les mêmes sous RHEL et SLES. Veillez à utiliser les backstores correctes pour configurer vos cibles. RHEL utilise ramdisk. SLES utilise rd_mcp. Optimisation des performances Linux Considérez les améliorations de configuration des performances Linux suivantes décrites dans cette section.
7–Configuration d'iSER Configuration d’iSER sous ESXi 6.7 sysctl -w net.core.netdev_max_backlog=250000 sysctl -w net.ipv4.tcp_timestamps=0 sysctl -w net.ipv4.tcp_sack=1 sysctl -w net.ipv4.tcp_low_latency=1 sysctl -w net.ipv4.tcp_adv_win_scale=1 echo 0 > /proc/sys/vm/nr_hugepages Configuration des paramètres d'affinité d'IRQ L'exemple suivant configure respectivement les cœurs d'UC 0, 1, 2 et 3 pour interrompre les demandes (IRQ) XX, YY, ZZ et XYZ, respectivement.
7–Configuration d'iSER Configuration d’iSER sous ESXi 6.7 Le jeu CNA avec les pilotes NIC et RoCE est installé sur le système ESXi 6.7 et les appareils sont répertoriés.
7–Configuration d'iSER Configuration d’iSER sous ESXi 6.7 vmnic1 0000:01:00.1 ntg3 Down 0Mbps Half e0:db:55:0c:5f:95 1500 Broadcom Half e0:db:55:0c:5f:96 1500 Broadcom Half e0:db:55:0c:5f:97 1500 Broadcom Full 00:0e:1e:d5:f6:a2 1500 QLogic Corp. Corporation NetXtreme BCM5720 Gigabit Ethernet vmnic2 0000:02:00.0 ntg3 Down 0Mbps Corporation NetXtreme BCM5720 Gigabit Ethernet vmnic3 0000:02:00.1 ntg3 Down 0Mbps Corporation NetXtreme BCM5720 Gigabit Ethernet vmnic4 0000:42:00.
7–Configuration d'iSER Configuration d’iSER sous ESXi 6.7 4. Ajoutez la cible à l’initiateur iSER comme suit : esxcli iscsi adapter target list esxcli iscsi adapter discovery sendtarget add -A vmhba65 -a 192.168.10.11 esxcli iscsi adapter target list Adapter Target Alias Discovery Method Last Error ------- ------------------------ ----- ---------------- ---------- vmhba65 iqn.2015-06.test.target1 SENDTARGETS No Error esxcli storage core adapter rescan --adapter vmhba65 5.
8 Configuration de SR-IOV Single Root Input/Output Virtualization (SR-IOV) est une spécification de PCI-SIG qui permet à un seul périphérique PCI Express (PCIe) d'apparaître sous la forme de plusieurs périphériques PCIe physiques distincts. SR-IOV permet d'isoler les ressources PCIe à des fins de performance, d'interopérabilité et de gestion. REMARQUE Certaines fonctionnalités SR-IOV peuvent ne pas être entièrement activées dans la version actuelle.
8–Configuration de SR-IOV Configuration de SR-IOV sous Windows Figure 8-1. Configuration système pour SR-IOV : Périphériques intégrés 4. Sur la page de configuration principale de l'adaptateur sélectionné, cliquez sur Device Level Configuration (Configuration au niveau du périphérique). 5. Sur la page de configuration principale – Configuration au niveau du périphérique (Figure 8-2) : a. Définissez le Virtualization Mode (Mode de virtualisation) sur SR-IOV. b. Cliquez sur Back (Précédent).
8–Configuration de SR-IOV Configuration de SR-IOV sous Windows 9. Pour activer SR-IOV sur l'adaptateur miniport : a. Accédez au Gestionnaire de périphériques. b. Ouvrez les propriétés de l'adaptateur miniport, puis cliquez sur l'onglet Avancé. c. Sur la page Propriétés avancées (Figure 8-3) sous Propriété, sélectionnez SR-IOV, puis définissez la valeur sur Activé. d. Cliquez sur OK. Figure 8-3. Propriétés de l'adaptateur, Avancé : Activation de SR-IOV 10.
8–Configuration de SR-IOV Configuration de SR-IOV sous Windows REMARQUE Veillez à activer SR-IOV lorsque vous créez le vSwitch. Cette option n'est pas disponible une fois que le vSwitch a été créé. Figure 8-4. Gestionnaire de commutateur virtuel : Activation de SR-IOV f. La boîte de dialogue Appliquer les modifications réseau vous indique que les Pending changes may disrupt network connectivity (Modifications en attente peuvent perturber la connectivité réseau).
8–Configuration de SR-IOV Configuration de SR-IOV sous Windows 11. Pour obtenir les capacités de commutateur de machine virtuelle, entrez la commande Windows PowerShell suivante : PS C:\Users\Administrator> Get-VMSwitch -Name SR-IOV_vSwitch | fl La sortie de la commande Get-VMSwitch comprend les capacités SR-IOV suivantes : 12. IovVirtualFunctionCount : 96 IovVirtualFunctionsInUse : 1 Pour créer une machine virtuelle (VM) et exporter la fonction virtuelle (VF) dans la VM : a.
8–Configuration de SR-IOV Configuration de SR-IOV sous Windows Figure 8-5. Paramètres de la VM : Activation de SR-IOV 13. Installez les pilotes QLogic pour les adaptateurs détectés dans la VM. Utilisez les pilotes les plus récents disponibles auprès du fournisseur de votre système d'exploitation hôte (n'utilisez pas les pilotes préinstallés). REMARQUE Veillez à utiliser le même jeu de pilotes sur la machine virtuelle et le système hôte.
8–Configuration de SR-IOV Configuration de SR-IOV sous Windows Après l'installation des pilotes, l'adaptateur QLogic est répertorié dans la VM. La Figure 8-6 montre un exemple. Figure 8-6. Gestion de périphériques : VM avec adaptateur QLogic 14. Pour afficher les détails de VF pour SR-IOV, entrez la commande Windows PowerShell suivante : PS C:\Users\Administrator> Get-NetadapterSriovVf La Figure 8-7 montre un exemple de sortie. Figure 8-7.
8–Configuration de SR-IOV Configuration de SR-IOV sous Linux Configuration de SR-IOV sous Linux Pour configurer SR-IOV sous Linux : 1. Accédez au BIOS du système serveur, puis cliquez sur System BIOS Settings (Paramètres BIOS système). 2. Sur la page Paramètres BIOS système, cliquez sur Integrated Devices (Périphériques intégrés). 3. Sur la page Périphériques intégrés du système (voir Figure 8-1 à la page 98) : 4. a.
8–Configuration de SR-IOV Configuration de SR-IOV sous Linux 5. Sur la page Paramètres du processeur (Figure 8-8) : a. Définissez l'option Virtualization Technology (Technologie de virtualisation) sur Enabled (Activé). b. Cliquez sur Back (Précédent). Figure 8-8. Configuration du système : Paramètres du processeur pour SR-IOV 6. Sur la page Configuration système, sélectionnez Device Settings (Paramètres de périphérique). 7.
8–Configuration de SR-IOV Configuration de SR-IOV sous Linux 8. Sur la page Configuration au niveau du périphérique (Figure 8-9) : a. Définissez le Virtualization Mode (Mode de virtualisation) sur SR-IOV. b. Cliquez sur Back (Précédent). Figure 8-9. Configuration système pour SR-IOV : Périphériques intégrés 9. Sur la page de configuration principale, cliquez sur Finish (Terminer), enregistrez vos paramètres, puis redémarrez le système. 10. Pour activer et vérifier la virtualisation : a.
8–Configuration de SR-IOV Configuration de SR-IOV sous Linux Figure 8-10. Modification du fichier grub.conf pour SR-IOV b. Enregistrez le fichier grub.conf et redémarrez le système. c. Pour vérifier que les modifications ont été appliquées, entrez la commande suivante : dmesg | grep -I iommu Une sortie réussie de la commande IOMMU (input–output memory management unit) devrait afficher, par exemple : Intel-IOMMU: enabled d.
8–Configuration de SR-IOV Configuration de SR-IOV sous Linux 11. Pour un port spécifique, activez une quantité de VF. a. Exécutez la commande suivante pour activer, par exemple, 8 VF sur l'instance PCI 04:00.0 (bus 4, périphérique 0, fonction 0) : [root@ah-rh68 ~]# echo 8 > /sys/devices/pci0000:00/0000:00:02.0/0000:04:00.0/sriov_numvfs b. Passez la sortie de la commande en revue (Figure 8-11) pour confirmer que des VF réelles ont été créées sur le bus 4, périphérique 2 (du paramètre 0000:00:02.
8–Configuration de SR-IOV Configuration de SR-IOV sous Linux La Figure 8-12 montre un exemple de sortie. Figure 8-12. Sortie de la commande ip link show 13. Attribuez et vérifiez les adresses MAC : a. Pour attribuer une adresse MAC à la VF, entrez la commande suivante : ip link set vf mac b. Assurez-vous que l'interface VF est opérationnelle et exécutée avec l'adresse MAC attribuée.
8–Configuration de SR-IOV Configuration de SR-IOV sous Linux 14. Éteignez la VM et attachez la VF. (Certains systèmes d'exploitation prennent en charge la connexion à chaud de VF à la VM). a. Dans la boîte de dialogue Machine virtuelle (Figure 8-13), cliquez sur Add Hardware (Ajouter un matériel). Figure 8-13. Machine virtuelle RHEL 68 b. Dans le volet gauche de la boîte de dialogue Ajouter un nouveau matériel virtuel (Figure 8-14), cliquez sur PCI Host Device (Périphérique hôte PCI). c.
8–Configuration de SR-IOV Configuration de SR-IOV sous VMware d. Cliquez sur Finish (Terminer). Figure 8-14. Ajouter un nouveau matériel virtuel 15. Allumez la VM et entrez la commande suivante : check lspci -vv|grep -I ether 16. Installez les pilotes pour les adaptateurs détectés dans la VM. Utilisez les pilotes les plus récents disponibles auprès du fournisseur de votre système d'exploitation hôte (n'utilisez pas les pilotes préinstallés).
8–Configuration de SR-IOV Configuration de SR-IOV sous VMware 5. Sur la page Paramètres de périphérique, sélectionnez un port pour l'adaptateur QL45212 25G. 6. Sur la page Configuration au niveau du périphérique (voir Figure 8-2 à la page 98) : a. Définissez le Virtualization Mode (Mode de virtualisation) sur SR-IOV. b. Cliquez sur Back (Précédent). 7. Sur la page de configuration principale, cliquez sur Finish (Terminer). 8. Enregistrez les paramètres de configuration et redémarrez le système.
8–Configuration de SR-IOV Configuration de SR-IOV sous VMware . . 0000:05:03.7 Network controller: QLogic Corp. QLogic FastLinQ QL45xxx Series 10/25 GbE Controller (SR-IOV VF) [PF_0.5.0_VF_15] 0000:05:0e.0 Network controller: QLogic Corp. QLogic FastLinQ QL45xxx Series 10/25 GbE Controller (SR-IOV VF) [PF_0.5.1_VF_0] 0000:05:0e.1 Network controller: QLogic Corp. QLogic FastLinQ QL45xxx Series 10/25 GbE Controller (SR-IOV VF) [PF_0.5.1_VF_1] 0000:05:0e.2 Network controller: QLogic Corp.
8–Configuration de SR-IOV Configuration de SR-IOV sous VMware d. Pour enregistrer vos modifications de configuration et fermer cette boîte de dialogue, cliquez sur OK. Figure 8-15.
8–Configuration de SR-IOV Configuration de SR-IOV sous VMware 15. Pour valider les VF par port, entrez la commande esxcli comme suit : [root@localhost:~] esxcli network sriovnic vf list -n vmnic6 VF ID Active PCI Address Owner World ID ----- ------ ----------- -------------- 0 true 005:02.0 60591 1 true 005:02.1 60591 2 false 005:02.2 - 3 false 005:02.3 - 4 false 005:02.4 - 5 false 005:02.5 - 6 false 005:02.6 - 7 false 005:02.7 - 8 false 005:03.
9 Windows Server 2016 Ce chapitre fournit les informations suivantes concernant Windows Server 2016 : Configuration des interfaces RoCE avec Hyper-V « RoCE sur Switch Embedded Teaming » à la page 122 « Configuration de QoS pour RoCE » à la page 124 « Configuration de VMMQ » à la page 132 « Configuration de VXLAN » à la page 139 « Configuration des Espaces de stockage direct » à la page 140 « Déploiement et gestion de Nano Server » à la page 147 Configuration des interfaces RoCE
9–Windows Server 2016 Configuration des interfaces RoCE avec Hyper-V Création d'un commutateur virtuel Hyper-V avec une NIC virtuelle RDMA Suivez les procédures de cette section pour créer un commutateur virtuel Hyper-V, puis activez RDMA dans la VNIC hôte. Pour créer un commutateur virtuel Hyper-V avec une NIC virtuelle RDMA : 1. Lancez le Gestionnaire Hyper-V. 2. Cliquez sur Virtual Switch Manager (Gestionnaire de commutateur virtuel) (voir la Figure 9-1). Figure 9-1.
9–Windows Server 2016 Configuration des interfaces RoCE avec Hyper-V 3. Sur la page Avancé (Figure 9-2) : a. Sous Property (Propriété), sélectionnez Network Direct (RDMA). b. Sous Value (Valeur), sélectionnez Enabled (Activé). c. Cliquez sur OK. Figure 9-2. Propriétés de la carte Ethernet virtuelle Hyper-V 4. Pour activer RDMA, entrez la commande Windows PowerShell suivante : PS C:\Users\Administrator> Enable-NetAdapterRdma "vEthernet (Nouveau commutateur virtuel)" PS C:\Users\Administrator> Ajout
9–Windows Server 2016 Configuration des interfaces RoCE avec Hyper-V La Figure 9-3 montre la sortie de la commande. Figure 9-3. Commande Windows PowerShell : Get-VMNetworkAdapter 2. Pour définir l'ID VLAN sur la NIC virtuelle hôte, entrez la commande Windows PowerShell : PS C:\Users\Administrator> Set-VMNetworkAdaptervlan -VMNetworkAdapterName "Nouveau commutateur virtuel" -VlanId 5 -Access -Management05 REMARQUE Prenez note de ce qui suit concernant l'ajout d'un ID VLAN à une NIC virtuelle hôte : Un
9–Windows Server 2016 Configuration des interfaces RoCE avec Hyper-V Ajout de NIC virtuelles hôtes (ports virtuels) Pour ajouter des NIC virtuelles hôtes : 1. Pour ajouter une NIC virtuelle hôte, entrez la commande suivante : Add-VMNetworkAdapter -SwitchName "New Virtual Switch" -Name SMB - ManagementOS 2. Activez RDMA sur les NIC virtuelles hôtes comme indiqué à la section « Pour activer RDMA dans une NIC virtuelle hôte : » à la page 117. 3.
9–Windows Server 2016 Configuration des interfaces RoCE avec Hyper-V c. Cliquez sur Add (Ajouter). Figure 9-5.
9–Windows Server 2016 RoCE sur Switch Embedded Teaming Si le trafic RoCE est exécuté, les compteurs apparaissent comme indiqué à la Figure 9-6. Figure 9-6. Performance Monitor affiche le trafic RoCE RoCE sur Switch Embedded Teaming Switch Embedded Teaming (SET) est la solution alternative d'association de NIC de Microsoft qui peut être utilisée dans les environnements incluant Hyper-V et la pile SDN (Software Defined Networking) dans Windows Server 2016 Technical Preview.
9–Windows Server 2016 RoCE sur Switch Embedded Teaming Création d'un commutateur virtuel Hyper-V avec des NIC virtuelles RDMA et SET Pour créer un commutateur virtuel Hyper-V avec des NIC virtuelles RDMA et SET : Pour créer un SET, entrez la commande Windows PowerShell suivante : PS C:\Users\Administrator> New-VMSwitch -Name SET -NetAdapterName "Ethernet 2","Ethernet 3" -EnableEmbeddedTeaming $true La Figure 9-7 montre la sortie de la commande. Figure 9-7.
9–Windows Server 2016 Configuration de QoS pour RoCE REMARQUE Prenez note de ce qui suit lors de l'ajout d'un ID VLAN à une NIC virtuelle hôte : Assurez-vous que l'ID VLAN n'est pas affecté à l'interface physique lors de l'utilisation d'une NIC virtuelle hôte pour RoCE. Si vous créez plusieurs NIC virtuelles hôte, vous pouvez affecter un VLAN différent à chaque NIC virtuelle hôte.
9–Windows Server 2016 Configuration de QoS pour RoCE 5. Activez QoS sur le miniport comme suit : a. Ouvrez la fenêtre miniport, puis cliquez sur l'onglet Advanced (Avancé). b. Sur la page Propriétés avancées de l'adaptateur (Figure 9-9), sous Property (Propriété), sélectionnez Quality of Service (Qualité de service), puis définissez la valeur sur Enabled (Activé). c. Cliquez sur OK. Figure 9-9. Propriétés avancées : Activer QoS 6. Attribuez un ID VLAN à l'interface comme suit : a.
9–Windows Server 2016 Configuration de QoS pour RoCE REMARQUE L'étape précédente est requise pour le contrôle de flux basé sur la priorité (PFC). Figure 9-10. Propriétés avancées : Configuration d'ID VLAN 7. Pour activer le contrôle de flux basé sur la priorité pour RoCE pour une priorité spécifique, entrez la commande suivante : PS C:\Users\Administrators> Enable-NetQoSFlowControl -Priority 4 REMARQUE Si vous configurez RoCE sur Hyper-V, n'attribuez pas d'ID VLAN à l'interface physique.
9–Windows Server 2016 Configuration de QoS pour RoCE 8. Pour désactiver le contrôle de flux basé sur la priorité pour toute autre priorité, entrez les commandes suivantes : PS C:\Users\Administrator> Disable-NetQosFlowControl 0,1,2,3,5,6,7 PS C:\Users\Administrator> Get-NetQosFlowControl Priority Enabled PolicySet IfIndex IfAlias -------- ------- --------- ------- ------- 0 False Global 1 False Global 2 False Global 3 False Global 4 True Global 5 False Global 6 False Global 7
9–Windows Server 2016 Configuration de QoS pour RoCE 10. Pour configurer ETS pour toutes les classes de trafic définies à l'étape précédente, entrez les commandes suivantes : PS C:\Users\Administrators> New-NetQosTrafficClass -name "RDMA class" -priority 4 -bandwidthPercentage 50 -Algorithm ETS PS C:\Users\Administrators> New-NetQosTrafficClass -name "TCP class" -priority 0 -bandwidthPercentage 30 -Algorithm ETS PS C:\Users\Administrator> Get-NetQosTrafficClass Name Algorithm Bandwidth(%) Priority ----
9–Windows Server 2016 Configuration de QoS pour RoCE 13. Exécutez le trafic RDMA et vérifiez comme décrit à la section « Configuration de RoCE » à la page 56. Configuration de QoS en activant DCBX sur l'adaptateur Toute la configuration doit être effectuée sur tous les systèmes utilisés. La configuration de PFC, d'ETS et des classes de trafic doivent être identiques sur le commutateur et le serveur. Pour configurer QoS en activant DCBX : 1. Activez DCBX (IEEE, CEE ou Dynamique). 2.
9–Windows Server 2016 Configuration de QoS pour RoCE 5. Activez QoS sur le miniport comme suit : a. Sur la page Propriétés avancées de l'adaptateur (Figure 9-11), sous Property (Propriété), sélectionnez Quality of Service (Qualité de service), puis définissez la valeur sur Enabled (Activé). b. Cliquez sur OK. Figure 9-11. Propriétés avancées : Activation de QoS 6. Attribuez un ID VLAN à l'interface (requis pour PFC) comme suit : a.
9–Windows Server 2016 Configuration de QoS pour RoCE Figure 9-12. Propriétés avancées : Configuration d'ID VLAN 7. Pour configurer le commutateur, exécutez la commande Windows PowerShell suivante : PS C:\Users\Administrators> Get-NetAdapterQoS Name : Ethernet 5 Enabled : True Capabilities : Hardware Current -------- ------- MacSecBypass : NotSupported NotSupported DcbxSupport : CEE NumTCs(Max/ETS/PFC) : 4/4/4 OperationalTrafficClasses OperationalFlowControl : TC TSA Bandwidth Priorities
9–Windows Server 2016 Configuration de VMMQ RemoteTrafficClasses : TC TSA Bandwidth Priorities -- --- --------- ---------- 0 ETS 5% 0-3,5-7 1 ETS 95% 4 RemoteFlowControl : Priority 4 Enabled RemoteClassifications : Protocol Port/Type Priority -------- --------- -------- NetDirect 445 4 REMARQUE L'exemple précédent correspond à un port de l'adaptateur connecté à un commutateur Arista® 7060X. Dans cet exemple, le PFC du commutateur est activé sur la Priorité 4.
9–Windows Server 2016 Configuration de VMMQ Activation de VMMQ sur l'adaptateur Pour activer VMMQ sur l'adaptateur : 1. Ouvrez la fenêtre miniport, puis cliquez sur l'onglet Advanced (Avancé). 2. Sur la page Propriétés avancées de l'adaptateur (Figure 9-13), sous Property (Propriété), sélectionnez Virtual Switch RSS (RSS de commutateur virtuel), puis définissez la valeur sur Enabled (Activé). 3. Cliquez sur OK. Figure 9-13.
9–Windows Server 2016 Configuration de VMMQ 3. S'il y a lieu, ajustez la Value (Valeur) pour la propriété sélectionnée. 4. Cliquez sur OK. Création d'un commutateur de machine virtuelle avec ou sans SR-IOV Pour créer un commutateur de machine virtuelle avec ou sans SR-IOV : 1. Lancez le Gestionnaire Hyper-V. 2. Sélectionnez Virtual Switch Manager (Gestionnaire de commutateur virtuel) (voir la Figure 9-14). 3. Dans la zone Name (Nom), entrez un nom pour le commutateur virtuel.
9–Windows Server 2016 Configuration de VMMQ 4. Sous Connection type (Type de connexion) : a. Cliquez sur External network (Réseau externe). b. Cochez la case Allow management operating system to share this network adapter (Autoriser le système d'exploitation de gestion à partager cette carte réseau). Figure 9-14. Gestionnaire de commutateur virtuel 5. Cliquez sur OK.
9–Windows Server 2016 Configuration de VMMQ Activation de VMMQ sur le commutateur de machine virtuelle Pour activer VMMQ sur le commutateur de machine virtuelle : Entrez la commande Windows PowerShell suivante : PS C:\Users\Administrators> Set-VMSwitch -name q1 -defaultqueuevmmqenabled $true -defaultqueuevmmqqueuepairs 4 Obtention de la fonction de commutateur de machine virtuelle Pour obtenir la fonction de commutateur de machine virtuelle : Entrez la commande Windows PowerShell suivante : PS C:\Us
9–Windows Server 2016 Configuration de VMMQ Création d'une machine virtuelle et activation de VMMQ sur les VMNetworkadapters dans la VM Pour créer une machine virtuelle et activer VMMQ sur les VMNetworkadapters dans la VM : 1. Créez une VM. 2. Ajoutez le VMNetworkadapter à la VM. 3. Affectez un commutateur virtuel au VMNetworkadapter. 4. Pour activer VMMQ sur la VM, entrez la commande Windows PowerShell suivante : PS C:\Users\Administrators> set-vmnetworkadapter -vmname vm1 -VMNetworkAdapterName "ne
9–Windows Server 2016 Configuration de VMMQ Name ---Ethernet Ethernet Ethernet Ethernet Ethernet Ethernet Ethernet Ethernet Ethernet Ethernet Ethernet Ethernet 3 3 3 3 3 3 3 3 3 3 3 3 ID -69 70 71 72 73 74 75 76 77 78 79 80 MacAddress ---------00-15-5D-36-0A-07 00-15-5D-36-0A-08 00-15-5D-36-0A-09 00-15-5D-36-0A-0A 00-15-5D-36-0A-0B 00-15-5D-36-0A-F4 00-15-5D-36-0A-F5 00-15-5D-36-0A-F6 00-15-5D-36-0A-F7 00-15-5D-36-0A-F8 00-15-5D-36-0A-F9 00-15-5D-36-0A-FA VID --- ProcMask -------0:8 0:16 1:0 0:0 0:8 0
9–Windows Server 2016 Configuration de VXLAN Surveillance des statistiques de trafic Pour surveiller le trafic de fonction virtuelle dans une machine virtuelle, entrez la commande Windows PowerShell suivante : PS C:\Users\Administrator> Use get-netadapterstatistics | fl Configuration de VXLAN Les informations de configuration de VXLAN comprennent : Activation du déchargement VXLAN sur l'adaptateur Déploiement d'un réseau défini par logiciel Activation du déchargement VXLAN sur l'adaptateur Pour ac
9–Windows Server 2016 Configuration des Espaces de stockage direct Déploiement d'un réseau défini par logiciel Pour profiter du déchargement de tâches d'encapsulation VXLAN sur les machines virtuelles, vous devez déployer une pile de réseau défini par logiciel (SDN, Software-Defined Network) qui utilise un contrôleur réseau Microsoft. Pour plus de détails, reportez-vous au lien de Microsoft TechNet suivant sur les réseaux définis par logiciel : https://technet.microsoft.
9–Windows Server 2016 Configuration des Espaces de stockage direct REMARQUE Les disques utilisés dans cet exemple sont des disques NVMe ™ 400 G x4 et SSD 200 G x12. Déploiement d'un système hyper-convergé Cette section comprend les instructions pour installer et configurer les composants d'un système hyper-convergé à l'aide de Windows Server 2016.
9–Windows Server 2016 Configuration des Espaces de stockage direct Pour configurer le réseau sur chaque serveur : 1. Configurez le commutateur réseau physique comme suit : a. Connectez toutes les NIC de l'adaptateur au port du commutateur. REMARQUE Si votre adaptateur de test possède plusieurs ports NIC, vous devez connecter les deux ports au même commutateur. b.
9–Windows Server 2016 Configuration des Espaces de stockage direct New-VMSwitch -Name SETswitch -NetAdapterName "","","","" –EnableEmbeddedTeaming $true c.
9–Windows Server 2016 Configuration des Espaces de stockage direct h. Pour vérifier les capacités RDMA, entrez la commande suivante : Get-SmbClientNetworkInterface | where RdmaCapable -EQ $true Configuration des Espaces de stockage direct La configuration des Espaces de stockage direct dans Windows Server 2016 comprend les étapes suivantes : Étape 1. Exécution d’un outil de validation de cluster Étape 2. Création d'un cluster Étape 3. Configuration d'un témoin de cluster Étape 4.
9–Windows Server 2016 Configuration des Espaces de stockage direct Étape 3. Configuration d'un témoin de cluster Vous devez configurer un témoin pour le cluster, afin que ce système à quatre nœuds puisse résister à la défaillance ou à l'indisponibilité de deux nœuds. Avec ces systèmes, vous pouvez configurer un témoin de partage de fichiers ou un témoin de cloud. Pour plus d'informations, consultez le site : https://blogs.msdn.microsoft.
9–Windows Server 2016 Configuration des Espaces de stockage direct $_ | Clear-Disk -RemoveData -RemoveOEM -Confirm:$false $_ | Set-Disk -isreadonly:$true $_ | Set-Disk -isoffline:$true } Get-Disk |? Number -ne $null |? IsBoot -ne $true |? IsSystem -ne $true |? PartitionStyle -eq RAW | Group -NoElement -Property FriendlyName } | Sort -Property PsComputerName,Count Étape 5.
9–Windows Server 2016 Déploiement et gestion de Nano Server Déploiement et gestion de Nano Server Windows Server 2016 offre Nano Server comme nouvelle option d'installation. Nano Server est un système d'exploitation de serveur administré à distance, optimisé pour les clouds privés et les centres de données.
9–Windows Server 2016 Déploiement et gestion de Nano Server Tableau 9-1.
9–Windows Server 2016 Déploiement et gestion de Nano Server Pour déployer Nano Server : 1. Téléchargez l'image du SE Windows Server 2016. 2. Montez l'image ISO. 3. Copiez les fichiers suivants du dossier NanoServer sur un dossier de votre disque dur : NanoServerImageGenerator.psm1 Convert-WindowsImage.ps1 4. Démarrez Windows PowerShell en tant qu'administrateur. 5. Changez le répertoire au dossier dans lequel vous avez copié les fichiers à l'étape 3. 6.
9–Windows Server 2016 Déploiement et gestion de Nano Server Dans l'exemple précédent, C:\Nano\Drivers est le chemin d'accès des pilotes QLogic. Cette commande met environ 10 à 15 minutes pour créer un fichier VHD. Voici un exemple de sortie de cette commande : Windows(R) Image to Virtual Hard Disk Converter for Windows(R) 10 Copyright (C) Microsoft Corporation. All rights reserved. Version 10.0.14300.1000.amd64fre.rs1_release_svc.
9–Windows Server 2016 Déploiement et gestion de Nano Server REMARQUE Dans cet exemple, le VHD est attaché sous D:\. f. Cliquez avec le bouton droit sur Gestion des disques et sélectionnez Détacher un disque dur virtuel. 10. Redémarrez le serveur physique sur le VHD Nano Server. 11. Connectez-vous à la console de récupération en utilisant l'administrateur et le mot de passe que vous avez fournis lors de l'exécution du script à l'étape 7. 12. Obtenez l'adresse IP de l'ordinateur de Nano Server. 13.
9–Windows Server 2016 Déploiement et gestion de Nano Server New-NanoServerImage –DeploymentType Guest –Edition -MediaPath -BasePath .\Base -TargetPath .\NanoServerPhysical\NanoServer.vhd -ComputerName –GuestDrivers Exemple : New-NanoServerImage –DeploymentType Guest –Edition Datacenter -MediaPath C:\tmp\TP4_iso\Bld_10586_iso -BasePath .\Base -TargetPath .\Nano1\VM_NanoServer.
9–Windows Server 2016 Déploiement et gestion de Nano Server INFO : Done. Done. The log is at: C:\Users\ADMINI~1\AppData\Local\Temp\2\NanoServerImageGenerator.log 8. Créez une nouvelle machine virtuelle dans le Gestionnaire Hyper-V, et utilisez le VHD créé à l'étape 7. 9. Démarrez la machine virtuelle. 10. Connectez-vous à la machine virtuelle dans le Gestionnaire Hyper-V. 11.
9–Windows Server 2016 Déploiement et gestion de Nano Server Exemples : Set-Item WSMan:\localhost\Client\TrustedHosts "172.28.41.152" Set-Item WSMan:\localhost\Client\TrustedHosts "*" REMARQUE La commande précédente définit tous les serveurs hôtes comme des hôtes de confiance.
9–Windows Server 2016 Déploiement et gestion de Nano Server REMARQUE Dans l'exemple précédent, l'adresse IP de Nano Server est 172.28.41.152 et le nom d'utilisateur est Administrator. Si Nano Server se connecte avec succès, le message suivant est renvoyé : [172.28.41.152]: PS C:\Users\Administrator\Documents> 2. Pour déterminer si les pilotes sont installés et que la liaison est établie, entrez la commande Windows PowerShell suivante : [172.28.41.152]: PS C:\Users\Administrator\Documents> Get-NetAdapter
9–Windows Server 2016 Déploiement et gestion de Nano Server [172.28.41.152]: PS C:\> netsh interface ip set address name="SLOT 1 Port 1" static 192.168.10.10 255.255.255.0 5. Pour créer un SMBShare sur Nano Server, entrez la commande Windows PowerShell suivante : [172.28.41.152]: PS C:\Users\Administrator\Documents> New-Item -Path c:\ -Type Directory -Name smbshare -Verbose La Figure 9-20 montre un exemple de sortie. Figure 9-20. Commande Windows PowerShell : New-Item [172.28.41.152]: PS C:\> New-SMBSh
9–Windows Server 2016 Déploiement et gestion de Nano Server La Figure 9-22 montre la sortie de la commande. Figure 9-22.
10 Dépannage Ce chapitre fournit les informations de dépannage suivantes : Liste de vérification pour le dépannage « Vérification du chargement des pilotes à jour » à la page 159 « Vérification de la connectivité du réseau » à la page 160 « Virtualisation Microsoft avec Hyper-V » à la page 161 « Problèmes propres à Linux » à la page 161 « Problèmes divers » à la page 162 « Collecte des données de débogage » à la page 162 Liste de vérification pour le dépannage PRÉCAUTION Avant d
10–Dépannage Vérification du chargement des pilotes à jour Essayez d'insérer l'adaptateur dans un autre logement. Si cette nouvelle position assure son fonctionnement, il se peut que le logement d'origine de votre système soit défectueux. Remplacez l'adaptateur défectueux par un adaptateur en bon état de fonctionnement. Si le deuxième adaptateur fonctionne dans le logement où le premier ne marchait pas, ce premier adaptateur est probablement défectueux.
10–Dépannage Vérification de la connectivité du réseau version: 8.4.7.0 firmware-version: mfw 8.4.7.0 storm 8.4.7.0 bus-info: 0000:04:00.2 Si vous avez chargé un nouveau pilote mais que vous n'avez pas encore redémarré, la commande modinfo n'affiche pas d'informations à jour sur le pilote. Entrez plutôt la commande dmesg suivante pour afficher les journaux. Dans cet exemple, la dernière entrée identifie le pilote qui sera actif au redémarrage. # dmesg | grep -i "Cavium" | grep -i "qede" [ 10.
10–Dépannage Virtualisation Microsoft avec Hyper-V 4. Utilisez la commande suivante puis appuyez sur ENTRÉE. ping Les statistiques ping affichées indiquent si la connectivité réseau fonctionne. Test de la connectivité réseau pour Linux Pour vérifier que l'interface Ethernet est opérationnelle : 1. Pour vérifier l'état de l'interface Ethernet, entrez la commande ifconfig. 2. Pour vérifier les statistiques de l'interface Ethernet, entrez la commande netstat -i.
10–Dépannage Problèmes divers Problèmes divers Problème : L'adaptateur QL45212 s'est arrêté et un message d'erreur s'affiche, indiquant une défaillance de son ventilateur. Solution : L'adaptateur adaptateur QL45212 peut s'arrêter intentionnellement afin d'éviter d'endommager le matériel de manière irréversible. Contactez le support technique Cavium pour obtenir de l'aide. Collecte des données de débogage Utilisez les commandes du Tableau 10-1 pour collecter les données de débogage. Tableau 10-1.
A Voyants de l'adaptateur Le Tableau A-1 répertorie les voyants d'état de liaison et d'activité de port de l'adaptateur. Tableau A-1.
B Câbles et modules optiques Cette annexe fournit les informations suivantes concernant les câbles et les modules optiques pris en charge : Spécifications prises en charge « Câbles et modules optiques testés » à la page 165 « Commutateurs testés » à la page 166 Spécifications prises en charge Les adaptateurs QL45212 prennent en charge divers câbles et modules optiques conformes à SFF8024.
B–Câbles et modules optiques Câbles et modules optiques testés Câbles et modules optiques testés Cavium ne garantit pas que tous les câbles ou modules optiques qui satisfont aux exigences de conformité fonctionneront avec les adaptateurs QL45212. L'adaptateur QL45212 prend en charge les DAC 3 m et les AOC 30 m, mais il ne prend pas en charge les optiques 25G SR. Cavium a testé l'adaptateur QL45212 pour l'interopérabilité avec les câbles répertoriés dans le Tableau B-1. Tableau B-1.
B–Câbles et modules optiques Commutateurs testés Tableau B-1. Câbles et modules optiques testés (Suite) Vitesse/ Facteur de forme Fabricant 25G AOC InnoLight Référence Type Longueur Calibre de câble a TF-PY003-N00 SFP28 AOC 3 S/O TF-PY020-N00 SFP28 AOC 20 S/O a La longueur de câble est indiquée en mètres. b DAC est un câble d'attache directe. c AOC est un câble optique actif.
C Configuration du commutateur Dell Z9100 Les adaptateurs QL45212 prennent en charge les connexions avec le commutateur Ethernet Dell Z9100. Cependant, tant que le processus de négociation automatique n'est pas standardisé, le commutateur doit être explicitement configuré pour se connecter à l'adaptateur à 25 Gbits/s. Pour configurer un port de commutateur Dell Z9100 pour la connexion à l'adaptateur QL45212 à 25 Gbits/s : 1.
C–Configuration du commutateur Dell Z9100 25G Quad port mode with 25G speed Dell(conf)#stack-unit 1 port 5 portmode quad speed 25G Pour plus d'informations sur le changement de la vitesse de liaison de l'adaptateur, voir « Vérification de la connectivité du réseau » à la page 160. 5. Vérifiez que le port fonctionne à 25 Gb/s : Dell# Dell#show running-config | grep "port 5" stack-unit 1 port 5 portmode quad speed 25G 6.
Glossaire ARI Alternative Routing-ID Interpretation. La fonction ARI PCI-SIG offre un mécanisme qui permet à un seul périphérique PCIe de prendre en charge jusqu'à 256 fonctions physiques (PF). Les systèmes d'exploitation actuels autorisent l'utilisation d'un maximum de 16 fonctions physiques (PF) par périphérique lorsqu'ARI est activé dans le BIOS système, et d'un maximum de 8 PF par périphérique si ARI est désactivé.
Guide d’utilisation—Adaptateur Ethernet intelligent QL45212 base address register Voir BAR. data center bridging Voir DCB. BIOS Système d'entrées/sorties de base. En règle générale dans la PROM Flash, programme (ou utilitaire) qui sert d'interface entre le matériel et le système d'exploitation, et permet l'amorçage à partir de l'adaptateur au démarrage. data center bridging exchange Voir DCBX. DCB Data center bridging. Apporte des améliorations aux spécifications de pont 802.
Guide d’utilisation—Adaptateur Ethernet intelligent QL45212 Ethernet Technologie LAN la plus utilisée qui transmet des informations entre des ordinateurs, typiquement à des vitesses de 10 et 100 millions de bits par seconde (Mbits/s). eCore Une couche entre le système d'exploitation et le matériel et le micrologiciel. Elle est propre au périphérique et indépendante du SE.
Guide d’utilisation—Adaptateur Ethernet intelligent QL45212 IQN iSCSI qualified name. Nom de nœud iSCSI basé sur le fabricant de l'initiateur et une section de nom de périphérique unique. file transfer protocol Voir FTP. FTP File transfer protocol. Protocole de réseau standard servant à transférer des fichiers d'un hôte à un autre sur un réseau TCP, tel que Internet.
Guide d’utilisation—Adaptateur Ethernet intelligent QL45212 LSO Large send offload. Fonction d'adaptateur Ethernet qui permet à la pile de réseau TCP\IP de construire un grand message TCP (jusqu'à 64 Ko) avant de l'envoyer à l'adaptateur. Le matériel de l'adaptateur segmente le message en petits paquets de données (trames) à envoyer sur le câble : jusqu'à 1 500 octets pour les trames Ethernet standard et jusqu'à 9 000 octets pour les trames Ethernet étendues.
Guide d’utilisation—Adaptateur Ethernet intelligent QL45212 partitionnement NIC Voir NPAR. QoS Qualité de service. Fait référence aux méthodes utilisées pour éviter les goulets d'étranglement et pour garantir la continuité des activités lors de la transmission de données sur des ports virtuels, en définissant des priorités et en allouant de la bande passante.
Guide d’utilisation—Adaptateur Ethernet intelligent QL45212 RoCE RDMA over Converged Ethernet. Protocole réseau qui permet l'accès mémoire direct à distance (RDMA) sur un réseau Ethernet convergent ou non. RoCE est un protocole de couche de liaison qui permet les communications entre deux hôtes d'un même domaine de diffusion Ethernet. SR-IOV Single root input/output virtualization.
Guide d’utilisation—Adaptateur Ethernet intelligent QL45212 unified extensible firmware interface Voir UEFI. trames étendues Grandes trames IP utilisées dans les réseaux haute performance pour augmenter les performances sur de longues distances. Les trames étendues correspondent généralement à 9 000 octets pour Gigabit Ethernet, mais peuvent se référer à tout ce qui dépasse la MTU IP, qui est égale à 1 500 octets sur un réseau Ethernet. user datagram protocol Voir UDP. VF Fonction virtuelle.
Guide d’utilisation—Adaptateur Ethernet intelligent QL45212 WoL Wake on LAN. Norme de réseau informatique Ethernet qui permet à un ordinateur d'être allumé ou réveillé à distance par un message réseau envoyé généralement par un simple programme exécuté sur un autre ordinateur du réseau.
Siège social Cavium, Inc. 2315 N. First Street San Jose, CA 95131 408-943-7100 Bureaux internationaux Royaume-Uni | Irlande | Allemagne | France | Inde | Japon | Chine | Hong Kong | Singapour | Taïwan | Israël Copyright © 2015–2018 Cavium, Inc. Tous droits réservés dans le monde entier. QLogic Corporation est une filiale à part entière de Cavium, Inc. Cavium, FastLinQ, QConvergeConsole, QLogic et SmartAN sont des marques déposées de Cavium, Inc.