Guide d’utilisation Adaptateurs réseau convergents série 41xxx AH0054602-02 F Renseignements de tiers fournis gracieusement par Dell EMC.
Guide d’utilisation—Adaptateurs réseau convergents série 41xxx Historique de révision du document Révision A, 28 avril 2017 Révision B, 24 août 2017 Révision C, 1er octobre 2017 Révision D, 24 janvier 2018 Révision E, 15 mars 2018 Révision F, 19 avril 2018 Modifications Sections touchées Mise à jour des exemples concernant les conventions de documents. « Conventions de la documentation » à la page xix Suppression des sections obsolètes QLogic Contrats de licence et Garantie.
Guide d’utilisation—Adaptateurs réseau convergents série 41xxx « Déchargement iSCSI dans les environnements Linux » à la page 151 Modification des sections majeures suivantes en sous-sections sous Déchargement iSCSI dans les environnements Linux: « Différences avec bnx2i » à la page 152 « Configuration de qedi.
Guide d’utilisation—Adaptateurs réseau convergents série 41xxx « Configuration de SR-IOV sous Linux » à la page 192 Dans la procédure Pour configurer SR-IOV sous Linux : Dansl' Étape 12, commande modifiée de ip link show/ifconfig -a en ip link show | grep -i vf -b2. Remplacement de la Figure 11-12 par une nouvelle capture d’écran. Dansl' Étape 15, modification de la commande de check lspci -vv|grep -I ether en lspci -vv|grep -i ether.
Guide d’utilisation—Adaptateurs réseau convergents série 41xxx « Installation des pilotes de périphérique sur les deux serveurs » à la page 205 Mise à jour de la section comme suit : Dans l’introduction, ajout de « Pour mettre à jour le noyau vers le tout dernier noyau Linux en amont, accédez à . » Ajout d’une nouvelle Étape 2 pour réinstaller et charger le tout dernier pilote à la suite de la mise à niveau du noyau d’OS.
Table des matières Préface Produits pris en charge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Public visé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ce que ce guide comprend . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Conventions de la documentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Avis légaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Guide d’utilisation—Adaptateurs réseau convergents série 41xxx Paramètres facultatifs du pilote Linux . . . . . . . . . . . . . . . . . . . . . . . . . Valeurs opérationnelles par défaut du pilote Linux . . . . . . . . . . . . . . . Messages du pilote Linux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Statistiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Installation du logiciel pilote pour Windows . . . . . . . . . . . . . . . . . . .
Guide d’utilisation—Adaptateurs réseau convergents série 41xxx Préparation du commutateur Ethernet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration du commutateur Ethernet Cisco Nexus 6000 . . . . . . . . Configuration du commutateur Ethernet Dell Z9100 . . . . . . . . . . . . . . Configuration de RoCE sur l'adaptateur pour Windows Server . . . . . . . . . . Affichage des compteurs RDMA . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Guide d’utilisation—Adaptateurs réseau convergents série 41xxx Configuration des paramètres d'affinité d'IRQ . . . . . . . . . . . . . . . . . . . Configuration de la préparation de périphériques de traitement par blocs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration d’iSER sous ESXi 6.7 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Avant de commencer. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Guide d’utilisation—Adaptateurs réseau convergents série 41xxx Considérations relatives à Open-iSCSI et au démarrage à partir de SAN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Démarrage iSCSI L4 pour RHEL 6.9 à partir de la migration SAN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Démarrage iSCSI L4 pour RHEL 7.2/7.3 à partir de la migration SAN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Guide d’utilisation—Adaptateurs réseau convergents série 41xxx 12 Configuration de NVMe-oF avec RDMA Installation des pilotes de périphérique sur les deux serveurs. . . . . . . . . . . Configuration du serveur cible . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration du serveur initiateur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Préconditionnement du serveur cible . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Guide d’utilisation—Adaptateurs réseau convergents série 41xxx Configuration des Espaces de stockage direct . . . . . . . . . . . . . . . . . . . . . . Configuration du matériel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Déploiement d'un système hyper-convergé . . . . . . . . . . . . . . . . . . . . Déploiement du système d'exploitation . . . . . . . . . . . . . . . . . . . Configuration du réseau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Guide d’utilisation—Adaptateurs réseau convergents série 41xxx Liste des Figures Figure Page 3-1 Fenêtre Dell Update Package . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 3-2 Assistant QLogic InstallShield : Fenêtre de bienvenue . . . . . . . . . . . . . . . . . . . . . . 18 3-3 Assistant QLogic InstallShield : Fenêtre de contrat de licence . . . . . . . . . . . . . . . . 19 3-4 Assistant InstallShield : Fenêtre de type d'installation . . . . . . . . . . . . . . . . .
Guide d’utilisation—Adaptateurs réseau convergents série 41xxx 6-9 6-10 7-1 7-2 7-3 7-4 8-1 8-2 8-3 8-4 8-5 9-1 9-2 9-3 9-4 9-5 9-6 9-7 9-8 9-9 9-10 9-11 9-12 9-13 9-14 9-15 9-16 9-17 9-18 9-19 9-20 9-21 9-22 9-23 9-24 9-25 10-1 10-2 10-3 10-4 10-5 10-6 10-7 Affectation d'un vmknic pour PVRDMA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Réglage de la règle de pare-feu. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Guide d’utilisation—Adaptateurs réseau convergents série 41xxx 10-8 11-1 11-2 11-3 11-4 11-5 11-6 11-7 11-8 11-9 11-10 11-11 11-12 11-13 11-14 11-15 12-1 12-2 12-3 12-4 13-1 13-2 13-3 13-4 13-5 13-6 13-7 13-8 13-9 13-10 13-11 13-12 13-13 13-14 13-15 13-16 13-17 13-18 13-19 13-20 13-21 13-22 13-23 Configuration de Red Hat Enterprise Linux 7.4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration système pour SR-IOV : Périphériques intégrés . . . . . . . . . . . . . . . . .
Guide d’utilisation—Adaptateurs réseau convergents série 41xxx Liste des Tableaux Tableau Page 2-1 Exigences du matériel hôte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 2-2 Exigences minimales du système d'exploitation hôte . . . . . . . . . . . . . . . . . . . . . . . 5 3-1 Pilotes Linux des Adaptateurs série 41xxx QLogic . . . . . . . . . . . . . . . . . . . . . . . . . 8 3-2 Paramètres facultatifs du pilote qede. . . . . . . . . . . . . . . . . . . . . . . .
Préface Cette préface énumère les produits pris en charge, spécifie le public visé, explique les conventions typographiques utilisées dans ce guide et décrit les avis légaux.
Préface Ce que ce guide comprend Ce que ce guide comprend Après cette préface, le reste de ce guide comprend les chapitres et annexes suivants : Le Chapitre 1 Présentation du produit présente une description fonctionnelle du produit, la liste des fonctionnalités, et les spécifications de l'adaptateur. Le Chapitre 2 Installation du matériel décrit l'installation de l'adaptateur et inclut notamment la liste des exigences système et une liste de vérification de préinstallation.
Préface Conventions de la documentation L'Annexe A Voyants de l'adaptateur énumère les voyants de l'adaptateur et leur signification. L'Annexe B Câbles et modules optiques énumère les câbles et les modules optiques pris en charge par les Adaptateurs série 41xxx. L'Annexe C Configuration du commutateur Dell Z9100 décrit la configuration du port de commutateur Dell Z9100 pour 25 Gbits/s.
Préface Conventions de la documentation Le texte en police Courier indique un nom de fichier, un chemin d'accès à un répertoire, ou un texte de ligne de commande. Par exemple : Pour revenir vers le répertoire racine à partir de n'importe où dans la structure de fichiers : Entrez cd /root, puis appuyez sur ENTRÉE. Utilisez la commande suivante : sh ./install.bin. Les noms et les séquences de touches sont indiqués en MAJUSCULES : Appuyez sur CTRL+P. Appuyez sur la touche FLÈCHE HAUT.
Préface Avis légaux 1|2|3|4 ... (Points de suspension) indiquent que l'élément précédent peut être répété. Par exemple : x... signifie une ou plusieurs instances de x. [x...] signifie zéro ou plusieurs instances de x. Des points de suspension verticaux, dans le cadre d'un exemple de sortie de commande, indiquent où des parties de données de sortie répétées ont été volontairement omises. ( ) (Parenthèses) et { } (Accolades) sont utilisés pour éviter toute ambiguïté logique.
Préface Avis légaux Exigences EMI et EMC Conformité à l'alinéa 15 de la FCC : Classe A Déclaration de conformité FCC : Cet appareil est conforme à la section 15 des règlements FCC. Son fonctionnement est soumis aux deux conditions suivantes : (1) ce périphérique ne doit pas provoquer d'interférences nuisibles et (2) ce périphérique doit accepter to :te interférence reçue, y compris les interférences pouvant altérer son fonctionnement.
Préface Avis légaux Format de langue coréenne - Classe A VCCI : Classe A Ceci est un produit de Classe A sur la base de la norme du Conseil de contrôle volontaire des interférences (Voluntary Control Council for Interference - VCCI). Si cet équipement est utilisé dans un environnement local, des interférences radio peuvent se produire, auquel cas l'utilisateur peut être amené à prendre des mesures correctives.
1 Présentation du produit Ce chapitre fournit les informations suivantes concernant les Adaptateurs série 41xxx : Description fonctionnelle Fonctionnalités « Spécifications de l'adaptateur » à la page 3 Description fonctionnelle Les adaptateurs QLogic FastLinQ® 41000 Series comprennent des adaptateurs réseau convergents 10 et 25 Gb et des adaptateurs Ethernet intelligents conçus pour la mise en réseau accélérée des données de systèmes de serveurs.
1–Présentation du produit Fonctionnalités 1 Fonctionnalités liées aux performances : Déchargements de somme de contrôle TCP, IP, UDP Déchargement de segmentation TCP (TSO) Large segment offload (LSO) (Déchargement de grands segments) Déchargement de segments génériques (GSO) Grand déchargement de réception (Large Receive Offload – LRO) Regroupement de segments de réception (RSC) File d'attente de machine virtuelle (VMQ) dynamique Microsoft®, et files d'attente multipl
1–Présentation du produit Spécifications de l'adaptateur Mémoire NVRAM flash série Interface de gestion de l'alimentation PCI (v1.1) Prise en charge de BAR (base address register) 64 bits Prise en charge du processeur EM64T Prise en charge du démarrage iSCSI et FCoE2 Spécifications de l'adaptateur Les spécifications de l'Adaptateur série 41xxx comprennent les caractéristiques physiques de l'adaptateur et les références de conformité aux normes.
2 Installation du matériel Ce chapitre fournit les informations suivantes concernant l'installation du matériel : Exigences système « Précautions de sécurité » à la page 5 « Liste de vérification de préinstallation » à la page 6 « Installation de l'adaptateur » à la page 6 Exigences système Avant d'installer un QLogic Adaptateur série 41xxx, vérifiez que votre système répond aux exigences en matière de matériel et de système d’exploitation affichées dans le Tableau 2-1 et le Tableau 2-2.
2–Installation du matériel Précautions de sécurité Tableau 2-2. Exigences minimales du système d'exploitation hôte Système d'exploitation Exigence Windows Server 2012, 2012 R2, 2016 (y compris Nano) Linux RHEL® 6.8, 6.9, 7.2, 7.3, 7.4 SLES® 11 SP4, SLES 12 SP2, SLES 12 SP3 VMware ESXi 6.0 u3 et versions ultérieures pour adaptateurs 25 G REMARQUE Le Tableau 2-2 indique la configuration minimale requise du système d'exploitation hôte.
2–Installation du matériel Liste de vérification de préinstallation Liste de vérification de préinstallation Avant d'installer l'adaptateur, procédez ainsi : 1. Assurez-vous que votre système répond bien à la configuration matérielle et logicielle requise décrite dans la section « Exigences système » à la page 4. 2. Vérifiez si votre système utilise le BIOS le plus récent.
2–Installation du matériel Installation de l'adaptateur 4. Alignez le bord du connecteur de l'adaptateur sur le logement du connecteur PCIe dans le système. 5. En exerçant une pression égale sur les deux coins de la carte adaptateur, enfoncez celle-ci dans le logement jusqu'à ce qu'elle soit bien positionnée. Une fois l'adaptateur correctement positionné, le connecteur du port de l'adaptateur est aligné sur l'ouverture du logement et sa platine avant se trouve dans l'alignement du châssis du système.
3 Installation des pilotes Ce chapitre fournit les informations suivantes concernant l'installation des pilotes : Installation du logiciel pilote pour Linux « Installation du logiciel pilote pour Windows » à la page 16 « Installation du logiciel pilote pour VMware » à la page 28 Installation du logiciel pilote pour Linux Cette section décrit la manière d'installer des pilotes Linux avec ou sans accès direct à la mémoire à distance (RDMA).
3–Installation des pilotes Installation du logiciel pilote pour Linux Tableau 3-1. Pilotes Linux des Adaptateurs série 41xxx QLogic (Suite) Pilote Linux Description qede Pilote Ethernet Linux pour les Adaptateurs série 41xxx. Ce pilote contrôle directement le matériel et est responsable de l'envoi et de la réception des paquets Ethernet au nom de la pile réseau hôte Linux. Ce pilote reçoit et traite également les interruptions de périphérique, pour son propre compte (pour les réseaux L2).
3–Installation des pilotes Installation du logiciel pilote pour Linux REMARQUE Pour les installations réseau via NFS, FTP ou HTTP (à l'aide d'une disquette de démarrage de réseau), vous devrez peut-être utiliser un disque de pilote contenant le pilote qede. Les pilotes de démarrage Linux peuvent être compilés en modifiant l'environnement makefile et make. Installation des pilotes Linux sans RDMA Pour installer les pilotes Linux sans RDMA : 1.
3–Installation des pilotes Installation du logiciel pilote pour Linux rmmod qed depmod -a Pour RHEL : cd /lib/modules//extra/qlgc-fastlinq rm -rf qed.ko qede.ko qedr.ko Pour SLES : cd /lib/modules//updates/qlgc-fastlinq rm -rf qed.ko qede.ko qedr.ko Pour supprimer les pilotes Linux dans un environnement non-RDMA : 1. Pour obtenir le chemin vers les pilotes actuellement installés, entrez la commande suivante : modinfo 2. Déchargez et supprimez les pilotes Linux.
3–Installation des pilotes Installation du logiciel pilote pour Linux Pour supprimer les pilotes Linux dans un environnement RDMA : 1. Pour obtenir le chemin vers les pilotes installés, entrez la commande suivante : modinfo 2. Déchargez et supprimez les pilotes Linux. modprobe -r qedr modprobe -r qede modprobe -r qed depmod -a 3.
3–Installation des pilotes Installation du logiciel pilote pour Linux 3. Installez le RPM qui vient d'être compilé : rpm -ivh RPMS//qlgc-fastlinq-..rpm REMARQUE L'option --force peut être requise sur certaines distributions Linux en cas de conflit. Les pilotes seront installés dans les chemins d'accès suivants. Pour SLES : /lib/modules//updates/qlgc-fastlinq Pour RHEL : /lib/modules//extra/qlgc-fastlinq 4.
3–Installation des pilotes Installation du logiciel pilote pour Linux Pour SLES : /lib/modules//updates/qlgc-fastlinq Pour RHEL : /lib/modules//extra/qlgc-fastlinq 3. Testez les pilotes en les chargeant (au besoin, déchargez d'abord les pilotes existants) : rmmod qede rmmod qed modprobe qed modprobe qede Installation des pilotes Linux avec RDMA Pour plus d'informations sur iWARP, voir le Chapitre 7 Configuration d'iWARP.
3–Installation des pilotes Installation du logiciel pilote pour Linux Paramètres facultatifs du pilote Linux Le Tableau 3-2 décrit les paramètres facultatifs pour le pilote qede. Tableau 3-2. Paramètres facultatifs du pilote qede Paramètre Description debug Contrôle le niveau de verbosité du pilote de manière similaire à ethtool -s msglvl. int_mode Contrôle le mode d'interruption autre que MSI-X.
3–Installation des pilotes Installation du logiciel pilote pour Windows Tableau 3-3.
3–Installation des pilotes Installation du logiciel pilote pour Windows Installation des pilotes Windows Installez le logiciel pilote Windows à l'aide du progiciel de mise à jour Dell (Dell Update Package – DUP) : Exécution du DUP dans l'IUG Options d'installation de DUP Exemples d'installation de DUP Exécution du DUP dans l'IUG Pour exécuter le DUP dans l'interface graphique : 1. Double-cliquez sur l'icône représentant le fichier du DUP. REMARQUE Le nom de fichier réel du DUP varie. 2.
3–Installation des pilotes Installation du logiciel pilote pour Windows 3. Dans la fenêtre de bienvenue de l'Assistant QLogic Super Installer® (Figure 3-2), cliquez sur Suivant. Figure 3-2.
3–Installation des pilotes Installation du logiciel pilote pour Windows 4. Procédez ainsi dans la fenêtre de contrat de licence de l'Assistant (Figure 3-3) : a. Lisez le contrat de licence du logiciel de l'utilisateur final QLogic. b. Pour continuer, sélectionnez I accept the terms in the license agreement (J'accepte les conditions du contrat de licence). c. Cliquez sur Next (Suivant). Figure 3-3.
3–Installation des pilotes Installation du logiciel pilote pour Windows 5. Remplissez la fenêtre de type d'installation de l'Assistant (Figure 3-4) comme suit : a. b. Sélectionnez l'un des types d'installation suivants : Cliquez sur Complète pour installer toutes les fonctions du programme. Cliquez sur Custom (Personnalisée) pour sélectionner les fonctions à installer. Pour continuer, cliquez sur Next (Suivant). Si vous avez choisi Complète, passez directement à l'étape 6b. Figure 3-4.
3–Installation des pilotes Installation du logiciel pilote pour Windows b. This feature, and all subfeatures, will be installed on the local hard drive (Cette fonctionnalité et toutes ses sous-fonctionnalités seront installées sur le disque dur local) : marque la fonction et toutes ses sous-fonctions pour installation This feature will not be available (Cette fonctionnalité ne sera pas disponible) : empêche l'installation de la fonction. Cliquez sur Next (Suivant) pour continuer. Figure 3-5.
3–Installation des pilotes Installation du logiciel pilote pour Windows Figure 3-6.
3–Installation des pilotes Installation du logiciel pilote pour Windows 8. Une fois l'installation terminée, la fenêtre Assistant InstallShield terminé apparaît (Figure 3-7). Cliquez sur Finish (Terminer) pour fermer le programme d'installation. Figure 3-7.
3–Installation des pilotes Installation du logiciel pilote pour Windows 9. Dans la fenêtre DUP (Figure 3-8), le message « Update installer operation was successful » (« L'opération d'installation de la mise à jour a réussie ») indique que l'installation est terminée. (Facultatif) Pour ouvrir le fichier journal, cliquez sur View Installation Log (Afficher le journal d'installation).
3–Installation des pilotes Installation du logiciel pilote pour Windows (Avancé) Utilisez l'option /passthrough pour envoyer tout le texte suivant /passthrough directement au logiciel d'installation QLogic du DUP. Ce mode supprime toutes les interfaces GUI fournies, mais pas nécessairement celles du logiciel QLogic. /passthrough (Avancé) Pour retourner une description codée des fonctionnalités prises en charge par ce DUP : /capabilities REMARQUE Cette commande exige l'option /s.
3–Installation des pilotes Installation du logiciel pilote pour Windows Gestion des propriétés de l'adaptateur Pour afficher ou modifier les propriétés de l'Adaptateur série 41xxx : 1. Dans le panneau de configuration, cliquez sur le Gestionnaire de périphériques. 2. Sur les propriétés de l'adaptateur sélectionné, cliquez sur l'onglet Avancé. 3. Sur la page Avancé (Figure 3-9), sélectionnez un élément sous Propriété, puis modifiez sa valeur au besoin. Figure 3-9.
3–Installation des pilotes Installation du logiciel pilote pour Windows Définition des options de gestion de l'alimentation Vous pouvez définir les options de gestion de l'alimentation de façon à ce que le système d'exploitation désactive le contrôleur pour économiser de l'énergie ou de façon à permettre au contrôleur de « réveiller » le système. Si le périphérique est occupé (à gérer un appel par exemple), le système d'exploitation ne l'arrête pas.
3–Installation des pilotes Installation du logiciel pilote pour VMware Installation du logiciel pilote pour VMware Cette section décrit le pilote VMware ESXi qedentv pour les Adaptateurs série 41xxx.
3–Installation des pilotes Installation du logiciel pilote pour VMware Tableau 3-5. Paquets de pilotes ESXi par version Version ESXi a Protocole Nom du pilote Version du pilote ESXi 6.5 b NIC qedentv 3.0.7.5 FCoE qedf 1.2.24.0 iSCSI qedil 1.0.19.0 RoCE qedrntv 3.0.7.5.1 NIC qedentv 2.0.7.5 FCoE qedf 1.2.24.0 iSCSI qedil 1.0.19.0 ESXi 6.0u3 a Des pilotes ESXi supplémentaires peuvent être disponibles après la publication de ce guide d’utilisation.
3–Installation des pilotes Installation du logiciel pilote pour VMware Pour installer le pilote VMware : 1. Téléchargez le pilote VMware des Adaptateur série 41xxx à partir de la page de support VMware : www.vmware.com/support.html 2. Allumez l'hôte ESX et connectez-vous à un compte doté du rôle Administrateur. 3. Décompressez le fichier ZIP de pilotes, puis extrayez le fichier .vib. 4. Utilisez l'utilitaire Linux scp pour copier un fichier .
3–Installation des pilotes Installation du logiciel pilote pour VMware Option 2 : Pour installer tous les fichiers VIB individuels en même temps en entrant la commande suivante : # esxcli software vib install –d /tmp/qedentv-bundle-2.0.3.zip Pour mettre à niveau un pilote existant : Suivez les étapes correspondant à une nouvelle installation, en remplaçant la commande de l'option 1 précédente par celle-ci : #esxcli software vib update -v /tmp/qedentv-1.0.3.11-1OEM.550.0.0.1331820.x86_64.
3–Installation des pilotes Installation du logiciel pilote pour VMware Tableau 3-6. Paramètres facultatifs des pilotes VMware (Suite) Paramètre RSS Description Spécifie le nombre de files d'attente de mise à l'échelle en réception utilisées par l'hôte ou par le trafic en tunnel de LAN virtuel extensible (VXLAN) pour une fonction physique (PF). RSS peut être égal à 2, 3 ou 4, ou à l'une des valeurs suivantes : –1 utilise le nombre de files d'attente par défaut. 0 ou 1 désactive les files d'attente RSS.
3–Installation des pilotes Installation du logiciel pilote pour VMware Paramètres par défaut des pilotes VMware Le Tableau 3-7 énumère les valeurs par défaut des paramètres des pilotes VMware. Tableau 3-7. Paramètres par défaut des pilotes VMware Paramètre Par défaut Speed (Vitesse) Négociation automatique avec annonce de toutes les vitesses. Le paramètre de vitesse doit être identique sur tous les ports.
3–Installation des pilotes Installation du logiciel pilote pour VMware Suppression du pilote VMware Pour supprimer le fichier .vib (qedentv), entrez la commande suivante : # esxcli software vib remove --vibname qedentv Pour supprimer le pilote, entrez la commande suivante : # vmkload_mod -u qedentv Prise en charge de FCoE Le Tableau 3-8 décrit le pilote inclus dans le paquet logiciel VMware pour prendre en charge les contrôleurs d'interface réseau convergents FCoE (C-NIC) de QLogic.
4 Mise à niveau du micrologiciel Ce chapitre fournit des informations sur la mise à niveau du micrologiciel à l'aide du progiciel de mise à jour Dell (DUP). Le DUP du micrologiciel est un utilitaire de mise à jour Flash uniquement. Il ne sert pas à la configuration de l'adaptateur. Pour exécuter le DUP du micrologiciel, double-cliquez sur le fichier exécutable.
4–Mise à niveau du micrologiciel Exécution du DUP en double-cliquant Figure 4-1. Progiciel de mise à jour Dell : Écran de démarrage 2. Suivez les instructions à l'écran. Dans la boîte de dialogue d'avertissement, cliquez sur Yes (Oui) pour continuer l'installation. Le programme d'installation indique qu'il est en train de charger le nouveau micrologiciel, tel qu'illustré à la Figure 4-2. Figure 4-2.
4–Mise à niveau du micrologiciel Exécution du DUP en double-cliquant Figure 4-3. Progiciel de mise à jour Dell : Résultats de l'installation 3. Cliquez sur Yes (Oui) pour redémarrer le système. 4. Cliquez sur Finish (Terminer) pour terminer l'installation, tel qu'illustré à la Figure 4-4. Figure 4-4.
4–Mise à niveau du micrologiciel Exécution du DUP depuis une ligne de commande Exécution du DUP depuis une ligne de commande L'exécution du DUP du micrologiciel à partir de la ligne de commande, sans spécifier d'options, produit le même résultat qu'un double clic sur l'icône du DUP. Notez que le nom de fichier actuel du DUP varie. Pour exécuter le DUP du micrologiciel depuis une ligne de commande : Tapez la commande suivante : C:\> Network_Firmware_2T12N_WN32__X16.
4–Mise à niveau du micrologiciel Exécution du DUP à l'aide du fichier .bin Exécution du DUP à l'aide du fichier .bin La procédure suivante est prise en charge uniquement sur le système d'exploitation Linux. Pour exécuter le DUP à l'aide du fichier .bin : 1. Copiez le fichier Network_Firmware_NJCX1_LN_X.YZBIN sur le système à tester (System Under Test – SUT). 2. Modifiez le type de fichier en fichier exécutable, comme suit : chmod 777 Network_Firmware_NJCX1_LN_X.Y.Z.BIN 3.
4–Mise à niveau du micrologiciel Exécution du DUP à l'aide du fichier .bin Device: BCM57810 10 Gigabit Ethernet rev 10 (p2p2) Application: BCM57810 10 Gigabit Ethernet rev 10 (p2p2) Update success.
5 Configuration de prédémarrage de l'adaptateur Au cours du processus d'amorçage hôte, vous pouvez choisir de cliquer sur Pause et d'effectuer des tâches de gestion de l'adaptateur à l'aide de l'application Human Infrastructure Interface (HII).
5–Configuration de prédémarrage de l'adaptateur Mise en route Mise en route Pour démarrer l'application HII : 1. Ouvrez la fenêtre de configuration du système (System Setup) de votre plateforme. Pour plus d'informations sur le lancement de la configuration du système, consultez le manuel d'utilisation de votre système. 2. Dans la fenêtre de configuration du système (Figure 5-1), sélectionnez Paramètres de périphérique, puis appuyez sur ENTRÉE. Figure 5-1. Configuration du système 3.
5–Configuration de prédémarrage de l'adaptateur Mise en route Figure 5-3. Page de configuration principale 4. Sous Configuration au niveau du périphérique, définissez le Mode de partitionnement sur NPAR pour ajouter l'option Configuration de partitionnement NIC à la page de configuration principale, de la façon indiquée dans la Figure 5-4. REMARQUE NPAR n'est pas disponible sur des ports avec une vitesse maximale de 1G. Figure 5-4.
5–Configuration de prédémarrage de l'adaptateur Mise en route Dans la Figure 5-3 et la Figure 5-4, la page de configuration principale montre les éléments suivants : Propriétés d'image du micrologiciel (voir « Affichage des propriétés d'image du micrologiciel » à la page 45) Configuration au niveau du périphérique (voir « Configuration des paramètres au niveau du périphérique » à la page 46) Configuration NIC (voir « Configuration des paramètres NIC » à la page 48) Configuration iSCSI (si le
5–Configuration de prédémarrage de l'adaptateur Affichage des propriétés d'image du micrologiciel Tableau 5-1.
5–Configuration de prédémarrage de l'adaptateur Configuration des paramètres au niveau du périphérique Version de pilote EFI est la version de pilote d'Extensible Firmware Interface (EFI). Version de micrologiciel L2B est la version de micrologiciel de déchargement pour le démarrage. Figure 5-5.
5–Configuration de prédémarrage de l'adaptateur Configuration des paramètres au niveau du périphérique Pour configurer les paramètres au niveau du périphérique : 1. Sur la page de configuration principale, sélectionnez Configuration au niveau du périphérique (voir la Figure 5-3 à la page 43), puis appuyez sur ENTRÉE. 2. Sur la page Configuration au niveau du périphérique, sélectionnez les valeurs pour les paramètres au niveau périphérique, de la façon indiquée dans la Figure 5-6. Figure 5-6.
5–Configuration de prédémarrage de l'adaptateur Configuration des paramètres NIC Configuration des paramètres NIC La configuration NIC comprend le réglage des paramètres suivants : Vitesse de liaison Mode NIC + RDMA Prise en charge du protocole RDMA Mode d'amorçage Mode FEC Ethernet écoénergétique Mode LAN virtuel ID de LAN virtuel Pour configurer les paramètres NIC : 1.
5–Configuration de prédémarrage de l'adaptateur Configuration des paramètres NIC 25 Gbps active le mode de vitesse fixe 25GbE sur le port. Ce mode n'est pas disponible sur tous les adaptateurs. SmartAN (valeur par défaut) active le mode de vitesse de liaison FastLinQ SmartAN™ sur le port. Aucune sélection de mode FEC n'est disponible pour ce mode de vitesse. Le réglage SmartAN fait défiler toutes les vitesses de liaison et modes FEC possibles jusqu'à ce qu'une liaison soit établie.
5–Configuration de prédémarrage de l'adaptateur Configuration des paramètres NIC 7. 8. iSCSI active le démarrage à distance iSCSI sur la voie de déchargement de matériel. Le mode iSCSI est disponible uniquement si le Déchargement iSCSI est activé sur la troisième partition en mode NPAR (voir « Configuration des partitions » à la page 59). Désactivé empêche ce port d'être utilisé comme source de démarrage à distance.
5–Configuration de prédémarrage de l'adaptateur Configuration de Data Center Bridging 3. À l'invite, cliquez sur Oui pour enregistrer les modifications. Ces modifications prennent effet après la réinitialisation du système. Pour configurer le mode de démarrage du port : 1. Pour une installation à distance PXE UEFI, sélectionnez PXE comme Mode de démarrage. 2. Cliquez sur Précédent. 3. À l'invite, cliquez sur Oui pour enregistrer les modifications.
5–Configuration de prédémarrage de l'adaptateur Configuration de Data Center Bridging 3. Sur la page de Paramètres de Data Center Bridging (DCB), entrez la Priorité RoCE v1 sous forme de valeur de 0 à 7. Ce paramètre indique le numéro de priorité de classe de trafic DCB utilisé pour le trafic RoCE et doit correspondre au nombre utilisé par le réseau de commutation à DCB activé pour le trafic RoCE.
5–Configuration de prédémarrage de l'adaptateur Configuration du démarrage FCoE Configuration du démarrage FCoE REMARQUE Le menu de configuration de démarrage FCoE est uniquement visible si le Mode de déchargement FCoE est activé sur la deuxième partition en mode NPAR (voir Figure 5-18 à la page 63). Il n'est pas visible en mode non-NPAR. Pour configurer les paramètres de configuration du démarrage FCoE : 1.
5–Configuration de prédémarrage de l'adaptateur Configuration du démarrage iSCSI Figure 5-10. Configuration de cible FCoE 4. Cliquez sur Précédent. 5. À l'invite, cliquez sur Oui pour enregistrer les modifications. Ces modifications prennent effet après la réinitialisation du système.
5–Configuration de prédémarrage de l'adaptateur Configuration du démarrage iSCSI Configuration d'initiateur iSCSI Configuration de la première cible iSCSI Configuration de la deuxième cible iSCSI 2. Appuyez sur ENTRÉE. 3.
5–Configuration de prédémarrage de l'adaptateur Configuration du démarrage iSCSI 4. Cliquez sur Précédent. 5. À l'invite, cliquez sur Oui pour enregistrer les modifications. Ces modifications prennent effet après la réinitialisation du système. Figure 5-11.
5–Configuration de prédémarrage de l'adaptateur Configuration du démarrage iSCSI Figure 5-12. Paramètres de configuration de l'initiateur iSCSI Figure 5-13.
5–Configuration de prédémarrage de l'adaptateur Configuration du démarrage iSCSI Figure 5-14.
5–Configuration de prédémarrage de l'adaptateur Configuration des partitions Configuration des partitions Vous pouvez configurer des plages de bande passante pour chaque partition sur l'adaptateur. Pour des informations spécifiques à la configuration de partition sous VMware ESXi 6.0/6.5, voir Partitionnement pour VMware ESXi 6.0 et ESXi 6.5. Pour configurer l'allocation de bande passante maximale et minimale : 1.
5–Configuration de prédémarrage de l'adaptateur Configuration des partitions 3. Sur la page Allocation de la bande passante globale (Figure 5-16), cliquez sur le champ de bande passante d'émission (TX) maximale et minimale pour chaque partition, afin d'allouer de la bande passante. Il y a huit partitions par port en mode double port. Figure 5-16.
5–Configuration de prédémarrage de l'adaptateur Configuration des partitions Bande passante TX maximale de la partition n indique la bande passante maximale d'émission (TX) de la partition sélectionnée, exprimée en pourcentage de la vitesse de liaison maximale du port physique. Plage admise : de 1 à 100. La valeur de bande passante TX maximale par partition s'applique quel que soit la configuration du mode ETS DCBX. Entrez une valeur dans chaque champ sélectionné, puis cliquez sur Précédent. 4.
5–Configuration de prédémarrage de l'adaptateur Configuration des partitions 3. Pour configurer la deuxième partition, sélectionnez Configuration de la partition 2 pour ouvrir la page de configuration de la partition 2. Si le déchargement FCoE est présent, la configuration de la partition 2 (Figure 5-18) affiche les paramètres suivants : Mode NIC active ou désactive la personnalité NIC Ethernet L2 sur les Partitions 2 et supérieures.
5–Configuration de prédémarrage de l'adaptateur Configuration des partitions Figure 5-18. Configuration de la partition 2 : Déchargement FCoE 4. Pour configurer la troisième partition, sélectionnez Configuration de la partition 3 pour ouvrir la page de configuration de la partition 3 (Figure 5-17).
5–Configuration de prédémarrage de l'adaptateur Configuration des partitions 5. Pour configurer les partitions Ethernet restantes, y compris la précédente (si elle n'est pas activée pour le déchargement), ouvrez la page pour une partition 2 ou une partition Ethernet supérieure (voir la Figure 5-20). Mode NIC (Activé ou Désactivé).
5–Configuration de prédémarrage de l'adaptateur Configuration des partitions Une réinstallation du pilote est requise parce que les fonctions de stockage peuvent conserver l'énumération vmnicX plutôt que vmhbaX, comme illustré lorsque vous entrez la commande suivante sur le système : # esxcfg-scsidevs -a vmnic4 qedf link-up fc.2000000e1ed6fa2a:2001000e1ed6fa2a (0000:19:00.2) QLogic Corp. QLogic FastLinQ QL41xxx Series 10/25 GbE Controller (FCoE) vmhba0 lsi_mr3 link-n/a sas.51866da071fa9100 (0000:18:00.
6 Configuration de RoCE Ce chapitre décrit la configuration de RDMA over converged Ethernet (RoCE v1 et v2) sur l'Adaptateur série 41xxx, le commutateur Ethernet, et l'hôte Windows ou Linux, y compris : Systèmes d'exploitation pris en charge et OFED « Planification pour RoCE » à la page 67 « Préparation de l'adaptateur » à la page 68 « Préparation du commutateur Ethernet » à la page 68 « Configuration de RoCE sur l'adaptateur pour Windows Server » à la page 70 « Configuration de RoCE
6–Configuration de RoCE Planification pour RoCE Tableau 6-1. Prise en charge des SE pour RoCE v1, RoCE v2, iWARP et OFED (Suite) Système d'exploitation Préinstallé OFED 3.18-3 GA OFED-4.8-1 GA RHEL 7.3 RoCE v1, RoCE v2, iWARP, iSER Non RoCE v1, RoCE v2, iWARP RHEL 7.4 RoCE v1, RoCE v2, iWARP, iSER Non Non SLES 12 SP3 RoCE v1, RoCE v2, iWARP, iSER Non Non CentOS 7.3 RoCE v1, RoCE v2, iWARP, iSER Non RoCE v1, RoCE v2, iWARP CentOS 7.
6–Configuration de RoCE Préparation de l'adaptateur Les applications OFED et RDMA qui dépendent de libibverbs nécessitent également la bibliothèque d'espace utilisateur RDMA QLogic, libqedr. Installez libqedr en utilisant les paquets libqedr RPM ou source. RoCE prend uniquement en charge le format Little Endian. RoCE ne fonctionne pas sur VF dans un environnement SR-IOV.
6–Configuration de RoCE Préparation du commutateur Ethernet Configuration du commutateur Ethernet Cisco Nexus 6000 Les étapes de configuration du commutateur Ethernet Cisco Nexus 6000 pour RoCE comprennent la configuration des adressages de classes, la configuration des adressages de stratégies, l'application de la stratégie et l'affectation d'un ID VLAN au port de commutateur. Pour configurer le commutateur Cisco : 1.
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Windows Server 8. Appliquez la nouvelle stratégie au niveau du système de la façon suivante : switch(config)# switch(config)# switch(config)# switch(config)# switch(config)# 9.
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Windows Server Tableau 6-2. Propriétés avancées pour RoCE (Suite) Propriétés Valeur ou description Mode RDMA RoCE v1 ou RoCE v2. La valeur iWARP s'applique uniquement lors de la configuration des ports pour iWARP, comme décrit au Chapitre 7 Configuration d'iWARP. ID VLAN Attribuez un ID de VLAN à l'interface. La valeur doit être identique à celle attribuée sur le commutateur. Qualité de service Activer ou désactiver QoS.
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Windows Server 2. À l'aide de Windows PowerShell, vérifiez que RDMA est activé sur l'adaptateur. La commande Get-NetAdapterRdma répertorie les adaptateurs qui prennent en charge RDMA (les deux ports sont activés). REMARQUE Si vous configurez RoCE sur Hyper-V, n'attribuez pas d'ID de VLAN à l'interface physique. PS C:\Users\Administrator> Get-NetAdapterRdma 3.
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Windows Server Affichage des compteurs RDMA La procédure suivante s’applique également à iWARP. Pour afficher les compteurs RDMA pour RoCE : 1. Lancez Performance Monitor. 2. Ouvrez la boîte de dialogue Ajouter des compteurs. La Figure 6-2 montre un exemple. Figure 6-2.
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Windows Server REMARQUE Si les compteurs Cavium RDMA ne sont pas répertoriés dans la boîte de dialogue Moniteur de performance Ajouter des compteurs, ajoutezles manuellement en émettant la commande suivante à partir de l’emplacement du pilote : 3. Sélectionnez l'un des types de compteur suivants : 4.
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Windows Server La Figure 6-3 présente des exemples de sorties de la surveillance du compteur. Figure 6-3. Performance Monitor : Compteurs FastLinQ Cavium Le Tableau 6-3 fournit des détails à propos des compteurs d’erreurs. Table 6-3.
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Windows Server Table 6-3. Compteurs d’erreurs FastLinQ RDMA Cavium (Suite) Compteur d’erreurs RDMA Description S’applique S’applique à RoCE ? à iWARP ? Dépannage Mauvaise réponse du demandeur L’interlocuteur a retourné une réponse mal formulée.
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Windows Server Table 6-3. Compteurs d’erreurs FastLinQ RDMA Cavium (Suite) Compteur d’erreurs RDMA Description S’applique S’applique à RoCE ? à iWARP ? Dépannage Demande distante du demandeur non valide Le côté distant a reçu un message non valide sur le canal. La demande non valide peut porter sur un message d’envoi ou une demande RDMA.
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Windows Server Table 6-3. Compteurs d’erreurs FastLinQ RDMA Cavium (Suite) Compteur d’erreurs RDMA Description S’applique S’applique à RoCE ? à iWARP ? Dépannage Nombre de tentatives RNR du demandeur dépassé. Le nombre maximum de nouvelles tentatives dues au RNR RAK reçu a été atteint sans succès Oui Non Le pair à distance a peut-être cessé de répondre, ou un problème réseau empêche l’accusé de réception des messages.
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Linux Table 6-3. Compteurs d’erreurs FastLinQ RDMA Cavium (Suite) Compteur d’erreurs RDMA Demande distante de l'interlocuteur non valide Description S’applique S’applique à RoCE ? à iWARP ? L’interlocuteur a détecté un message entrant non valide sur le canal. Oui Oui Dépannage Indique un mauvais comportement possible de la part du pair distant.
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Linux Configuration de RoCE pour RHEL Pour que vous puissiez configurer RoCE sur l'adaptateur, vous devez avoir installé et configuré OFED (Open Fabrics Enterprise Distribution) sur l'hôte RHEL. Pour préparer OFED préinstallé pour RHEL : 1. Pendant l'installation ou la mise à niveau du système d'exploitation, sélectionnez les paquets de support InfiniBand et OFED. 2.
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Linux perftest-x.x.x.x86_64.rpm (requis pour les applications de bande passante et de latence) 3. Installez les pilotes Linux, comme décrit à la section « Installation des pilotes Linux avec RDMA » à la page 14.
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Linux 5. qede 96670 1 qedr qed 2075255 ib_core 88311 16 qedr, rdma_cm, ib_cm, ib_sa,iw_cm,xprtrdma,ib_mad,ib_srp, ib_ucm,ib_iser,ib_srpt,ib_umad, ib_uverbs,rdma_ucm,ib_ipoib,ib_isert 2 qede,qedr Configurez l'adresse IP et activez le port à l'aide d'une méthode de configuration, comme ifconfig : # ifconfig ethX 192.168.10.10/24 up 6.
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Linux Sur le client, entrez la commande suivante : ibv_rc_pingpong -d -g 0 Voici des exemples de tests ping pong réussis sur le serveur et le client : Ping sur le serveur : root@captain:~# ibv_rc_pingpong -d qedr0 -g 0 local address: LID 0x0000, QPN 0xff0000, PSN 0xb3e07e, GID fe80::20e:1eff:fe50:c7c0 remote address: LID 0x0000, QPN 0xff0000, PSN 0x934d28, GID fe80::20e:1eff:fe50:c570 8192000 bytes in 0.
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Linux GID[ 5]: fe80:0000:0000:0000:020e:1e00:0350:c5b0 VLAN ID 3 REMARQUE La valeur GID par défaut est zéro (0) pour les paramètres dos à dos ou pause. Pour les configurations de serveur/commutateur, vous devez identifier la valeur GID correcte. Si vous utilisez un commutateur, consultez la documentation de configuration correspondante pour connaître les paramètres appropriés.
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Linux GID[ 2]: 0000:0000:0000:0000:0000:ffff:1e01:010a GID[ 3]: 0000:0000:0000:0000:0000:ffff:1e01:010a GID[ 4]: 3ffe:ffff:0000:0f21:0000:0000:0000:0004 GID[ 5]: 3ffe:ffff:0000:0f21:0000:0000:0000:0004 GID[ 6]: 0000:0000:0000:0000:0000:ffff:c0a8:6403 GID[ 7]: 0000:0000:0000:0000:0000:ffff:c0a8:6403 Vérification de l'adresse et de l'index GID de RoCE v1 ou v2 à partir des paramètres sys et class Utilisez l'une des options
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Linux REMARQUE Vous devez spécifier les valeurs de l'index GID de RoCE v1 ou RoCE v2 en fonction de la configuration de serveur ou de commutateur (Pause/PFC). Utilisez l'index GID pour l'adresse IPv6 locale de liaison, l'adresse IPv4 ou l'adresse IPv6. Pour utiliser des trames de VLAN marquées pour le trafic RoCE, vous devez spécifier des valeurs d'index GID dérivées de l'adresse IPv4 ou IPv6 de VLAN.
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Linux Pour vérifier RoCE v2 via des sous-réseaux différents 1. Définissez la configuration de routage du serveur et du client en utilisant la configuration DCBX-PFC. Paramètres système : Adresse IP de VLAN du serveur : 192.168.100.3 et Passerelle :192.168.100.1 Adresse IP de VLAN du client : 192.168.101.3 et Passerelle :192.168.101.1 Configuration du serveur : #/sbin/ip link add link p4p1 name p4p1.
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Linux Paramètres de commutateur du serveur : Figure 6-4. Paramètres de commutateur, serveur Paramètres de commutateur du client : Figure 6-5.
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Linux Configuration des paramètres de RoCE v1 ou RoCE v2 pour les applications RDMA_CM Pour configurer RoCE, utilisez les scripts suivants du paquet source FastLinQ : # ./show_rdma_cm_roce_ver.sh qedr0 is configured to IB/RoCE v1 qedr1 is configured to IB/RoCE v1 # ./config_rdma_cm_roce_ver.sh v2 configured rdma_cm for qedr0 to RoCE v2 configured rdma_cm for qedr1 to RoCE v2 Paramètres du serveur : Figure 6-6.
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour VMware ESX Configuration de RoCE sur l'adaptateur pour VMware ESX Cette section fournit les procédures et informations suivantes pour la configuration de RoCE : Configuration des interfaces RDMA Configuration de MTU Mode et statistiques de RoCE Configuration d'un périphérique RDMA paravirtuel (PVRDMA) Configuration des interfaces RDMA Pour configurer les interfaces RDMA : 1.
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour VMware ESX Par exemple : # esxcli network vswitch standard add -v roce_vs Ceci permet de créer un nouveau commutateur virtuel appelé roce_vs. 6. Pour associer le port NIC QLogic au vSwitch, entrez la commande suivante : # esxcli network vswitch standard uplink add -u -v Par exemple : # esxcli network vswitch standard uplink add -u vmnic0 -v roce_vs 7.
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour VMware ESX Par exemple : # esxcfg-vswitch -m 4000 roce_vs # esxcli rdma device list Name Driver State ------- ------- ------ MTU vmrdma0 qedrntv Active 2048 25 Gbps vmnic0 QLogic FastLinQ QL45xxx RDMA Interface vmrdma1 qedrntv Active 1024 25 Gbps vmnic1 QLogic FastLinQ QL45xxx RDMA Interface ---- Speed Paired Uplink ------- ------------- Description ------------------------------- Mode et statistiques de RoCE Pou
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour VMware ESX Shared receive queues allocated: 0 Shared receive queue events: 0 Protection domains allocated: 1 Memory regions allocated: 3 Address handles allocated: 0 Memory windows allocated: 0 Configuration d'un périphérique RDMA paravirtuel (PVRDMA) Pour configurer un PVRDMA à l'aide d’une interface vCenter : 1. Créez et configurez un nouveau commutateur virtuel réparti de la façon suivante : a.
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour VMware ESX 3. b. Cliquez avec le bouton droit sur RoCE-VDS, puis cliquez sur Ajouter et gérer les hôtes. c. Sous Ajouter et gérer les hôtes, configurez les éléments suivants : Affecter les liaisons montantes. Sélectionnez dans la liste de liaisons montantes disponibles. Gérer les adaptateurs réseau VMkernel. Acceptez la valeur par défaut, puis cliquez sur Suivant. Effectuer une migration de réseau VM.
6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour VMware ESX c. Sur la page Récapitulatif du pare-feu, cliquez sur Modifier. d. Dans la boîte de dialogue Modifier le profil de sécurité, en dessous de Nom, faites défiler, cochez la case pvrdma, puis cochez la case Définir pare-feu. La Figure 6-10 montre un exemple. Figure 6-10. Réglage de la règle de pare-feu 5. Configurez la VM pour PVRDMA de la façon suivante : a.
7 Configuration d'iWARP Internet Wide Area RDMA Protocol (iWARP) est un protocole de réseau informatique qui met en œuvre RDMA pour un transfert de données efficace sur les réseaux IP. iWARP est conçu pour de multiples environnements, y compris les réseaux locaux, les réseaux de stockage, les réseaux de centres de données et les WAN.
7–Configuration d'iWARP Configuration d'iWARP sous Windows 4. Sur la page de configuration NIC : a. Définissez le Mode NIC + RDMA sur Activé. b. Définissez la Prise en charge du protocole RDMA sur iWARP. c. Cliquez sur Précédent. 5. Sur la page de configuration principale, cliquez sur Terminer. 6. Dans la boîte de dialogue Avertissement – Enregistrement des modifications, cliquez sur Oui pour enregistrer la configuration. 7.
7–Configuration d'iWARP Configuration d'iWARP sous Windows 2. À l'aide de Windows PowerShell, vérifiez que le RDMA est activé. La sortie de la commande Get-NetAdapterRdma (Figure 7-1) montre les adaptateurs qui prennent en charge RDMA. Figure 7-1. Commande Windows PowerShell : Get-NetAdapterRdma 3. À l'aide de Windows PowerShell, vérifiez que NetworkDirect est activé. La sortie de la commande Get-NetOffloadGlobalSetting (Figure 7-2) affiche NetworkDirect comme Enabled. Figure 7-2.
7–Configuration d'iWARP Configuration d'iWARP sous Windows Figure 7-3. Perfmon : Ajouter des compteurs Si un trafic iWARP est exécuté, les compteurs apparaissent comme indiqué dans l'exemple de la Figure 7-4. Figure 7-4.
7–Configuration d'iWARP Configuration d'iWARP sous Linux REMARQUE Pour plus d'informations sur l’affichage des compteurs Cavium RDMA dans Windows, voir « Affichage des compteurs RDMA » à la page 73. 4. Pour vérifier la connexion SMB : a. À l'invite de commande, entrez la commande net use de la manière suivante : C:\Users\Administrator> net use New connections will be remembered. Status Local Remote Network --------------------------------------------------------OK F: \\192.168.10.10\Share1 Microsoft Win
7–Configuration d'iWARP Configuration d'iWARP sous Linux Applications iWARP prises en charge Exécution de perftest pour iWARP Configuration de NFS-RDMA Prise en charge d'iWARP RDMA-Core sous SLES 12 SP3, RHEL 7.4, et OFED 4.8x Installation du pilote Installez les pilotes RDMA de la façon indiquée dans le Chapitre 3 Installation des pilotes.
7–Configuration d'iWARP Configuration d'iWARP sous Linux L'exemple suivant montre les entrées de commande pour changer le protocole RDMA en iWARP sur plusieurs interfaces NPAR : # modprobe qed rdma_protocol_map=04:00.1-3,04:00.3-3,04:00.5-3, 04:00.7-3,04:01.1-3,04:01.3-3,04:01.5-3,04:01.
7–Configuration d'iWARP Configuration d'iWARP sous Linux active_mtu: sm_lid: port_lid: port_lmc: link_layer: 1024 (3) 0 0 0x00 Ethernet Applications iWARP prises en charge Les applications RDMA prises en charge par Linux pour iWARP comprennent ce qui suit : ibv_devinfo, ib_devices ib_send_bw/lat, ib_write_bw/lat, ib_read_bw/lat, ib_atomic_bw/lat Pour iWARP, toutes les applications doivent utiliser le gestionnaire de communication RDMA (rdma_cm) avec l'option -R.
7–Configuration d'iWARP Configuration d'iWARP sous Linux TX depth : 128 CQ Moderation : 100 Mtu : 1024[B] Link type : Ethernet GID index : 0 Max inline data : 0[B] rdma_cm QPs : ON Data ex.
7–Configuration d'iWARP Configuration d'iWARP sous Linux 4. Incluez le port RDMA par défaut 20049 dans ce fichier comme suit : # echo rdma 20049 > /proc/fs/nfsd/portlist 5. Pour mettre les répertoires locaux à la disposition des clients NFS à monter, entrez la commande exportfs comme suit : # exportfs -v Pour configurer le client NFS : REMARQUE Cette procédure de configuration de client NFS s'applique également à RoCE. 1. Chargez le module xprtrdma comme suit : # modprobe xprtrdma 2.
7–Configuration d'iWARP Configuration d'iWARP sous Linux Prise en charge d'iWARP RDMA-Core sous SLES 12 SP3, RHEL 7.4, et OFED 4.8x La bibliothèque d'espace utilisateur libqedr fait partie du rdma-core. Toutefois, le libqedr non préinstallé ne prend pas en charge SLES 12 SP3, RHEL 7.4, OFED 4.8x. Dès lors, ces versions de système d'exploitation exigent un correctif pour la prise en charge d'iWARP RDMA-Core. Pour appliquer le correctif iWARP RDMA-Core : 1.
7–Configuration d'iWARP Configuration d'iWARP sous Linux ping data: rdma-ping-2: CDEFGHIJKLMNOPQRSTUVWXYZ[\]^_`abcdefghijklmnopqrst ping data: rdma-ping-3: DEFGHIJKLMNOPQRSTUVWXYZ[\]^_`abcdefghijklmnopqrstu ping data: rdma-ping-4: EFGHIJKLMNOPQRSTUVWXYZ[\]^_`abcdefghijklmnopqrstuv client DISCONNECT EVENT... 5.
8 Configuration d'iSER Ce chapitre fournit les procédures de configuration des extensions iSCSI pour RDMA (iSCSI Extensions for RDMA – iSER) sous Linux (RHEL et SLES) et ESXi 6.7, y compris : Avant de commencer Configuration d'iSER pour RHEL « Configuration d'iSER pour SLES 12 » à la page 112 « Utilisation d'iSER avec iWARP sous RHEL et SLES » à la page 113 « Optimisation des performances Linux » à la page 115 « Configuration d’iSER sous ESXi 6.
8–Configuration d'iSER Configuration d'iSER pour RHEL Configuration d'iSER pour RHEL Pour configurer iSER pour RHEL : 1. Installez OFED préinstallé, comme indiqué à la section « Configuration de RoCE pour RHEL » à la page 80. Les versions d'OFED non préinstallées ne sont pas prises en charge pour iSER parce que le module ib_isert n'est pas disponible dans les versions d'OFED non préinstallées 3.18-2 GA/3.18-3 GA.
8–Configuration d'iSER Configuration d'iSER pour RHEL La Figure 8-1 montre un exemple de ping RDMA réussi. Figure 8-1. Ping RDMA réussi 8. Vous pouvez utiliser une cible TCM-LIO Linux pour tester iSER. La configuration est identique pour les cibles iSCSI, mais vous entrez la commande enable_iser Boolean=true sur les portails concernés. Les instances de portail sont identifiées comme iser à la Figure 8-2. Figure 8-2. Instances de portail iSER 9.
8–Configuration d'iSER Configuration d'iSER pour RHEL b. Pour changer le mode de transport à iSER, entrez la commande iscsiadm. Par exemple : iscsiadm -m node -T iqn.2015-06.test.target1 -o update -n iface.transport_name -v iser c. Pour vous connecter à la cible iSER, entrez la commande iscsiadm. Par exemple : iscsiadm -m node -l -p 192.168.100.99:3260 -T iqn.2015-06.test.target1 d. Vérifiez que la valeur de Iface Transport est iser dans la connexion cible, comme le montre la Figure 8-3.
8–Configuration d'iSER Configuration d'iSER pour SLES 12 e. Pour vérifier un nouveau périphérique iSCSI, comme le montre la Figure 8-4, entrez la commande lsscsi. Figure 8-4. Vérification de nouveau périphérique iSCSI Configuration d'iSER pour SLES 12 Étant donné que targetcli n'est pas préinstallé sur SLES 12.x, vous devez effectuer la procédure suivante. Pour configurer iSER pour SLES 12 : 1.
8–Configuration d'iSER Utilisation d'iSER avec iWARP sous RHEL et SLES 4. Démarrez l'utilitaire targetcli, puis configurez vos cibles sur le système cible iSER. REMARQUE Les versions de targetcli ne sont pas les mêmes sous RHEL et SLES. Veillez à utiliser les backstores correctes pour configurer vos cibles. RHEL utilise ramdisk. SLES utilise rd_mcp. Utilisation d'iSER avec iWARP sous RHEL et SLES Configurez l'initiateur et la cible iSER de manière similaire à RoCE pour fonctionner avec iWARP.
8–Configuration d'iSER Utilisation d'iSER avec iWARP sous RHEL et SLES La Figure 8-5 montre la configuration de la cible pour LIO. Figure 8-5. Configuration de cible LIO Pour configurer un initiateur pour iWARP : 1. Pour détecter la cible LIO iSER à l'aide du port 3261, entrez la commande iscsiadm comme suit : # iscsiadm -m discovery -t st -p 192.168.21.4:3261 -I iser 192.168.21.4:3261,1 iqn.2017-04.com.org.iserport1.target1 2.
8–Configuration d'iSER Optimisation des performances Linux Optimisation des performances Linux Considérez les améliorations de configuration des performances Linux suivantes décrites dans cette section.
8–Configuration d'iSER Configuration d’iSER sous ESXi 6.7 Configuration des paramètres d'affinité d'IRQ L'exemple suivant configure respectivement les cœurs d'UC 0, 1, 2 et 3 pour interrompre les demandes (IRQ) XX, YY, ZZ et XYZ. Effectuez ces étapes pour chaque IRQ attribuée à un port (par défaut, huit files d'attente par port). systemctl disable irqbalance systemctl stop irqbalance cat /proc/interrupts | grep qedr d'attente de port.
8–Configuration d'iSER Configuration d’iSER sous ESXi 6.7 Interface Port Group/DVPort/Opaque Network Netmask Broadcast MAC Address IP Family IP Address MTU TSO MSS Enabled Type NetStack vmk0 Management Network 255.255.240.0 172.28.15.255 IPv4 172.28.12.
8–Configuration d'iSER Configuration d’iSER sous ESXi 6.7 vmnic5 0000:42:00.1 qedentv Up 40000Mbps Full 00:0e:1e:d5:f6:a3 1500 QLogic Corp. QLogic FastLinQ QL41xxx 10/25/40/50/100 GbE Ethernet Adapter esxcli network vswitch standard uplink add -u vmnic5 -v vSwitch_iser1 esxcli network vswitch standard portgroup add -p "rdma_group1" -v vSwitch_iser1 esxcli network ip interface add -i vmk1 -p "rdma_group1" esxcli network ip interface ipv4 set -i vmk1 -I 192.168.10.100 -N 255.255.255.
8–Configuration d'iSER Configuration d’iSER sous ESXi 6.7 esxcli storage core adapter rescan --adapter vmhba65 5. Répertoriez la cible jointe comme suit : esxcfg-scsidevs -l mpx.vmhba0:C0:T4:L0 Device Type: CD-ROM Size: 0 MB Display Name: Local TSSTcorp CD-ROM (mpx.vmhba0:C0:T4:L0) Multipath Plugin: NMP Console Device: /vmfs/devices/cdrom/mpx.vmhba0:C0:T4:L0 Devfs Path: /vmfs/devices/cdrom/mpx.
9 Configuration iSCSI Ce chapitre fournit les informations suivantes concernant la configuration de iSCSI : Démarrage iSCSI « Configuration du démarrage iSCSI » à la page 127 « Configuration du serveur DHCP pour la prise en charge du démarrage iSCSI » à la page 138 « Déchargement iSCSI sous Windows Server » à la page 142 « Déchargement iSCSI dans les environnements Linux » à la page 151 « Configuration du démarrage iSCSI à partir du SAN pour RHEL 7.
9–Configuration iSCSI Démarrage iSCSI Configuration du démarrage iSCSI La configuration du démarrage iSCSI comprend : Sélection du mode de démarrage iSCSI préféré Configuration de la cible iSCSI Configuration des paramètres d'initialisation iSCSI Sélection du mode de démarrage iSCSI préféré L'option de mode de démarrage apparaît sous Configuration iSCSI (Figure 9-1) de l'adaptateur, et le paramètre est propre au port.
9–Configuration iSCSI Démarrage iSCSI Configuration de la cible iSCSI La configuration de la cible iSCSI varie en fonction des fournisseurs cibles. Pour plus d'informations sur la configuration de la cible iSCSI, reportez-vous à la documentation du fournisseur. Pour configurer la cible iSCSI : 1. Sélectionnez la procédure appropriée en fonction de votre cible iSCSI : Créez une cible iSCSI pour des cibles telles que SANBlaze® ou IET®.
9–Configuration iSCSI Démarrage iSCSI Table 9-1. Options de configuration Option Description TCP/IP parameters via DHCP Cette option est spécifique à IPv4. Contrôle si le logiciel hôte de démarrage iSCSI obtient les informations d'adresse IP via DHCP (Enabled) (Activé) ou par le biais d'une configuration IP statique (Disabled) (Désactivé).
9–Configuration iSCSI Démarrage iSCSI Configuration du mode de démarrage UEFI de l'adaptateur Pour configurer le mode de démarrage : 1. Redémarrez votre système. 2. Accédez au menu Utilitaires système (Figure 9-2). REMARQUE Le démarrage SAN est pris en charge uniquement dans l'environnement UEFI. Assurez-vous que l'option de démarrage du système est UEFI et non le BIOS hérité. Figure 9-2.
9–Configuration iSCSI Démarrage iSCSI 3. Dans Configuration du système, Paramètres de périphérique, sélectionnez le périphérique QLogic (Figure 9-3). Reportez-vous au guide d'utilisation OEM pour accéder au menu de configuration de périphérique PCI. Figure 9-3.
9–Configuration iSCSI Démarrage iSCSI 4. Sur la page de configuration principale, sélectionnez Configuration NIC (Figure 9-4), et appuyez sur ENTRÉE. Figure 9-4.
9–Configuration iSCSI Configuration du démarrage iSCSI 5. Sur la page « Configuration NIC » (Figure 9-5), sélectionnez Protocole de démarrage, et appuyez sur ENTRÉE pour sélectionner UEFI iSCSI HBA (exige le mode NPAR). Figure 9-5. Configuration du système : Configuration NIC, Protocole de démarrage 6.
9–Configuration iSCSI Configuration du démarrage iSCSI Pour configurer les paramètres de démarrage iSCSI par le biais d'une configuration statique : 1. Sur la page de configuration principale HII du périphérique, sélectionnez Configuration iSCSI (Figure 9-6), et appuyez sur ENTRÉE. Figure 9-6. Configuration du système : Configuration iSCSI 2. Sur la page de configuration iSCSI, sélectionnez Paramètres généraux iSCSI (Figure 9-7), et appuyez sur ENTRÉE. Figure 9-7.
9–Configuration iSCSI Configuration du démarrage iSCSI 3.
9–Configuration iSCSI Configuration du démarrage iSCSI 5. Sélectionnez Paramètres de l'initiateur iSCSI (Figure 9-9) et appuyez sur ENTRÉE. Figure 9-9. Configuration du système : Sélectionner les paramètres d'initiateur iSCSI 6.
9–Configuration iSCSI Configuration du démarrage iSCSI REMARQUE Notez ce qui suit pour les éléments précédents comportant des astérisques (*) : Vous verrez IPv6 ou IPv4 (par défaut) en fonction de la version IP définie sur la page des paramètres généraux iSCSI (Figure 9-8 à la page 129). Entrez soigneusement l'adresse IP. L'adresse IP ne fait l'objet d'aucune vérification d'erreur en matière de duplication, de segment incorrect ou d'affectation réseau. Figure 9-10.
9–Configuration iSCSI Configuration du démarrage iSCSI 8. Sélectionnez Paramètres de la première cible iSCSI (Figure 9-11) et appuyez sur ENTRÉE. Figure 9-11. Configuration du système : Sélection des paramètres de la première cible iSCSI 9. Sur la page Paramètres cibles iSCSI, définissez l'option Connexion sur Activé sur la cible iSCSI. 10.
9–Configuration iSCSI Configuration du démarrage iSCSI Figure 9-12. Configuration du système : Paramètres de la première cible iSCSI 11. Retournez à la page Configuration du démarrage iSCSI, puis appuyez sur la touche ÉCHAP.
9–Configuration iSCSI Configuration du démarrage iSCSI 12. Si vous souhaitez configurer un deuxième périphérique cible iSCSI, sélectionnez Paramètres de la deuxième cible iSCSI (Figure 9-13), et entrez les valeurs des paramètres comme vous l'avez fait à l'étape 10. Sinon, passez à l'étape 13. Figure 9-13. Configuration du système : Paramètres de la deuxième cible iSCSI 13. Appuyez une fois sur ÉCHAP, puis une deuxième fois pour sortir.
9–Configuration iSCSI Configuration du démarrage iSCSI 14. Cliquez sur Oui pour enregistrer les modifications, ou suivez les instructions de l'OEM pour enregistrer la configuration au niveau du périphérique. Par exemple, cliquez sur Oui pour confirmer la modification des paramètres (Figure 9-14). Figure 9-14. Configuration du système : Enregistrement des modifications iSCSI 15.
9–Configuration iSCSI Configuration du démarrage iSCSI Pour plus d'informations sur la configuration des options, reportez-vous au Tableau 9-1 à la page 123. REMARQUE Lors de l'utilisation d'un serveur DHCP, les entrées du serveur DNS sont écrasées par les valeurs provenant du serveur DHCP. Cela se produit même si les valeurs fournies localement sont valides et que le serveur DHCP ne transmet aucune information concernant le serveur DNS.
9–Configuration iSCSI Configuration du démarrage iSCSI ID de LAN virtuel : Selon les besoins Mode de démarrage LAN virtuel : Activé Figure 9-15. Configuration du système : paramètres généraux iSCSI Activation de l'authentification CHAP Assurez-vous que l'authentification CHAP est activée sur la cible. Pour activer l'authentification CHAP : 1. Accédez à la page Paramètres généraux iSCSI. 2. Définissez Authentification CHAP sur Activé. 3.
9–Configuration iSCSI Configuration du serveur DHCP pour la prise en charge du démarrage iSCSI 6. Dans la fenêtre Paramètres de la première cible iSCSI, entrez les valeurs utilisées lors de la configuration de la cible iSCSI : ID CHAP (facultatif si CHAP bidirectionnel) Secret CHAP (facultatif si CHAP bidirectionnel ; doit comporter de 12 à 16 caractères) 7. Appuyez sur ÉCHAP pour revenir à la page de configuration du démarrage iSCSI. 8.
9–Configuration iSCSI Configuration du serveur DHCP pour la prise en charge du démarrage iSCSI Le Tableau 9-2 répertorie les paramètres de l'option DHCP 17. Table 9-2. Définition des paramètres de l'option DHCP 17 Paramètre Définition "iscsi:" Une chaîne littérale Adresse IP ou nom de domaine complet (FQDN) de la cible iSCSI ":" Séparateur Le protocole IP permettant d'accéder à la cible iSCSI. Seul TCP étant pris en charge actuellement, le protocole est 6.
9–Configuration iSCSI Configuration du serveur DHCP pour la prise en charge du démarrage iSCSI Le Tableau 9-3 répertorie les sous-options de l'option DHCP 43. Table 9-3.
9–Configuration iSCSI Configuration du serveur DHCP pour la prise en charge du démarrage iSCSI Configuration de DHCP pour le démarrage iSCSI pour IPv6 Le serveur DHCPv6 peut fournir plusieurs options, y compris la configuration IP sans état ou avec état, ainsi que des informations pour le client DHCPv6.
9–Configuration iSCSI Déchargement iSCSI sous Windows Server Le contenu de l'option 17 devrait être le suivant : <2-byte Option Number 201|202|203> <2-byte length> Configuration des VLAN pour le démarrage iSCSI Le trafic iSCSI sur le réseau peut être isolé dans un VLAN de couche 2 pour le séparer du trafic général. Si c'est le cas, faites de l'interface iSCSI sur l'adaptateur un membre de ce VLAN. Pour configurer un VLAN pour le démarrage iSCSI : 1.
9–Configuration iSCSI Déchargement iSCSI sous Windows Server Si vous détenez une licence adéquate pour le déchargement iSCSI, vous pouvez configurer votre Adaptateur série 41xxx compatible iSCSI de sorte à décharger le traitement iSCSI du processeur hôte. Les sections suivantes décrivent la façon de permettre au système de bénéficier de la fonction de déchargement iSCSI de QLogic.
9–Configuration iSCSI Déchargement iSCSI sous Windows Server b. Sur la page de configuration (Figure 9-17), cliquez sur Modifier pour modifier le nom de l'initiateur. Figure 9-17. Propriétés de l'initiateur d'iSCSI, page de configuration c. Dans la boîte de dialogue Nom de l'initiateur iSCSI, entrez le nouveau nom IQN de l'initiateur, puis cliquez sur OK. (Figure 9-18) Figure 9-18.
9–Configuration iSCSI Déchargement iSCSI sous Windows Server 3. Dans Propriétés de l'initiateur d'iSCSI, cliquez sur l'onglet Détection. 4. Sur la page Détection (Figure 9-19), sous Portails cibles, cliquez sur Détecter le portail. Figure 9-19.
9–Configuration iSCSI Déchargement iSCSI sous Windows Server 5. Dans la boîte de dialogue Détecter le portail cible (Figure 9-20) : a. Dans la zone Adresse IP ou Nom DNS, entrez l'adresse IP de la cible. b. Cliquez sur Avancé. Figure 9-20. Adresse IP du portail cible 6. Dans la boîte de dialogue Paramètres avancés (Figure 9-21), procédez ainsi sous Connexion à l'aide de : a. Pour Adaptateur local, sélectionnez l'adaptateur QLogic. b.
9–Configuration iSCSI Déchargement iSCSI sous Windows Server c. Cliquez sur OK. Figure 9-21. Sélection de l'adresse IP de l'initiateur 7. Dans Propriétés de l'initiateur iSCSI, page Détection, cliquez sur OK.
9–Configuration iSCSI Déchargement iSCSI sous Windows Server 8. Cliquez sur l'onglet Cibles, puis sur la page Cibles (Figure 9-22), cliquez sur Connexion. Figure 9-22.
9–Configuration iSCSI Déchargement iSCSI sous Windows Server 9. Dans la boîte de dialogue Connexion à la cible, (Figure 9-23), cliquez sur Avancé. Figure 9-23. Boîte de dialogue Connexion à la cible 10. Dans la boîte de dialogue Adaptateur local, sélectionnez l'adaptateur QLogic, puis cliquez sur OK. 11. Cliquez à nouveau sur OK pour fermer l'initiateur Microsoft. 12. Utilisez Disk Manager pour formater la partition iSCSI.
9–Configuration iSCSI Déchargement iSCSI sous Windows Server Question : Comment savoir si la connexion est déchargée ? Réponse : Utilisez l'initiateur logiciel iSCSI Microsoft. Depuis une ligne de commande, saisissez oiscsicli sessionlist. Depuis Initiator Name (Nom de l'initiateur), une connexion iSCSI déchargée affiche une entrée commençant par B06BDRV. Une connexion non déchargée affiche une entrée commençant par Root.
9–Configuration iSCSI Déchargement iSCSI dans les environnements Linux 8. Suivez les instructions à l'écran. Sur la fenêtre qui affiche la liste des disques disponibles pour l'installation, le disque de la cible iSCSI devrait être visible. Il s'agit d'un disque connecté via le protocole de démarrage iSCSI et situé sur la cible iSCSI distante. 9. Pour procéder à l'installation avec Windows Server 2012R2/2016, cliquez sur Suivant, puis suivez les instructions à l'écran.
9–Configuration iSCSI Déchargement iSCSI dans les environnements Linux Cette section fournit les informations suivantes sur le déchargement iSCSI sous Linux : Différences avec bnx2i Configuration de qedi.
9–Configuration iSCSI Déchargement iSCSI dans les environnements Linux Vérification des interfaces iSCSI sous Linux Après l'installation et le chargement du module du noyau qedi, vous devez vérifier que les interfaces iSCSI ont été détectées correctement. Pour vérifier les interfaces iSCSI sous Linux : 1. Pour vérifier que le module qedi et les modules du noyau associés sont activement chargés, entrez la commande suivante : # lsmod | grep qedi 2.
9–Configuration iSCSI Déchargement iSCSI dans les environnements Linux 4. Pour vous assurer que le service iscsiuio est exécuté, entrez la commande suivante : # systemctl status iscsiuio.service iscsiuio.service - iSCSI UserSpace I/O driver Loaded: loaded (/usr/lib/systemd/system/iscsiuio.
9–Configuration iSCSI Déchargement iSCSI dans les environnements Linux 7. Pour vérifier que la session iSCSI a été créée, entrez la commande suivante : # iscsiadm -m session qedi: [297] 192.168.25.100:3260,1 iqn.2003-04.com.sanblaze:virtualun.virtualun.target-05000007 (non-flash) 8. Pour vérifier les périphériques iSCSI, entrez la commande iscsiadm : # iscsiadm -m session -P3 ...
9–Configuration iSCSI Déchargement iSCSI dans les environnements Linux Pour démarrer à partir de SAN à l'aide des solutions Dell OEM : 1. Sur la page « Configuration NIC », sélectionnez Protocole de démarrage, et appuyez sur ENTRÉE pour sélectionner Environ. exéc. Prédémarrag hérité. 2. Configurez les entrées relatives à l'initiateur et à la cible. 3. Au début de l'installation, passez le paramètre de démarrage suivant avec l'option DUD : Pour RHEL 6.x et 7.x : rd.iscsi.
9–Configuration iSCSI Déchargement iSCSI dans les environnements Linux # rpm -ivh --force iscsiuio-2.11.5.2-1.rhel6u9.x86_64.rpm 2. Modifiez le fichier /etc/init.d/iscsid, ajoutez la commande suivante, puis enregistrez le fichier : modprobe -q qedi Par exemple : echo -n $"Starting $prog: " modprobe -q iscsi_tcp modprobe -q ib_iser modprobe -q cxgb3i modprobe -q cxgb4i modprobe -q bnx2i modprobe -q be2iscsi modprobe -q qedi daemon iscsiuio 3. Modifiez le fichier /etc/iscsi/iscsid.
9–Configuration iSCSI Déchargement iSCSI dans les environnements Linux 4. Créez un enregistrement Iface pour une interface L4. Tapez la commande suivante : # iscsiadm -m iface -I qedi.14:02:ec:ce:dc:71 -o new New interface qedi.14:02:ec:ce:dc:71 added Le format de l’enregistrement Iface doit être qedi.. Dans ce cas, l’adresse MAC doit correspondre à l’adresse MAC L4 sur laquelle la session iSCSI est active. 5.
9–Configuration iSCSI Déchargement iSCSI dans les environnements Linux kernel /vmlinuz-2.6.32-696.el6.x86_64 ro root=/dev/mapper/vg_prebooteit-lv_root rd_NO_LUKS iscsi_firmware LANG=en_US.UTF-8 rd_NO_MD SYSFONT=latarcyrheb-sun16 crashkernel=auto rd_NO_DM rd_LVM_LV=vg_prebooteit/lv_swap KEYBOARDTYPE=pc KEYTABLE=us rd_LVM_LV=vg_prebooteit/lv_root selinux=0 initrd /initramfs-2.6.32-696.el6.x86_64.img 7. Montez le fichier initramfs en entrant la commande suivante : # dracut -f 8.
9–Configuration iSCSI Déchargement iSCSI dans les environnements Linux #systemctl daemon-reload 3. Redémarrez les services iscsid et iscsiuio en entrant les commandes suivantes : # systemctl restart iscsiuio # systemctl restart iscsid 4. Créez un enregistrement Iface pour l’interface L4 en entrant la commande suivante : # iscsiadm -m iface -I qedi. 00:0e:1e:d6:7d:3a -o new Le format de l’enregistrement Iface doit être qedi.
9–Configuration iSCSI Déchargement iSCSI dans les environnements Linux 9. Créez un nouveau fichier grub.cfg en entrant la commande suivante : # grub2-mkconfig -o /boot/efi/EFI/redhat/grub.cfg 10. Montez le fichier initramfs en entrant la commande suivante : # dracut -f 11. Redémarrez le serveur et ouvrez le HII. 12. Dans le HII, activez le mode déchargement de l’iSCSI. a. Sur la page « Configuration principale », sélectionnez Configuration du système, Paramètres du périphérique. b.
9–Configuration iSCSI Déchargement iSCSI dans les environnements Linux 3. Modifiez le fichier /etc/sysconfig/kernel et trouvez l’élément suivant : INITRD_MODULES=”ata_piix ata_generic” Remplacez-le par : INITRD_MODULES=”ata_piix ata_generic qedi” Enregistrez le fichier. 4. Modifiez le fichier /etc/modprobe.d/unsupported-modules, modifiez la valeur pour allow_unsupported_modules à 1 et enregistrez le fichier : allow_unsupported_modules 1 5. Trouvez et supprimez les fichiers suivants : 6.
9–Configuration iSCSI Déchargement iSCSI dans les environnements Linux 11. Enregistrez la configuration et redémarrez le serveur. REMARQUE Le système d'exploitation peut maintenant démarrer via l'interface de déchargement. Démarrage iSCSI L4 pour SLES 12 SP1/SP2 à partir de la migration SAN Pour migrer d'une interface sans déchargement vers une interface avec déchargement : 1. Démarrez dans le système d'exploitation iSCSI sans déchargement/L2 démarrage à partir de SAN.
9–Configuration iSCSI Déchargement iSCSI dans les environnements Linux 8. Démarrage UEFI : /boot/efi/EFI/sles/grub.cfg pour SLES Créez un nouveau fichier grub.cfg en entrant la commande suivante : # grub2-mkconfig -o 9. Comparez l’ancien fichier grub.cfg et le nouveau fichier grub.cfg pour vérifier les modifications apportées. 10. Remplacez le fichier grub.cfg d'origine par le nouveau fichier grub.cfg. 11.
9–Configuration iSCSI Déchargement iSCSI dans les environnements Linux 2. Allez à /etc/default/grub et mettez le paramètre rd.iscsi.ibft sur rd.iscsi.firmware. 3. Tapez la commande suivante : grub2-mkconfig -o /boot/efi/EFI/suse/grub.cfg 4. Pour charger le module multichemin, entrez la commande suivante : modprobe dm_multipath 5. Pour activer le démon multichemin, entrez les commandes suivantes : systemctl start multipathd.service systemctl enable multipathd.service systemctl start multipathd.
9–Configuration iSCSI Configuration du démarrage iSCSI à partir du SAN pour RHEL 7.4 et les versions ultérieures 11. f. Allez sur la page « Configuration principale », puis sélectionnez Configuration iSCSI. g. Sur la page « Configuration iSCSI », sélectionnez Paramètres généraux iSCSI. h. Sur la page « Paramètres généraux iSCSI », définissez le Mode de démarrage HBA sur Désactivé. i. Allez sur la page « Configuration principale », puis sélectionnez Configuration NIC. j.
9–Configuration iSCSI Configuration du démarrage iSCSI à partir du SAN pour RHEL 7.4 et les versions ultérieures Appuyez sur ‘e’ pour modifier l'élément sélectionné ou sur ‘c’ pour une invite de commande 2. Pour installer un pilote non préinstallé, saisissez e. Sinon, passez à l'étape 7. 3. Sélectionnez la ligne de noyau, puis saisissez e. 4. Utilisez la commande suivante, puis appuyez sur ENTRÉE. linux dd modprobe.blacklist=qed modprobe.blacklist=qede modprobe.blacklist=qedr modprobe.
9–Configuration iSCSI Configuration du démarrage iSCSI à partir du SAN pour RHEL 7.4 et les versions ultérieures 6. Si votre configuration l'exige, chargez le disque de mise à jour de pilote FastLinQ lorsque vous êtes invité à introduire des disques de pilote supplémentaires. Autrement, saisissez c si vous n'avez pas d'autres disques de mise à jour de pilote à installer. 7. Poursuivez l'installation. Vous pouvez ignorer le test de support. Cliquez sur Suivant pour poursuivre l'installation. 8.
9–Configuration iSCSI Configuration du démarrage iSCSI à partir du SAN pour RHEL 7.4 et les versions ultérieures 14. Modifiez le fichier /sysroot/usr/libexec/iscsi-mark-root-nodes et trouvez l’élément suivant : if [ "$transport" = bnx2i ]; then Remplacez-le par : if [ "$transport" = bnx2i ] || [ "$transport" = qedi ]; then 15. Démontez le système de fichiers à l'aide de la commande suivante : # umount /sysroot 16.
10 Configuration de FCoE Ce chapitre fournit les informations de configuration suivantes de Fibre Channel over Ethernet (FCoE) : Démarrage FCoE à partir de SAN « Injection (intégration) de pilotes de l'adaptateur dans les fichiers image Windows » à la page 178 « Configuration du déchargement FCoE pour Linux » à la page 179 « Différences entre qedf et bnx2fc » à la page 180 « Configuration de qedi.
10–Configuration de FCoE Démarrage FCoE à partir de SAN Préparation du BIOS système pour la version de FCoE et le démarrage Pour préparer le BIOS du système, modifiez la séquence de démarrage du système et spécifiez le protocole de démarrage du BIOS, si nécessaire. Spécification du protocole de démarrage du BIOS Le démarrage FCoE à partir de SAN est pris en charge uniquement dans le mode UEFI.
10–Configuration de FCoE Démarrage FCoE à partir de SAN REMARQUE Le démarrage SAN est pris en charge uniquement dans l'environnement UEFI. Assurez-vous que l'option de démarrage du système est UEFI et non le BIOS hérité. 3. Sur la page Paramètres de périphérique, sélectionnez le périphérique QLogic (Figure 10-2). Figure 10-2.
10–Configuration de FCoE Démarrage FCoE à partir de SAN 4. Sur la page de configuration principale, sélectionnez Configuration NIC (Figure 10-3), et appuyez sur ENTRÉE. Figure 10-3. Configuration du système : Configuration NIC 5. Sur la page de configuration NIC, sélectionnez Mode de démarrage, et appuyez sur ENTRÉE pour sélectionner FCoE comme mode de démarrage préféré. REMARQUE FCoE ne figure pas comme option de démarrage si la fonction Mode FCoE est désactivée au niveau du port.
10–Configuration de FCoE Démarrage FCoE à partir de SAN Figure 10-4. Configuration du système : Mode FCoE activé Pour configurer les paramètres de démarrage FCoE : 1. Sur la page de configuration principale HII du périphérique, sélectionnez Configuration FCoE, et appuyez sur ENTRÉE. 2. Sur la page de configuration FCoE, sélectionnez Paramètres généraux FCoE, et appuyez sur ENTRÉE. 3.
10–Configuration de FCoE Démarrage FCoE à partir de SAN Figure 10-5. Configuration du système : Paramètres généraux FCoE 4. Retournez à la page Configuration FCoE. 5. Appuyez sur ÉCHAP et sélectionnez Paramètres de cible FCoE. 6. Appuyez sur ENTRÉE. 7. Dans le menu Paramètres de cible FCoE, activez Connexion à la cible FCoE préférée. 8.
10–Configuration de FCoE Démarrage FCoE à partir de SAN Figure 10-6.
10–Configuration de FCoE Démarrage FCoE à partir de SAN 3. Chargez les images de démarrage FCoE QLogic les plus récentes dans la NVRAM de l'adaptateur. 4. Configurez la cible FCoE de sorte à autoriser une connexion depuis le périphérique distant. Assurez-vous que l'espace disque soit suffisant sur la cible pour contenir l'installation du nouveau système d'exploitation. 5.
10–Configuration de FCoE Injection (intégration) de pilotes de l'adaptateur dans les fichiers image Windows Injection (intégration) de pilotes de l'adaptateur dans les fichiers image Windows Pour injecter des pilotes de l'adaptateur dans les fichiers image Windows : 1. Procurez-vous le paquet de pilotes le plus récent pour la version Windows Server applicable (2012, 2012 R2 ou 2016). 2. Extrayez le paquet de pilotes dans un répertoire de travail : a.
10–Configuration de FCoE Configuration du déchargement FCoE pour Linux REMARQUE Notez ce qui suit concernant le support d'installation du système d'exploitation : Le support d'installation du système d'exploitation devrait être un lecteur local. Les chemins réseau des supports d'installation du système d'exploitation ne sont pas pris en charge. Le script slipstream.bat injecte les composants de pilote dans tous les SKU pris en charge par le support d'installation du système d'exploitation. 6.
10–Configuration de FCoE Différences entre qedf et bnx2fc REMARQUE En cas d’installation avec SLES 11 ou SLES 12, le paramètre withfcoe=1 n’est pas requis car l’Adaptateur série 41xxx ne requiert plus le démon logiciel FCoE. Différences entre qedf et bnx2fc Il existe des différences significatives entre qedf – le pilote du Cavium FastLinQ 41xxx 10/25GbE Controller (FCoE) – et le pilote de déchargement FCoE Cavium précédent, bnx2fc.
10–Configuration de FCoE Vérification des périphériques FCoE sous Linux REMARQUE Reportez-vous au Chapitre 3 Installation des pilotes pour plus de renseignements sur l'installation des pilotes FastLinQ. Le chargement du module du noyau qedf.
10–Configuration de FCoE Configuration du démarrage FCoE à partir du SAN pour RHEL 7.4 et les versions ultérieures [ 243.991851] [0000:21:00.3]: [qedf_link_update:489]:5: LINK UP (40 GB/s). 3.
10–Configuration de FCoE Configuration du démarrage FCoE à partir du SAN pour RHEL 7.4 et les versions ultérieures 4. Utilisez la commande suivante, puis appuyez sur ENTRÉE. linux dd modprobe.blacklist=qed modprobe.blacklist=qede modprobe.blacklist=qedr modprobe.blacklist=qedi modprobe.blacklist=qedf Vous pouvez utiliser l'option inst.dd au lieu de linux dd. 5. Le processus d'installation vous invite à installer le pilote non préinstallé de façon indiquée dans l'exemple de la Figure 10-7. Figure 10-7.
10–Configuration de FCoE Configuration du démarrage FCoE à partir du SAN pour RHEL 7.4 et les versions ultérieures 7. Poursuivez l'installation. Vous pouvez ignorer le test de support. Cliquez sur Suivant pour poursuivre l'installation. 8. Dans la fenêtre de Configuration (Figure 10-8), sélectionnez la langue à utiliser pendant le processus d'installation, et cliquez ensuite sur Continuer. Figure 10-8. Configuration de Red Hat Enterprise Linux 7.4 9.
11 Configuration de SR-IOV Single Root Input/Output Virtualization (SR-IOV) est une spécification de PCI-SIG qui permet à un seul périphérique PCI Express (PCIe) d'apparaître sous la forme de plusieurs périphériques PCIe physiques distincts. SR-IOV permet d'isoler les ressources PCIe à des fins de performance, d'interopérabilité et de gestion. REMARQUE Certaines fonctionnalités SR-IOV peuvent ne pas être entièrement activées dans la version actuelle.
11–Configuration de SR-IOV Configuration de SR-IOV sous Windows 3. Sur la page Périphériques intégrés (Figure 11-1) : a. Définissez l'option Activation globale SR-IOV sur Activé. b. Cliquez sur Précédent. Figure 11-1. Configuration système pour SR-IOV : Périphériques intégrés 4. Sur la page de configuration principale de l'adaptateur sélectionné, cliquez sur Configuration au niveau du périphérique. 5.
11–Configuration de SR-IOV Configuration de SR-IOV sous Windows 6. Sur la page de configuration principale, cliquez sur Terminer. 7. Dans la boîte de dialogue Avertissement – Enregistrement des modifications, cliquez sur Oui pour enregistrer la configuration. 8. Dans la boîte de dialogue Succès – Enregistrement des modifications, cliquez sur OK. 9. Pour activer SR-IOV sur l'adaptateur miniport : a. Accédez au Gestionnaire de périphériques. b.
11–Configuration de SR-IOV Configuration de SR-IOV sous Windows e. Cochez la case Activer single-root I/O virtualization (SR-IOV), et cliquez ensuite sur Appliquer. REMARQUE Veillez à activer SR-IOV lorsque vous créez le vSwitch. Cette option n'est pas disponible après que le vSwitch est créé. Figure 11-4. Gestionnaire de commutateur virtuel : Activation de SR-IOV f.
11–Configuration de SR-IOV Configuration de SR-IOV sous Windows 11. Pour obtenir les capacités de commutateur de machine virtuelle, entrez la commande Windows PowerShell suivante : PS C:\Users\Administrator> Get-VMSwitch -Name SR-IOV_vSwitch | fl La sortie de la commande Get-VMSwitch comprend les capacités SR-IOV suivantes : 12. IovVirtualFunctionCount : 96 IovVirtualFunctionsInUse : 1 Pour créer une machine virtuelle (VM) et exporter la fonction virtuelle (VF) dans la VM : a.
11–Configuration de SR-IOV Configuration de SR-IOV sous Windows Figure 11-5. Paramètres de la VM : Activation de SR-IOV 13. Installez les pilotes QLogic pour les adaptateurs détectés dans la VM. Utilisez les pilotes les plus récents disponibles auprès du fournisseur de votre système d'exploitation hôte (n'utilisez pas les pilotes préinstallés). REMARQUE Veillez à utiliser le même jeu de pilotes sur la VM et sur le système hôte.
11–Configuration de SR-IOV Configuration de SR-IOV sous Windows Après l'installation des pilotes, l'adaptateur QLogic est répertorié dans la VM. La Figure 11-6 montre un exemple. Figure 11-6. Gestion de périphériques : VM avec adaptateur QLogic 14. Pour afficher les détails de VF pour SR-IOV, entrez la commande Windows PowerShell suivante : PS C:\Users\Administrator> Get-NetadapterSriovVf La Figure 11-7 montre un exemple de sortie. Figure 11-7.
11–Configuration de SR-IOV Configuration de SR-IOV sous Linux Configuration de SR-IOV sous Linux Pour configurer SR-IOV sous Linux : 1. Accédez à la configuration système du BIOS du serveur, puis cliquez sur Paramètres BIOS système. 2. Sur la page Paramètres BIOS système, cliquez sur Périphériques intégrés. 3. Sur la page Périphériques intégrés du système (voir Figure 11-1 à la page 186) : a. Définissez l'option Activation globale SR-IOV sur Activé. b. Cliquez sur Précédent. 4.
11–Configuration de SR-IOV Configuration de SR-IOV sous Linux 6. Sur la page Configuration système, sélectionnez Paramètres de périphérique. 7. Sur la page Paramètres de périphérique, sélectionnez le Port 1 de l'adaptateur QLogic. 8. Sur la page Configuration au niveau du périphérique (Figure 11-9) : a. Définissez le Mode de virtualisation sur SR-IOV. b. Cliquez sur Précédent. Figure 11-9. Configuration système pour SR-IOV : Périphériques intégrés 9.
11–Configuration de SR-IOV Configuration de SR-IOV sous Linux Figure 11-10. Modification du fichier grub.conf pour SR-IOV b. Enregistrez le fichier grub.conf et redémarrez le système. c. Pour vérifier que les modifications ont été appliquées, entrez la commande suivante : dmesg | grep -I iommu Une sortie réussie de la commande input–output memory management unit (IOMMU) devrait afficher, par exemple : Intel-IOMMU: enabled d.
11–Configuration de SR-IOV Configuration de SR-IOV sous Linux 11. Pour un port spécifique, activez une quantité de VF. a. Entrez la commande suivante pour activer, par exemple, 8 VF sur l'instance PCI 04 :00.0 (bus 4, périphérique 0, fonction 0) : [root@ah-rh68 ~]# echo 8 > /sys/devices/pci0000:00/0000:00:02.0/0000:04:00.0/sriov_numvfs b. Vérifiez la sortie de la commande (Figure 11-11) pour confirmer que des VF réelles ont été créées sur le bus 4, périphérique 2 (à partir du paramètre 0000:00:02.
11–Configuration de SR-IOV Configuration de SR-IOV sous Linux Figure 11-12. Sortie de la commande ip link show 13. Attribuez et vérifiez les adresses MAC : a. Pour attribuer une adresse MAC à la VF, entrez la commande suivante : ip link set vf mac b. Assurez-vous que l'interface VF est opérationnelle et exécutée avec l'adresse MAC attribuée.
11–Configuration de SR-IOV Configuration de SR-IOV sous Linux 14. Éteignez la VM et attachez la VF. (Certains systèmes d'exploitation prennent en charge la connexion à chaud de VF à la VM). a. Dans la boîte de dialogue Machine virtuelle (Figure 11-13), cliquez sur Ajouter un matériel. Figure 11-13. Machine virtuelle RHEL68 b. Dans le volet gauche de la boîte de dialogue Ajouter un nouveau matériel virtuel (Figure 11-14), cliquez sur Périphérique hôte PCI. c.
11–Configuration de SR-IOV Configuration de SR-IOV sous VMware d. Cliquez sur Terminer. Figure 11-14. Ajouter un nouveau matériel virtuel 15. Allumez la VM et entrez la commande suivante : check lspci -vv|grep -I ether 16. Installez les pilotes pour les adaptateurs détectés dans la VM. Utilisez les pilotes les plus récents disponibles auprès du fournisseur de votre système d'exploitation hôte (n'utilisez pas les pilotes préinstallés).
11–Configuration de SR-IOV Configuration de SR-IOV sous VMware 6. Sur la page Configuration au niveau du périphérique (voir Figure 11-2 à la page 186) : a. Définissez le Mode de virtualisation sur SR-IOV. b. Cliquez sur Précédent. 7. Sur la page de configuration principale, cliquez sur Terminer. 8. Enregistrez les paramètres de configuration et redémarrez le système. 9.
11–Configuration de SR-IOV Configuration de SR-IOV sous VMware 0000:05:03.7 Network controller: QLogic Corp. QLogic FastLinQ QL41xxx Series 10/25 GbE Controller (SR-IOV VF) [PF_0.5.0_VF_15] 0000:05:0e.0 Network controller: QLogic Corp. QLogic FastLinQ QL41xxx Series 10/25 GbE Controller (SR-IOV VF) [PF_0.5.1_VF_0] 0000:05:0e.1 Network controller: QLogic Corp. QLogic FastLinQ QL41xxx Series 10/25 GbE Controller (SR-IOV VF) [PF_0.5.1_VF_1] 0000:05:0e.2 Network controller: QLogic Corp.
11–Configuration de SR-IOV Configuration de SR-IOV sous VMware Figure 11-15. Paramètres de modification de l'hôte VMware 15. Pour valider les VF par port, entrez la commande esxcli comme suit : [root@localhost:~] esxcli network sriovnic vf list -n vmnic6 VF ID Active PCI Address Owner World ID ----- ------ ----------- -------------- 0 true 005:02.0 60591 1 true 005:02.
11–Configuration de SR-IOV Configuration de SR-IOV sous VMware 2 false 005:02.2 - 3 false 005:02.3 - 4 false 005:02.4 - 5 false 005:02.5 - 6 false 005:02.6 - 7 false 005:02.7 - 8 false 005:03.0 - 9 false 005:03.1 - 10 false 005:03.2 - 11 false 005:03.3 - 12 false 005:03.4 - 13 false 005:03.5 - 14 false 005:03.6 - 15 false 005:03.7 - 16. Installez les pilotes QLogic pour les adaptateurs détectés dans la VM.
12 Configuration de NVMe-oF avec RDMA Le protocole Non-Volatile Memory Express over Fabrics (NVMe-oF) permet d'utiliser des transports alternatifs vers PCIe pour étendre la distance sur laquelle peuvent se connecter un périphérique hôte NVMe et un lecteur ou sous-système de stockage NVMe. NVMe-oF définit une architecture commune qui prend en charge une gamme de matrices réseau de stockage pour le protocole de stockage de blocs NVMe sur une matrice réseau de stockage.
12–Configuration de NVMe-oF avec RDMA La Figure 12-1 illustre un exemple de réseau. Adaptateur série 41xxx Adaptateur série 41xxx Figure 12-1. Réseau NVMe-oF Le processus de configuration de NVMe-oF couvre les procédures suivantes : 1. Installation des pilotes de périphérique sur les deux serveurs 2. Configuration du serveur cible 3. Configuration du serveur initiateur 4. Préconditionnement du serveur cible 5. Test des périphériques NVMe-oF 6.
12–Configuration de NVMe-oF avec RDMA Installation des pilotes de périphérique sur les deux serveurs Installation des pilotes de périphérique sur les deux serveurs Après installation de votre système d'exploitation (RHEL 7.4 ou SLES 12 SP3), installez les pilotes de périphérique sur les deux serveurs. Pour mettre à jour le noyau vers le tout dernier noyau Linux en amont, accédez à : https://www.kernel.org/pub/linux/kernel/v4.x/ 1.
12–Configuration de NVMe-oF avec RDMA Configuration du serveur cible f. Si des changements ont été apportés au noyau, redémarrez sur ce nouveau noyau de système d’exploitation. Pour obtenir des instructions sur la configuration du noyau de démarrage par défaut, accédez à : https://wiki.centos.org/HowTos/Grub2 3. Activez et démarrez le service RDMA comme suit : # systemctl enable rdma.service # systemctl start rdma.service Ne tenez pas compte de l'erreur RDMA Service Failed.
12–Configuration de NVMe-oF avec RDMA Configuration du serveur cible Tableau 12-1. Paramètres de cible Commande Description # echo 1 > attr_allow_any_host Autoriser n'importe quel hôte à se connecter. # mkdir namespaces/1 Créer un espace de noms # echo -n /dev/nvme0n1 >namespaces/ 1/device_path Définir le chemin d'accès au périphérique NVMe. Le chemin d'accès au périphérique NVMe peut varier d'un système à l'autre. Vérifiez le chemin d'accès au périphérique à l'aide de la commande lsblk.
12–Configuration de NVMe-oF avec RDMA Configuration du serveur initiateur Configuration du serveur initiateur Vous configurez le serveur initiateur après le processus de redémarrage. Une fois le serveur en fonctionnement, vous ne pouvez plus modifier la configuration sans redémarrage.
12–Configuration de NVMe-oF avec RDMA Configuration du serveur initiateur Figure 12-2. NQN de sous-système 5. Connectez la cible NVMe-oF détectée (nvme-qlogic-tgt1) à l'aide de NQN. Entrez la commande suivante après chaque redémarrage du serveur. Par exemple : # nvme connect -t rdma -n nvme-qlogic-tgt1 -a 1.1.1.1 -s 1023 6. Confirmez la connexion de la cible NVMe-oF au périphérique NVMe-oF de la façon suivante : # dmesg | grep nvme # lsblk # list nvme La Figure 12-3 montre un exemple. Figure 12-3.
12–Configuration de NVMe-oF avec RDMA Préconditionnement du serveur cible Préconditionnement du serveur cible Les serveurs cibles NVMe qui sont testés non préinstallés présentent un niveau de performance plus élevé qu'attendu. Avant l'exécution d'une batterie d'essais, le serveur cible doit être prérempli ou préconditionné. Pour préconditionner le serveur cible : 1. Procédez à un effacement sécurisé du serveur cible avec des outils propres au fournisseur (similaire à un formatage).
12–Configuration de NVMe-oF avec RDMA Optimisation des performances 2. Exécutez l'utilitaire FIO pour mesurer la latence du périphérique NVMe-oF initiateur. Tapez la commande suivante : # fio --filename=/dev/nvme0n1 --direct=1 --time_based --rw=randread --refill_buffers --norandommap --randrepeat=0 --ioengine=libaio --bs=4k --iodepth=1 --numjobs=1 --runtime=60 --group_reporting --name=temp.out FIO indique deux types de latence : soumission et achèvement.
12–Configuration de NVMe-oF avec RDMA Optimisation des performances 2. Hyperthreading = désactivé Configurez les paramètres du noyau Linux en modifiant le fichier grub (/etc/default/grub). a. Ajoutez les paramètres à la fin de la ligne GRUB_CMDLINE_LINUX : GRUB_CMDLINE_LINUX="nosoftlockup intel_idle.max_cstate=0 processor.max_cstate=1 mce=ignore_ce idle=poll" b. Enregistrez le fichier grub. c. Reconstruisez le fichier grub.
12–Configuration de NVMe-oF avec RDMA Optimisation des performances #!/bin/bash #RSS affinity setup script #input: the device name (ethX) #OFFSET=0 0/1 0/1/2 0/1/2/3 #FACTOR=1 2 3 4 OFFSET=0 FACTOR=1 LASTCPU='cat /proc/cpuinfo | grep processor | tail -n1 | cut -d":" -f2' MAXCPUID='echo 2 $LASTCPU ^ p | dc' OFFSET='echo 2 $OFFSET ^ p | dc' FACTOR='echo 2 $FACTOR ^ p | dc' CPUID=1 for eth in $*; do NUM='grep $eth /proc/interrupts | wc -l' NUM_FP=$((${NUM})) INT='grep -m 1 $eth /proc/interrupts | cut -d ":" -
12–Configuration de NVMe-oF avec RDMA Optimisation des performances for CPUFREQ in /sys/devices/system/cpu/cpu*/cpufreq/scaling_governor; do [ -f $CPUFREQ ] || continue; echo -n performance > $CPUFREQ; done cat /sys/devices/system/cpu/cpu0/cpufreq/scaling_governor Pour configurer les paramètres de réseau ou de mémoire : sysctl -w net.ipv4.tcp_mem="16777216 16777216 16777216" sysctl -w net.ipv4.tcp_wmem="4096 65536 16777216" sysctl -w net.ipv4.tcp_rmem="4096 87380 16777216" sysctl -w net.core.
13 Windows Server 2016 Ce chapitre fournit les informations suivantes concernant Windows Server 2016 : Configuration des interfaces RoCE avec Hyper-V « RoCE sur Switch Embedded Teaming » à la page 220 « Configuration de QoS pour RoCE » à la page 222 « Configuration de VMMQ » à la page 229 « Configuration de VXLAN » à la page 236 « Configuration des Espaces de stockage direct » à la page 237 « Déploiement et gestion de Nano Server » à la page 243 Configuration des interfaces RoCE
13–Windows Server 2016 Configuration des interfaces RoCE avec Hyper-V Création d'un commutateur virtuel Hyper-V avec une NIC virtuelle RDMA Suivez les procédures de cette section pour créer un commutateur virtuel Hyper-V, puis activez RDMA dans la VNIC hôte. Pour créer un commutateur virtuel Hyper-V avec une NIC virtuelle RDMA : 1. Lancez le Gestionnaire Hyper-V. 2. Cliquez sur Gestionnaire de commutateur virtuel (voir la Figure 13-1). Figure 13-1. Activation de RDMA dans la NIC virtuelle hôte 3.
13–Windows Server 2016 Configuration des interfaces RoCE avec Hyper-V 3. Sur la page Avancé (Figure 13-2) : a. Sous Propriété, sélectionnez Network Direct (RDMA). b. Sous Valeur, sélectionnez Activé. c. Cliquez sur OK. Figure 13-2. Propriétés de la carte Ethernet virtuelle Hyper-V 4. Pour activer RDMA, entrez la commande Windows PowerShell suivante : PS C:\Users\Administrator> Enable-NetAdapterRdma "vEthernet (New Virtual Switch)" PS C:\Users\Administrator> Ajout d'un ID VLAN à une NIC virtuelle h
13–Windows Server 2016 Configuration des interfaces RoCE avec Hyper-V 2. Pour définir l'ID VLAN sur la NIC virtuelle hôte, entrez la commande Windows PowerShell suivante : PS C:\Users\Administrator> Set-VMNetworkAdaptervlan -VMNetworkAdapterName ""New Virtual Switch" -VlanId 5 -Access -Management05 REMARQUE Prenez note de ce qui suit concernant l'ajout d'un ID VLAN à une NIC virtuelle hôte : Un ID VLAN doit être affecté à une NIC virtuelle hôte.
13–Windows Server 2016 Configuration des interfaces RoCE avec Hyper-V 3. Pour attribuer un ID VLAN au port virtuel, entrez la commande suivante : Set-VMNetworkAdapterVlan -VMNetworkAdapterName SMB -VlanId 5 -Access -ManagementOS Mappage du lecteur SMB et exécution du trafic RoCE Pour mapper le lecteur SMB et exécuter le trafic RoCE : 1. Lancez Performance Monitor (Perfmon). 2. Complétez la boîte de dialogue Ajouter des compteurs (Figure 13-5) de la façon suivante : a.
13–Windows Server 2016 RoCE sur Switch Embedded Teaming Si le trafic RoCE est exécuté, les compteurs apparaissent comme indiqué à la Figure 13-6. Figure 13-6. Performance Monitor montre le trafic RoCE RoCE sur Switch Embedded Teaming Switch Embedded Teaming (SET) est la solution alternative d'association de NIC de Microsoft qui peut être utilisée dans les environnements incluant Hyper-V et la pile SDN (Software Defined Networking) dans Windows Server 2016 Technical Preview.
13–Windows Server 2016 RoCE sur Switch Embedded Teaming Création d'un commutateur virtuel Hyper-V avec des NIC virtuelles RDMA et SET Pour créer un commutateur virtuel Hyper-V avec des NIC virtuelles RDMA et SET : Pour créer un SET, entrez la commande Windows PowerShell suivante : PS C:\Users\Administrator> New-VMSwitch -Name SET -NetAdapterName "Ethernet 2","Ethernet 3" -EnableEmbeddedTeaming $true La Figure 13-7 montre la sortie de la commande. Figure 13-7.
13–Windows Server 2016 Configuration de QoS pour RoCE REMARQUE Prenez note de ce qui suit lors de l'ajout d'un ID VLAN à une NIC virtuelle hôte : Assurez-vous que l'ID VLAN n'est pas affecté à l'interface physique lors de l'utilisation d'une NIC virtuelle hôte pour RoCE. Si vous créez plusieurs NIC virtuelles hôte, vous pouvez affecter un VLAN différent à chaque NIC virtuelle hôte.
13–Windows Server 2016 Configuration de QoS pour RoCE 5. Activez QoS sur le miniport comme suit : a. Ouvrez la fenêtre miniport, puis cliquez sur l'onglet Avancé. b. Sur la page Propriétés avancées de l'adaptateur (Figure 13-9), sous Propriété, sélectionnez Qualité de service, puis définissez la valeur sur Activé. c. Cliquez sur OK. Figure 13-9. Propriétés avancées : Activer QoS 6. Attribuez un ID VLAN à l'interface comme suit : a. Ouvrez la fenêtre miniport, puis cliquez sur l'onglet Avancé. b.
13–Windows Server 2016 Configuration de QoS pour RoCE Figure 13-10. Propriétés avancées : Configuration d'ID VLAN 7. Pour activer le contrôle de flux basé sur la priorité pour RoCE pour une priorité spécifique, entrez la commande suivante : PS C:\Users\Administrators> Enable-NetQoSFlowControl -Priority 4 REMARQUE Si vous configurez RoCE sur Hyper-V, n'attribuez pas d'ID VLAN à l'interface physique. 8.
13–Windows Server 2016 Configuration de QoS pour RoCE 4 True Global 5 False Global 6 False Global 7 False Global 9. Pour configurer QoS et attribuer la priorité pertinente à chaque type de trafic, entrez les commandes suivantes (où la Priorité 4 correspond à RoCE et la Priorité 0 correspond à TCP) : PS C:\Users\Administrators> New-NetQosPolicy "SMB" -NetDirectPortMatchCondition 445 -PriorityValue8021Action 4 -PolicyStore ActiveStore PS C:\Users\Administrators> New-NetQosPolicy "TCP" -IPProtoc
13–Windows Server 2016 Configuration de QoS pour RoCE Name ---[Default] RDMA class TCP class Algorithm Bandwidth(%) Priority --------- ------------ -------ETS 20 2-3,5-7 ETS 50 4 ETS 30 0 11. PolicySet --------Global Global Global IfIndex IfAlias ------- ------- Pour afficher la QoS de l'adaptateur réseau à partir de la configuration précédente, entrez la commande Windows PowerShell suivante : PS C:\Users\Administrator> Get-NetAdapterQos Name Enabled Capabilities : SLOT 4 Port 1 : True : Operationa
13–Windows Server 2016 Configuration de QoS pour RoCE 3. Pour installer le rôle DCB sur l'hôte, entrez la commande Windows PowerShell suivante : PS C:\Users\Administrators> Install-WindowsFeature Data-Center-Bridging REMARQUE Pour cette configuration, configurez le Protocole DCBX sur CEE. 4. Pour définir le mode DCBX Willing sur Vrai, entrez la commande PowerShell suivante : PS C:\Users\Administrators> set-NetQosDcbxSetting -Willing 1 5. Activez QoS sur le miniport comme suit : a.
13–Windows Server 2016 Configuration de QoS pour RoCE 6. Attribuez un ID VLAN à l'interface (requis pour PFC) comme suit : a. Ouvrez la fenêtre miniport, puis cliquez sur l'onglet Avancé. b. Sur la page Propriétés avancées de l'adaptateur (Figure 13-12), sous Propriété, sélectionnez ID VLAN, puis définissez la valeur. c. Cliquez sur OK. Figure 13-12. Propriétés avancées : Configuration d'ID VLAN 7. Pour configurer le commutateur, entrez la commande Windows PowerShell suivante : PS C:\Users\Adminis
13–Windows Server 2016 Configuration de VMMQ OperationalTrafficClasses : TC -0 1 TSA --ETS ETS Bandwidth --------5% 95% Priorities ---------0-3,5-7 4 OperationalFlowControl : Priority 4 Enabled OperationalClassifications : Protocol Port/Type Priority -------- --------- -------NetDirect 445 4 RemoteTrafficClasses : TC TSA Bandwidth Priorities -- --- --------- ---------- 0 ETS 5% 0-3,5-7 1 ETS 95% 4 RemoteFlowControl : Priority 4 Enabled RemoteClassifications : Protocol Port/Type Priority
13–Windows Server 2016 Configuration de VMMQ Création d'une VM et activation de VMMQ sur VMNetworkadapters dans la VM NIC virtuelle VMMQ par défaut et maximum Activation et désactivation de VMMQ sur une NIC de gestion Surveillance des statistiques de trafic Activation de VMMQ sur l'adaptateur Pour activer VMMQ sur l'adaptateur : 1. Ouvrez la fenêtre miniport, puis cliquez sur l'onglet Avancé. 2.
13–Windows Server 2016 Configuration de VMMQ Configuration du port virtuel par défaut et non-par défaut de paires de files d'attente (QP) max VMMQ Pour configurer le port virtuel par défaut et non-par défaut de paires de files d'attente (QP) maximum VMMQ : 1. Ouvrez la fenêtre miniport, et cliquez sur l'onglet Avancé. 2. Sur la page Propriétés avancées (Figure 13-14), sous Propriété, sélectionnez l'une des options suivantes : 3.
13–Windows Server 2016 Configuration de VMMQ 4. Sous Type de connexion : a. Cliquez sur Réseau externe. b. Cochez la case Autoriser le système d'exploitation de gestion à partager cette carte réseau. Figure 13-15. Gestionnaire de commutateur virtuel 5. Cliquez sur OK.
13–Windows Server 2016 Configuration de VMMQ Activation de VMMQ sur le commutateur de machine virtuelle Pour activer VMMQ sur le commutateur de machine virtuelle : Entrez la commande Windows PowerShell suivante : PS C:\Users\Administrators> Set-VMSwitch -name q1 -defaultqueuevmmqenabled $true -defaultqueuevmmqqueuepairs 4 Obtention de la fonction de commutateur de machine virtuelle Pour obtenir la fonction de commutateur de machine virtuelle : Entrez la commande Windows PowerShell suivante : PS C:\U
13–Windows Server 2016 Configuration de VMMQ Création d'une VM et activation de VMMQ sur VMNetworkadapters dans la VM Pour créer une machine virtuelle (VM) et activer VMMQ sur les VMNetworkadapters dans la VM : 1. Créez une VM. 2. Ajoutez le VMNetworkadapter à la VM. 3. Affectez un commutateur virtuel au VMNetworkadapter. 4. Pour activer VMMQ sur la machine virtuelle, entrez la commande Windows PowerShell suivante : PS C:\Users\Administrators> set-vmnetworkadapter -vmname vm1 -VMNetworkAdapterName "
13–Windows Server 2016 Configuration de VMMQ Name ---Ethernet Ethernet Ethernet Ethernet Ethernet Ethernet Ethernet Ethernet Ethernet Ethernet Ethernet Ethernet 3 3 3 3 3 3 3 3 3 3 3 3 ID -69 70 71 72 73 74 75 76 77 78 79 80 MacAddress ---------00-15-5D-36-0A-07 00-15-5D-36-0A-08 00-15-5D-36-0A-09 00-15-5D-36-0A-0A 00-15-5D-36-0A-0B 00-15-5D-36-0A-F4 00-15-5D-36-0A-F5 00-15-5D-36-0A-F6 00-15-5D-36-0A-F7 00-15-5D-36-0A-F8 00-15-5D-36-0A-F9 00-15-5D-36-0A-FA VID --- ProcMask -------0:8 0:16 1:0 0:0 0:8
13–Windows Server 2016 Configuration de VXLAN Surveillance des statistiques de trafic Pour surveiller le trafic de fonction virtuelle dans une machine virtuelle, entrez la commande Windows PowerShell suivante : PS C:\Users\Administrator> Use get-netadapterstatistics | fl Configuration de VXLAN Les informations de configuration de VXLAN comprennent : Activation du déchargement VXLAN sur l'adaptateur Déploiement d'un réseau défini par logiciel Activation du déchargement VXLAN sur l'adaptateur Pour a
13–Windows Server 2016 Configuration des Espaces de stockage direct Déploiement d'un réseau défini par logiciel Pour profiter du déchargement de tâches d'encapsulation VXLAN sur les machines virtuelles, vous devez déployer une pile de réseau défini par logiciel (Software-Defined Networking – SDN) qui utilise un contrôleur réseau Microsoft. Pour plus de détails, reportez-vous au lien de Microsoft TechNet suivant sur les réseaux définis par logiciel : https://technet.microsoft.
13–Windows Server 2016 Configuration des Espaces de stockage direct REMARQUE Les disques utilisés dans cet exemple sont des disques NVMe™ 400 G x4 et SSD 200 G x12. Déploiement d'un système hyper-convergé Cette section comprend les instructions pour installer et configurer les composants d'un système hyper-convergé à l'aide de Windows Server 2016.
13–Windows Server 2016 Configuration des Espaces de stockage direct b. Activez le port du commutateur et assurez-vous que le port du commutateur prend en charge le mode d'association indépendante du commutateur et fait également partie de plusieurs réseaux VLAN. Exemple de configuration de commutateur Dell : no ip address mtu 9416 portmode hybrid switchport dcb-map roce_S2D protocol lldp dcbx version cee no shutdown 2. Activez la Qualité de service réseau.
13–Windows Server 2016 Configuration des Espaces de stockage direct REMARQUE Les commandes précédentes configurent la NIC virtuelle à partir du commutateur virtuel que vous venez de configurer pour le système d'exploitation de gestion à utiliser. d.
13–Windows Server 2016 Configuration des Espaces de stockage direct Étape 3. Configuration d'un témoin de cluster Étape 4. Disques de nettoyage utilisés pour les Espaces de stockage direct Étape 5. Activation des Espaces de stockage direct Étape 6. Création de disques virtuels Étape 7. Création ou déploiement de machines virtuelles Étape 1.
13–Windows Server 2016 Configuration des Espaces de stockage direct La commande Windows PowerShell suivante peut être placée dans un fichier Windows PowerShell script (.PS1) et exécutée à partir du système de gestion dans une console ouverte Windows PowerShell (ou Windows PowerShell ISE) avec privilèges d'Administrateur.
13–Windows Server 2016 Déploiement et gestion de Nano Server Configure le cache des Espaces de stockage direct S'il existe plusieurs types de support disponibles pour l'utilisation d'Espaces de stockage direct, il configure le type le plus efficace en tant que périphériques de cache (dans la plupart des cas, lecture et écriture). Crée deux niveaux – Capacité et Performance – comme niveaux par défaut.
13–Windows Server 2016 Déploiement et gestion de Nano Server Rôles et fonctionnalités Le Tableau 13-1 montre les rôles et les fonctionnalités disponibles dans cette version de Nano Server, ainsi que les options Windows PowerShell qui installeront les paquets correspondants. Certains paquets sont installés directement avec leurs propres options Windows PowerShell (par exemple -Compute).
13–Windows Server 2016 Déploiement et gestion de Nano Server Tableau 13-1. Rôles et fonctionnalités de Nano Server (Suite) Rôle ou fonctionnalité Agent System Center Virtual Machine Manager Article -Packages Microsoft-Windows-ServerSCVMM-Package -Packages Microsoft-Windows-ServerSCVMM-Compute-Package Remarque : Utilisez ce paquet uniquement si vous surveillez Hyper-V.
13–Windows Server 2016 Déploiement et gestion de Nano Server 5. Changez le répertoire au dossier dans lequel vous avez copié les fichiers à l'étape 3. 6. Importez le script NanoServerImageGenerator en entrant la commande suivante : Import-Module .\NanoServerImageGenerator.psm1 -Verbose 7.
13–Windows Server 2016 Déploiement et gestion de Nano Server INFO : Creating single partition... INFO : Formatting windows volume... INFO : Windows path (I:) has been assigned. INFO : System volume location: I: INFO : Applying image to VHD. This could take a while... INFO : Image was applied successfully. INFO : Making image bootable... INFO : Fixing the Device ID in the BCD store on VHD... INFO : Drive is bootable. INFO : Dismounting VHD... INFO : Closing Windows image...
13–Windows Server 2016 Déploiement et gestion de Nano Server Déploiement de Nano Server sur une machine virtuelle Pour créer un disque dur virtuel (VHD) Nano Server pour s'exécuter dans une machine virtuelle : 1. Téléchargez l'image du SE Windows Server 2016. 2. Accédez au dossier NanoServer à partir du fichier téléchargé à l'étape 1. 3. Copiez les fichiers suivants du dossier NanoServer sur un dossier de votre disque dur : NanoServerImageGenerator.psm1 Convert-WindowsImage.ps1 4.
13–Windows Server 2016 Déploiement et gestion de Nano Server La commande précédente met environ 10 à 15 minutes pour créer un fichier VHD. Voici un exemple de sortie de cette commande : PS C:\Nano> New-NanoServerImage –DeploymentType Guest –Edition Datacenter -MediaPath C:\tmp\TP4_iso\Bld_10586_iso -BasePath .\Base -TargetPath .\Nano1\VM_NanoServer.
13–Windows Server 2016 Déploiement et gestion de Nano Server 12. Obtenez l'adresse IP de l'ordinateur de Nano Server. 13. Utilisez l'outil d'accès à distance Windows PowerShell (ou un autre outil de gestion à distance) pour vous connecter et gérer à distance le serveur. Gestion à distance de Nano Server Les options de gestion à distance de Nano Server comprennent Windows PowerShell, Windows Management Instrumentation (WMI), Windows Remote Management et Emergency Management Services (EMS).
13–Windows Server 2016 Déploiement et gestion de Nano Server Démarrage de la session Windows PowerShell à distance À une session Windows PowerShell locale élevée, démarrez la session Windows PowerShell à distance en entrant les commandes suivantes : $ip = "" $user = "$ip\Administrator" Enter-PSSession -ComputerName $ip -Credential $user Vous pouvez maintenant exécuter les commandes Windows PowerShell sur Nano Server comme d'habitude.
13–Windows Server 2016 Déploiement et gestion de Nano Server 2. Pour déterminer si les pilotes sont installés et que la liaison est établie, entrez la commande Windows PowerShell suivante : [172.28.41.152]: PS C:\Users\Administrator\Documents> Get-NetAdapter La Figure 13-19 montre un exemple de sortie. Figure 13-19. Commande Windows PowerShell : Get-NetAdapter 3. Pour vérifier si RDMA est activé sur l'adaptateur, entrez la commande Windows PowerShell suivante : [172.28.41.152]: PS C:\Users\Administrato
13–Windows Server 2016 Déploiement et gestion de Nano Server La Figure 13-21 montre un exemple de sortie. Figure 13-21. Commande Windows PowerShell : New-Item [172.28.41.152]: PS C:\> New-SMBShare -Name "smbshare" -Path C:\smbshare -FullAccess Everyone La Figure 13-22 montre un exemple de sortie. Figure 13-22. Commande Windows PowerShell : New-SMBShare 6.
13–Windows Server 2016 Déploiement et gestion de Nano Server La Figure 13-23 montre la sortie de la commande. Figure 13-23.
14 Dépannage Ce chapitre fournit les informations de dépannage suivantes : Liste de vérification pour le dépannage « Vérification du chargement des pilotes à jour » à la page 256 « Vérification de la connectivité du réseau » à la page 257 « Virtualisation Microsoft avec Hyper-V » à la page 258 « Problèmes propres à Linux » à la page 258 « Problèmes divers » à la page 259 « Collecte des données de débogage » à la page 259 Liste de vérification pour le dépannage PRÉCAUTION Avant d
14–Dépannage Vérification du chargement des pilotes à jour Essayez d'insérer l'adaptateur dans un autre logement. Si cette nouvelle position assure son fonctionnement, il se peut que le logement d'origine de votre système soit défectueux. Remplacez l'adaptateur défectueux par un adaptateur en bon état de fonctionnement. Si le deuxième adaptateur fonctionne dans le logement où le premier ne marchait pas, ce premier adaptateur est probablement défectueux.
14–Dépannage Vérification de la connectivité du réseau firmware-version: mfw 8.4.7.0 storm 8.4.7.0 bus-info: 0000:04:00.2 Si vous avez chargé un nouveau pilote, mais que vous n'avez pas encore redémarré, la commande modinfo n'affiche pas d'informations à jour sur le pilote. Entrez plutôt la commande dmesg suivante pour afficher les journaux. Dans cet exemple, la dernière entrée identifie le pilote qui sera actif au redémarrage. # dmesg | grep -i "Cavium" | grep -i "qede" [ 10.
14–Dépannage Virtualisation Microsoft avec Hyper-V 4. Utilisez la commande suivante puis appuyez sur ENTRÉE. ping Les statistiques ping affichées indiquent si la connectivité réseau fonctionne. Test de la connectivité réseau pour Linux Pour vérifier que l'interface Ethernet est opérationnelle : 1. Pour vérifier l'état de l'interface Ethernet, entrez la commande ifconfig. 2. Pour vérifier les statistiques de l'interface Ethernet, entrez la commande netstat -i.
14–Dépannage Problèmes divers Problèmes divers Problème : L'Adaptateur série 41xxx s'est arrêté et un message d'erreur s'affiche, indiquant une défaillance de son ventilateur. Solution : L'adaptateur Adaptateur série 41xxx peut s'arrêter intentionnellement afin d'éviter des dommages irréversibles. Contactez le support technique QLogic pour obtenir de l'aide.
A Voyants de l'adaptateur Le Tableau A-1 répertorie les voyants d'état de liaison et d'activité de port de l'adaptateur. Tableau A-1.
B Câbles et modules optiques Cette annexe fournit les informations suivantes concernant les câbles et les modules optiques pris en charge : Spécifications prises en charge « Câbles et modules optiques testés » à la page 262 « Commutateurs testés » à la page 266 Spécifications prises en charge Les Adaptateurs série 41xxx prennent en charge divers câbles et modules optiques conformes à SFF8024.
B–Câbles et modules optiques Câbles et modules optiques testés Câbles et modules optiques testés QLogic ne garantit pas que tous les câbles ou modules optiques qui satisfont aux exigences de conformité fonctionneront avec les Adaptateurs série 41xxx. Cavium a testé les composants énumérés au Tableau B-1 et présente cette liste pour votre commodité. Table B-1.
B–Câbles et modules optiques Câbles et modules optiques testés Table B-1.
B–Câbles et modules optiques Câbles et modules optiques testés Table B-1.
B–Câbles et modules optiques Câbles et modules optiques testés Table B-1.
B–Câbles et modules optiques Commutateurs testés Commutateurs testés Le Tableau B-2 répertorie les commutateurs qui ont été testés pour l'interopérabilité avec les Adaptateurs série 41xxx. Cette liste est basée sur les commutateurs disponibles au moment de la publication du produit et est susceptible de changer avec le temps lorsque de nouveaux commutateurs sont commercialisés ou sont abandonnés. Table B-2.
C Configuration du commutateur Dell Z9100 Les Adaptateurs série 41xxx prennent en charge les connexions avec le commutateur Ethernet Dell Z9100. Cependant, tant que le processus de négociation automatique n'est pas standardisé, le commutateur doit être explicitement configuré pour se connecter à l'adaptateur à 25 Gbits/s. Pour configurer un port de commutateur Dell Z9100 pour la connexion à l'Adaptateur série 41xxx à 25 Gb/s : 1.
C–Configuration du commutateur Dell Z9100 Pour plus d'informations sur le changement de la vitesse de liaison de l'adaptateur, voir « Vérification de la connectivité du réseau » à la page 257. 5. Vérifiez que le port fonctionne à 25 Gb/s : Dell# Dell#show running-config | grep "port 5" stack-unit 1 port 5 portmode quad speed 25G 6. Pour désactiver la négociation automatique sur le port de commutateur 5, procédez comme suit : a.
D Contraintes en matière de fonctionnalités Cette annexe fournit des informations sur les contraintes en matière de fonctionnalités mises en œuvre dans la version actuelle. Ces contraintes de coexistence de fonctionnalités peuvent être supprimées dans une version future. À ce moment, vous devriez pouvoir utiliser les combinaisons de fonctionnalités sans aucune étape de configuration supplémentaire outre celles habituellement exigées pour activer les fonctionnalités.
D–Contraintes en matière de fonctionnalités Le démarrage SAN et NIC sur base est pris en charge uniquement sur certaines PF Le démarrage PXE et Ethernet n'est actuellement pris en charge que sur PF0 et PF1. Dans la configuration NPAR, les autres PF ne prennent pas en charge le démarrage PXE et Ethernet.
Glossaire bande passante Mesure du volume de données pouvant être transmises à une vitesse de transmission donnée. Un port Fibre Channel 1 Gb/s ou 2 Gb/s peut effectuer des transmissions/réceptions à des vitesses nominales d'1 ou 2 Gb/s en fonction du périphérique auquel il est connecté. Cela correspond à des valeurs de bande passante réelle de 106 Mo et 212 Mo.
Guide d’utilisation—Adaptateurs réseau convergents série 41xxx DCB Data center bridging. Apporte des améliorations aux spécifications de pont 802.1 afin de satisfaire les exigences des protocoles et applications du centre de données.
Guide d’utilisation—Adaptateurs réseau convergents série 41xxx Ethernet Technologie LAN la plus utilisée qui transmet des informations entre des ordinateurs, typiquement à des vitesses de 10 et 100 millions de bits par seconde (Mbits/s). eCore Une couche entre le système d'exploitation et le matériel et le micrologiciel. Elle est propre au périphérique et indépendante du SE.
Guide d’utilisation—Adaptateurs réseau convergents série 41xxx IP file transfer protocol Voir FTP. Internet protocol. Méthode par laquelle les données sont envoyées d'un ordinateur à l'autre sur Internet. IP spécifie le format des paquets, également appelés datagrammes et le schéma d'adressage. FTP File transfer protocol. Protocole de réseau standard servant à transférer des fichiers d'un hôte à un autre sur un réseau TCP, tel que Internet.
Guide d’utilisation—Adaptateurs réseau convergents série 41xxx LLDP Un protocole de Couche 2 neutre quant au fournisseur qui permet à un périphérique réseau de publier son identité et ses capacités sur le réseau local. Ce protocole supplante des protocoles exclusifs comme le Cisco Discovery Protocol, l'Extreme Discovery Protocol et le Nortel Discovery Protocol (également connu sous le nom SONMP).
Guide d’utilisation—Adaptateurs réseau convergents série 41xxx périphérique Une cible, généralement un lecteur de disque. Matériel tel qu'un lecteur de disque, un lecteur de bande, une imprimante ou un clavier installé sur ou connecté à un système. Dans Fibre Channel, un périphérique cible. NPAR partitionnement NIC. Division d'un port NIC en plusieurs partitions ou fonctions physiques, dotées chacune d'une bande passante et d'une personnalité (type d'interface) configurables par l'utilisateur.
Guide d’utilisation—Adaptateurs réseau convergents série 41xxx remote direct memory access Voir RDMA. SerDes Serializer/deserializer. Paire de blocs fonctionnels couramment utilisés au cours des communications à haute vitesse pour compenser l'entrée/sortie limitée. Ces blocs convertissent les données entre les données série et les interfaces parallèles dans chaque direction. réseau logique virtuel Voir VLAN. serializer/deserializer Voir SerDes. RISC Reduced instruction set computer.
Guide d’utilisation—Adaptateurs réseau convergents série 41xxx TLV Type-length-value. Informations facultatives pouvant être codées en tant qu'élément à l'intérieur du protocole. Les champs de type et de longueur sont de taille fixe (en règle générale, 1-4 octets) et le champ de valeur est de taille variable. Ces champs sont utilisés comme suit : Type : code numérique qui indique le type de champ que représente cette partie du message. Longueur : taille du champ de valeur (généralement en octets).
Guide d’utilisation—Adaptateurs réseau convergents série 41xxx VM Machine virtuelle. Mise en œuvre logicielle d'une machine (ordinateur) qui exécute des programmes comme une machine réelle. wake on LAN Voir WoL. WoL Wake on LAN. Norme de réseau informatique Ethernet qui permet à un ordinateur d'être allumé ou réveillé à distance par un message réseau envoyé généralement par un simple programme exécuté sur un autre ordinateur du réseau.
Siège social Cavium, Inc. 2315 N. First Street San Jose, CA 95131 408-943-7100 Bureaux internationaux Royaume-Uni | Irlande | Allemagne | France | Inde | Japon | Chine | Hong Kong | Singapour | Taïwan | Israël Copyright © 2017, 2018 Cavium, Inc. Tous droits réservés dans le monde entier. QLogic Corporation est une filiale à part entière de Cavium, Inc. Cavium, FastLinQ, QConvergeConsole, QLogic et SmartAN sont des marques déposées de Cavium, Inc.