Benutzerhandbuch Konvergente Netzwerkadapter 41xxx-Serie AH0054602-01 F Informationen Dritter, die mit freundlicher Genehmigung von Dell EMC bereitgestellt wurden.
Benutzerhandbuch—Konvergente Netzwerkadapter 41xxx-Serie Dokumenten-Überarbeitungsverlauf Überarbeitung A, 28. April 2017 Überarbeitung B, 24. August 2017 Überarbeitung C, 1. Oktober 2017 Überarbeitung D, 24. Januar 2018 Überarbeitung E, 15. März 2018 Überarbeitung F, 19. April 2018 Änderungen Betroffener Abschnitt Beispiele für Dokumentationskonventionen aktuali- „Konventionen im Dokument“ auf Seite xx siert. Überholte Abschnitte zu QLogic Lizenzvereinbarungen und Garantie entfernt.
Benutzerhandbuch—Konvergente Netzwerkadapter 41xxx-Serie „iSCSI-Offload in Linux-Umgebungen“ auf Seite 159 Folgende wichtige Abschnitte in Unterabschnitte unter iSCSI-Offload in Linux-Umgebungen unterteilt: „Unterschiede zu bnx2i“ auf Seite 160 „Konfigurieren von qedi.
Benutzerhandbuch—Konvergente Netzwerkadapter 41xxx-Serie „Konfigurieren von SR-IOV unter Linux“ auf Seite 203 Im Verfahren So konfigurieren Sie SR-IOV unter Linux: In Schritt 12 Befehl von ip link show/ifconfig -a in ip link show | grep -i vf -b2 geändert. Abbildung 11-12 durch neuen Screenshot ersetzt. In Schritt 15 Befehl von check lspci -vv|grep -I ether in lspci -vv|grep -i ether geändert.
Benutzerhandbuch—Konvergente Netzwerkadapter 41xxx-Serie „Installieren von Gerätetreibern auf beiden Servern“ auf Seite 217 Abschnitt wie folgt aktualisiert: In der Einleitung folgenden Satz hinzugefügt: „Gehen Sie zum Aufrüsten des Kernels auf den aktuellen Linux-Upstream-Kernel zu .“ Neuen Schritt 2 für die Neuinstallation und das Laden des neuesten Treibers nach der BS-Kernel-Aufrüstung hinzugefügt. In Schritt 3 Befehl von systemctl enable rdma in systemctl enable rdma.service geändert.
Benutzerhandbuch—Konvergente Netzwerkadapter 41xxx-Serie vi AH0054602-01 F
Inhalt Vorwort Unterstützte Produkte. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Zielanwender . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Inhalt dieses Handbuchs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Konventionen im Dokument . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Rechtliche Hinweise . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Benutzerhandbuch—Konvergente Netzwerkadapter 41xxx-Serie Installieren der Linux-Treiber mit RDMA . . . . . . . . . . . . . . . . . . . . . . . Optionale Parameter für Linux-Treiber . . . . . . . . . . . . . . . . . . . . . . . . Standardwerte für den Betrieb der Linux-Treiber . . . . . . . . . . . . . . . . Linux-Treibermeldungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Statistikdaten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Benutzerhandbuch—Konvergente Netzwerkadapter 41xxx-Serie Vorbereiten des Ethernet-Switches . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Konfigurieren des Cisco Nexus 6000 Ethernet-Switches . . . . . . . . . . Konfigurieren des Dell Z9100 Ethernet-Switches . . . . . . . . . . . . . . . . Konfigurieren von RoCE auf dem Adapter für Windows Server. . . . . . . . . . Anzeigen von RDMA-Zählern . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Benutzerhandbuch—Konvergente Netzwerkadapter 41xxx-Serie Optimieren der Linux-Leistung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Konfigurieren von CPUs in den Modus für die maximale Leistung . . . Konfigurieren von Kernel-sysctl-Einstellungen . . . . . . . . . . . . . . . . . . Konfigurieren der IRQ-Affinitätseinstellungen . . . . . . . . . . . . . . . . . . . Konfigurieren der Blockgerätestaffelung . . . . . . . . . . . . . . . . . . . . . . . Konfigurieren von iSER auf SLES 6.
Benutzerhandbuch—Konvergente Netzwerkadapter 41xxx-Serie Überprüfen von iSCSI-Schnittstellen in Linux . . . . . . . . . . . . . . . . . . . Open-iSCSI und Starten über SAN – Überlegungen. . . . . . . . . . . . . . RHEL 6.9 iSCSI L4 – Migration für „Booten über SAN“ . . . . . . . RHEL 7.2/7.3 iSCSI L4 – Migration für „Booten über SAN“ . . . . SLES 11 SP4 iSCSI L4 – Migration für „Booten über SAN“ . . . . SLES 12 SP1/SP2 iSCSI L4 – Migration für „Booten über SAN“. . . . . . . . . . . . . . . . . . . . . . .
Benutzerhandbuch—Konvergente Netzwerkadapter 41xxx-Serie Optimieren der Leistung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .IRQ-Affinität (multi_rss-affin.sh) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . CPU-Intervall (cpufreq.sh) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 224 225 226 Windows Server 2016 Konfigurieren von RoCE-Schnittstellen mit Hyper-V . . . . . . . . . . . . . . . . . .
Benutzerhandbuch—Konvergente Netzwerkadapter 41xxx-Serie Implementieren eines Hyper-Konvergenzsystems . . . . . . . . . . . . . . . Implementieren des Betriebssystems. . . . . . . . . . . . . . . . . . . . . Konfigurieren des Netzwerks . . . . . . . . . . . . . . . . . . . . . . . . . . . Konfigurieren der Funktion „Direkte Speicherplätze“ . . . . . . . . . Implementieren und Verwalten eines Nano-Servers . . . . . . . . . . . . . . . . . . Rollen sowie Merkmale und Funktionen . . . . . . . . . . . . . . .
Benutzerhandbuch—Konvergente Netzwerkadapter 41xxx-Serie Liste der Abbildungen Abbildung Seite 3-1 Dell Aktualisierungspaket-Fenster . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 3-2 QLogic InstallShield Wizard: Begrüßungsfenster. . . . . . . . . . . . . . . . . . . . . . . . . . . 19 3-3 QLogic InstallShield Wizard: Lizenzvereinbarungsfenster . . . . . . . . . . . . . . . . . . . . 20 3-4 InstallShield Wizard: Fenster „Setup Type“ (Setup-Typ) . . . . . . . . . . . . . . .
Benutzerhandbuch—Konvergente Netzwerkadapter 41xxx-Serie 6-8 6-9 6-10 7-1 7-2 7-3 7-4 8-1 8-2 8-3 8-4 8-5 9-1 9-2 9-3 9-4 9-5 9-6 9-7 9-8 9-9 9-10 9-11 9-12 9-13 9-14 9-15 9-16 9-17 9-18 9-19 9-20 9-21 9-22 9-23 9-24 9-25 10-1 10-2 10-3 10-4 10-5 10-6 10-7 10-8 Konfigurieren eines neuen verteilten Switches . . . . . . . . . . . . . . . . . . . . . . . . . . . . Zuweisen eines vmknic für PVRDMA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Festlegen der Firewall-Regel . . . . . . .
Benutzerhandbuch—Konvergente Netzwerkadapter 41xxx-Serie 11-1 11-2 11-3 11-4 11-5 11-6 11-7 11-8 11-9 11-10 11-11 11-12 11-13 11-14 11-15 12-1 12-2 12-3 12-4 13-1 13-2 13-3 13-4 13-5 13-6 13-7 13-8 13-9 13-10 13-11 13-12 13-13 13-14 13-15 13-16 13-17 13-18 13-19 13-20 13-21 13-22 13-23 Systemeinrichtung für SR-IOV: Integrierte Geräte . . . . . . . . . . . . . . . . . . . . . . . . . . Systemeinrichtung für SR-IOV: Konfiguration auf Geräteebene . . . . . . . . . . . . . . .
Benutzerhandbuch—Konvergente Netzwerkadapter 41xxx-Serie Tabellenliste Tabelle Seite 2-1 Anforderungen an die Host-Hardware . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 2-2 Mindestanforderungen an das Host-Betriebssystem . . . . . . . . . . . . . . . . . . . . . . . . 5 3-1 QLogic Adapter der 41xxx-Serie Linux-Treiber . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 3-2 Optionale qede-Treiberparameter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Vorwort In diesem Vorwort werden die unterstützten Produkte aufgeführt, die Zielanwender definiert sowie die typografischen Konventionen in diesem Handbuch sowie die rechtlichen Hinweise beschrieben.
Vorwort Inhalt dieses Handbuchs Inhalt dieses Handbuchs Im Anschluss an dieses Vorwort besteht der übrige Teil des Handbuchs aus den folgenden Kapiteln und Anhängen: Kapitel 1 Produktübersicht enthält eine funktionale Produktbeschreibung, eine Liste der Funktionen sowie technische Daten zum Adapter. Kapitel 2 Installation der Hardware beschreibt die Installation des Adapters und enthält eine Liste der Systemanforderungen sowie eine Checkliste zur Installationsvorbereitung.
Vorwort Konventionen im Dokument Anhang A Adapter-LEDS führt die Adapter-LEDs auf und beschreibt ihre jeweilige Bedeutung. Anhang B Kabel und optische Module führt die Kabel und optischen Module auf, die von Adapter der 41xxx-Serie unterstützt werden. Anhang C Dell Z9100-Switch- Konfiguration beschreibt die Konfiguration des Dell Z9100-Switch-Ports für die Verbindung mit 25 Gb/s.
Vorwort Konventionen im Dokument Markieren Sie unter Notification Options (Benachrichtigungsoptionen) das Kontrollkästchen Warning Alarms (Warnalarme). Text in der Schriftart Courier weist auf einen Dateinamen, einen Verzeichnispfad oder Text in der Befehlszeile hin. Zum Beispiel: Um von einem beliebigen Punkt in der Dateistruktur zum Stammverzeichnis zurückzukehren, Geben Sie cd /root ein, und drücken Sie EINGABE. Geben Sie den folgenden Befehl aus: sh ./install.bin.
Vorwort Rechtliche Hinweise | (senkrechter Strich) weist auf sich wechselseitig ausschließende Optionen hin; wählen Sie nur eine Option aus. Zum Beispiel: on|off 1|2|3|4 ... (Auslassungspunkte) weisen darauf hin, dass das vorhergehende Element wiederholt werden kann. Zum Beispiel: x... bedeutet eine oder mehrere Instanzen von x. [x...] bedeutet null oder mehrere Instanzen von x.
Vorwort Rechtliche Hinweise Behördenzertifikat Der folgende Abschnitt fasst die EMV- und EMI-Testspezifikationen zusammen, die auf dem Adapter der 41xxx-Serie angewendet wurden, um den Standards für Emissionen, Immunität und Produktsicherheit zu entsprechen. Störstrahlungs- und EMV-Anforderungen Konformität mit Teil 15 der FCC-Bestimmungen: Klasse A Erklärung zur FCC-Konformität: Dieses Gerät entspricht Abschnitt 15 der FCC-Richtlinien.
Vorwort Rechtliche Hinweise KCC: Klasse A Korea-RRA-Klasse-A-zertifiziert Produktname/Modell: Konvergente Netzwerkadapter und intelligente Ethernet-Adapter Inhaber des Zertifikats: QLogic Corporation Herstellungsdatum: Siehe Datumscode auf dem Produkt.
Vorwort Rechtliche Hinweise 2006/95/EG Niederspannungsrichtlinie: TÜV EN60950-1:2006+A11+A1+A12+A2, 2. Edition TÜV IEC 60950-1: 2005, 2. Edition, Am1: 2009 + Am2: 2013 CB CB-zertifiziert nach IEC 60950-1 2.
1 Produktübersicht Dieses Kapitel enthält die folgenden Informationen zum Adapter der 41xxx-Serie: Funktionsbeschreibung Merkmale und Funktionen „Technische Daten des Adapters“ auf Seite 3 Funktionsbeschreibung Die Adapter der QLogicFastLinQ® 41000-Serie sind Converged Network-Adapter und Intelligent Ethernet-Adapter mit 10 und 25 GB, die für beschleunigte Datennetzwerke in Serversystemen entwickelt wurden.
1–Produktübersicht Merkmale und Funktionen 1 TCP Segmentation Offload (TSO) Large Segment Offload (Large-Send-Verschiebung, LSO) Generic Segment Offload (GSO) Large Receive Offload (LRO) Receive Segment Coalescing (RSC) Dynamische, virtuelle Microsoft® Maschinen-Queue (VMQ) und Linux-Multiqueue Adaptive Interrupts: Transmit/Receive Side Scaling (TSS/RSS) Statuslose Offloads für die Netzwerkvirtualisierung über Generic Routing Encapsulation (NVGRE) und getunnelten Dat
1–Produktübersicht Technische Daten des Adapters Unterstützung für 64-Bit-Basisadressregisters (BAR) Prozessorunterstützung von EM64T iSCSI- und FCoE-Boot-Unterstützung2 Technische Daten des Adapters Die technischen Daten für den Adapter der 41xxx-Serie umfassen die physischen Kenndaten und die Normenkonformitätsreferenzen des Adapters.
2 Installation der Hardware In diesem Kapitel finden Sie die folgenden Informationen zur Hardware-Installation: Systemanforderungen „Sicherheitsvorkehrungen“ auf Seite 5 „Checkliste für die Installationsvorbereitung“ auf Seite 6 „Installieren des Adapters“ auf Seite 6 Systemanforderungen Bevor Sie mit der Installation eines QLogic Adapter der 41xxx-Series beginnen, stellen Sie sicher, dass Ihr System die unter Tabelle 2-1 und Tabelle 2-2 genannten Voraussetzungen für die Hardware und das Be
2–Installation der Hardware Sicherheitsvorkehrungen Tabelle 2-2. Mindestanforderungen an das Host-Betriebssystem Betriebssystem Anforderung Windows Server 2012, 2012 R2, 2016 (einschließlich Nano) Linux RHEL® 6.8, 6.9, 7.2, 7.3, 7.4 SLES® 11 SP4, SLES 12 SP2, SLES 12 SP3 VMware ESXi ab Version 6.0 u3 für 25G-Adapter ANMERKUNG Tabelle 2-2 führt die Mindest-Host-Betriebssystemanforderungen auf. Eine vollständige Liste der unterstützten Betriebssysteme finden Sie auf der Cavium-Website.
2–Installation der Hardware Checkliste für die Installationsvorbereitung Checkliste für die Installationsvorbereitung Führen Sie vor der Installation des Adapters die folgenden Schritte aus: 1. Überprüfen Sie, ob Ihr Server die unter „Systemanforderungen“ auf Seite 4 aufgeführten Hardware- und Software-Anforderungen erfüllt. 2. Überprüfen Sie, ob Ihr System das neueste BIOS verwendet.
2–Installation der Hardware Installieren des Adapters 4. Richten Sie die Steckerleiste des Adapters am PCIe Express-Steckplatz des Systems aus. 5. Drücken Sie gleichmäßig auf die beiden Ecken der Karte, und schieben Sie die Adapterkarte in den Steckplatz, bis sie fest sitzt. Wenn der Adapter ordnungsgemäß eingesetzt wurde, sind die Port-Anschlüsse an der Steckplatzöffnung ausgerichtet, und die Frontplatte schließt genau mit dem Systemgehäuse ab.
3 Treiberinstallation Dieses Kapitel enthält folgende Informationen zur Treiberinstallation: Installieren der Linux-Treibersoftware „Installieren der Windows-Treibersoftware“ auf Seite 17 „Installieren der VMware-Treibersoftware“ auf Seite 28 Installieren der Linux-Treibersoftware In diesem Abschnitt wird die Installation von Linux-Treibern mit und ohne RDMA (Remote Direct Memory Access, Remote-Direktzugriffspeicher) beschrieben.
3–Treiberinstallation Installieren der Linux-Treibersoftware Tabelle 3-1. QLogic Adapter der 41xxx-Serie Linux-Treiber LinuxTreiber Beschreibung qed Das qed-Kern-Treibermodul steuert direkt die Firmware, verarbeitet Interrupts und fungiert als API auf unterer Ebene für den protokollspezifischen Treibersatz. Die qed-Schnittstellen mit den qede-, qedr-, qedi- und qedf-Treibern. Das Linux-Kernmodul verwaltet alle PCI-Geräteressourcen (Registrierungen, Hostschnittstellen-Warteschlangen usw.).
3–Treiberinstallation Installieren der Linux-Treibersoftware Mit dem folgenden Quell-RPM wird der RDMA-Bibliothekscode auf RHEL- und SLES-Hosts installiert: qlgc-libqedr-...src.rpm Mit dem folgenden TAR-BZip2-Quellcode (BZ2) werden die Linux-Treiber auf RHEL- und SLES-Hosts installiert: fastlinq-.tar.
3–Treiberinstallation Installieren der Linux-Treibersoftware Um Linux-Treiber in einer Nicht-RDMA-Umgebung zu entfernen, entladen und entfernen Sie die Treiber: Führen Sie das Verfahren aus, das sich auf das ursprüngliche Installationsverfahren und das Betriebssystem bezieht. Falls die Linux-Treiber unter Verwendung eines RPM-Pakets installiert wurden, führen Sie die folgenden Befehle aus: rmmod qede rmmod qed depmod -a rpm -e qlgc-fastlinq-kmp-default-.
3–Treiberinstallation Installieren der Linux-Treibersoftware ANMERKUNG Wenn quedr vorhanden ist, verwenden Sie stattdessen den Befehl modprobe -r qedr. 3. Löschen Sie die Dateien qed.ko, qede.ko und qedr.ko aus dem jeweiligen Verzeichnis. Geben Sie beispielsweise in SLES die folgenden Befehle ein: cd /lib/modules//updates/qlgc-fastlinq rm -rf qed.ko rm -rf qede.ko rm -rf qedr.ko depmod -a Gehen Sie folgendermaßen vor, um Linux-Treiber in einer RDMA-Umgebung zu entfernen: 1.
3–Treiberinstallation Installieren der Linux-Treibersoftware Installieren der Linux-Treiber unter Verwendung des src-RPM-Pakets So installieren Sie die Linux-Treiber unter Verwendung des src-RPM-Pakets: 1. Führen Sie den folgenden Befehl an einer Eingabeaufforderung aus: rpm -ivh RPMS//qlgc-fastlinq-.src.rpm 2. Wechseln Sie zum Verzeichnis des RPM-Pfads, und erstellen Sie das Binär-RPM für den Kernel: Für RHEL: cd /root/rpmbuild rpmbuild -bb SPECS/fastlinq-.
3–Treiberinstallation Installieren der Linux-Treibersoftware Installieren der Linux-Treiber unter Verwendung des kmp/kmod-RPM-Pakets So installieren Sie das kmod-RPM-Paket: 1. Führen Sie den folgenden Befehl an einer Eingabeaufforderung aus: rpm -ivh qlgc-fastlinq-..rpm 2. Laden Sie den Treiber erneut: modprobe -r qede modprobe qede Installieren der Linux-Treiber unter Verwendung der TAR-Datei So installieren Sie die Linux-Treiber unter Verwendung der TAR-Datei: 1.
3–Treiberinstallation Installieren der Linux-Treibersoftware Installieren der Linux-Treiber mit RDMA Weitere Informationen zu iWARP finden Sie unter Kapitel 7 iWARP-Konfiguration. Gehen Sie wie folgt vor, um die Linux-Treiber in einer Inbox-OFED-Umgebung zu installieren: 1. Laden Sie die Adapter der 41xxx-Serie-Linux-Treiber von Dell herunter: dell.support.com 2. Konfigurieren Sie RoCE auf dem Adapter, wie unter „Konfigurieren von RoCE auf dem Adapter für Linux“ auf Seite 83 beschrieben. 3.
3–Treiberinstallation Installieren der Linux-Treibersoftware Optionale Parameter für Linux-Treiber Tabelle 3-2 beschreibt die optionalen Parameter für den qede-Treiber. Tabelle 3-2. Optionale qede-Treiberparameter Parameter Beschreibung debug Steuert die Treiberausführlichkeitsebene ähnlich wie ethtool -s msglvl. int_mode Steuert einen anderen Interrupt-Modus als MSI-X. gro_enable Aktiviert oder deaktiviert die Hardware-GRO-Funktion (Generic Receive Offload).
3–Treiberinstallation Installieren der Windows-Treibersoftware Tabelle 3-3.
3–Treiberinstallation Installieren der Windows-Treibersoftware DUP-Installationsoptionen DUP-Installationsbeispiele Ausführen des DUP über die GUI So führen Sie das DUP auf der Benutzeroberfläche aus: 1. Doppelklicken Sie auf das Symbol für die Datei für das Dell Aktualisierungspaket. ANMERKUNG Der tatsächliche Dateiname für das Dell Aktualisierungspaket kann auch anders lauten. 2. Klicken Sie im Fenster des Dell Aktualisierungspakets (Abbildung 3-1) auf Install (Installieren). Abbildung 3-1.
3–Treiberinstallation Installieren der Windows-Treibersoftware Abbildung 3-2.
3–Treiberinstallation Installieren der Windows-Treibersoftware 4. Füllen Sie im Lizenzvereinbarungs-Fenster des Assistenten Folgendes aus (Abbildung 3-3): a. Lesen Sie die QLogic End User Software License Agreement (Endbenutzer-Softwarelizenzvereinbarung). b. Um fortzufahren, wählen Sie I accept the terms in the license agreement (Ich akzeptiere die Bedingungen der Lizenzvereinbarung). c. Klicken Sie auf Next (Weiter). Abbildung 3-3.
3–Treiberinstallation Installieren der Windows-Treibersoftware 5. Schließen Sie das Fenster „Setup Type“ (Setup-Typ) (Abbildung 3-4) wie folgt ab: a. b. Wählen Sie einen der folgenden Setup-Typen aus: Klicken Sie auf Complete (Vollständig), um alle Programmfunktionen zu installieren. Klicken Sie auf Custom (Benutzerdefiniert), um die zu installierenden Programmfunktionen manuell auszuwählen. Klicken Sie auf Next (Weiter), um fortzufahren.
3–Treiberinstallation Installieren der Windows-Treibersoftware b. This feature, and all subfeatures, will be installed on the local hard drive (Diese Funktion und ihre untergeordneten Funktionen werden auf dem lokalen Festplattenlaufwerk installiert) – Markiert die Funktion mit all ihren untergeordneten Funktionen zur Installation. This feature will not be available (Diese Funktion steht nicht zur Verfügung) – Verhindert die Installation der Funktion.
3–Treiberinstallation Installieren der Windows-Treibersoftware Abbildung 3-6. InstallShield Wizard: Fenster „Ready to Install the Program“ (Bereit zum Installieren des Programms) 8. Wenn die Installation abgeschlossen ist, zeigt der InstallShield-Assistent das Dialogfeld „Completed“ (Abgeschlossen) an (Abbildung 3-7). Klicken Sie auf Finish (Fertigstellen), um das Installationsprogramm zu beenden. Abbildung 3-7.
3–Treiberinstallation Installieren der Windows-Treibersoftware 9. Im Fenster des Dell Aktualisierungspakets (Abbildung 3-8) weist die Meldung „Update installer operation was successful“ (Aktualisierung des Installationsprogramms war erfolgreich) auf den Abschluss des Vorgangs hin. (Optional) Klicken Sie zum Öffnen der Protokolldatei auf Installationsprotokoll anzeigen.
3–Treiberinstallation Installieren der Windows-Treibersoftware (Erweitert) Mit der Option /passthrough wird sämtlicher Text nach der Option /passthrough direkt an die QLogic-Installationssoftware des DUP gesendet. In diesem Modus werden alle angegebenen GUIs unterdrückt, jedoch nicht zwangsweise die der QLogic-Software.
3–Treiberinstallation Installieren der Windows-Treibersoftware Verwalten von Adaptereigenschaften Gehen Sie wie folgt vor, um die Adapter der 41xxx-Serie-Eigenschaften anzuzeigen oder zu ändern: 1. Wechseln Sie in die Systemsteuerung und klicken Sie auf Device Manager (Geräte-Manager). 2. Klicken Sie in den Eigenschaften des ausgewählten Adapters auf die Registerkarte Erweitert. 3.
3–Treiberinstallation Installieren der Windows-Treibersoftware Einstellen der Optionen zum Strommanagement Sie können die Optionen zum Strommanagement so einstellen, dass das Betriebssystem den Controller abschalten kann, um Energie zu sparen, bzw. dass der Controller den Computer reaktivieren kann. Wenn das Gerät gerade beschäftigt ist (z. B. mit der Abwicklung einer Verbindung), schaltet das Betriebssystem das Gerät nicht ab.
3–Treiberinstallation Installieren der VMware-Treibersoftware Installieren der VMware-Treibersoftware In diesem Abschnitt wird der qedentv-VMware ESXi-Treiber für den Adapter der 41xxx-Serie beschrieben: VMware-Treiber und Treiberpakete Installieren der VMware-Treiber Optionale Parameter des VMware-Treibers Standardeinstellungen für VMware-Treiberparameter Entfernen des VMware-Treibers Unterstützung von FCoE iSCSI-Unterstützung VMware-Treiber und Treiberpakete Tabelle 3-4 listet
3–Treiberinstallation Installieren der VMware-Treibersoftware Tabelle 3-5. ESXi-Treiberpakete nach Version (fortgesetzt) ESXi-Versiona a Protokoll Treibername Treiberversion ESXi 6.0u3 NIC qedentv 2.0.7.5 FCoE qedf 1.2.24.0 iSCSI qedil 1.0.19.0 a Weitere ESXi-Treiber werden möglicherweise nach der Veröffentlichung des Benutzerhandbuchs verfügbar. Weitere Informationen finden Sie in den Versionshinweisen. b Bei ESXi 6.
3–Treiberinstallation Installieren der VMware-Treibersoftware 3. Dekomprimieren Sie die Treiber-ZIP-Datei und extrahieren Sie die .vib-Datei. 4. Verwenden Sie das Linux-SCP-Dienstprogramm zum Kopieren einer .vib-Datei von einem lokalen System in das Verzeichnis /tmp auf einem ESX-Server mit der IP-Adresse 10.10.10.10. Führen Sie beispielsweise den folgenden Befehl aus: #scp qedentv-1.0.3.11-1OEM.550.0.0.1331820.x86_64.vib root@10.10.10.
3–Treiberinstallation Installieren der VMware-Treibersoftware Gehen Sie wie folgt vor, um einen vorhandenen Treiber zu aktualisieren: Führen Sie die folgenden Schritte für eine neue Installation aus, ersetzen Sie dabei allerdings den Befehl in der vorherigen Option 1 durch den folgenden Befehl: #esxcli software vib update -v /tmp/qedentv-1.0.3.11-1OEM.550.0.0.1331820.x86_64.
3–Treiberinstallation Installieren der VMware-Treibersoftware Tabelle 3-6. Optionale Parameter des VMware-Treibers (fortgesetzt) Parameter RSS Beschreibung Der RSS-Parameter legt die Anzahl der empfangsseitigen Skalierungswarteschlangen fest, die vom Host oder dem virtuellen, erweiterbaren LAN (VxLAN)-Tunnel-Datenverkehr für eine PF verwendet werden. RSS kann den Wert 2, 3, 4 oder einen der folgenden Werte annehmen: –1 verwendet die Standardanzahl an Warteschlangen.
3–Treiberinstallation Installieren der VMware-Treibersoftware Standardeinstellungen für VMware-Treiberparameter Tabelle 3-7 führt die Standardwerte der Parameter für VMware-Treiber auf. Tabelle 3-7. Standardeinstellungen für VMware-Treiberparameter Parameter Standardeinstellung Geschwindigkeit Die automatische Aushandlung wird für alle Übertragungsraten angekündigt. Die Geschwindigkeitsparameter müssen auf allen Ports identisch sein.
3–Treiberinstallation Installieren der VMware-Treibersoftware Um den Treiber zu entfernen, führen Sie den folgenden Befehl aus: # vmkload_mod -u qedentv Unterstützung von FCoE Tabelle 3-8 beschreibt den Treiber, der im VMware-Software-Paket für die Unterstützung der QLogic FCoE Converged Netzwerkschnittstellen-Controller (C-NICs) enthalten ist. Die FCoE und DCB-Funktionen werden unter VMware ESXi 5.0 und höheren Versionen unterstützt. Tabelle 3-8.
3–Treiberinstallation Installieren der VMware-Treibersoftware 35 AH0054602-01 F
4 Aktualisieren der Firmware Dieses Kapitel bietet Informationen zum Aktualisieren der Firmware über das Dell Aktualisierungspaket (DUP). Das Firmware-DUP (Dell Update Package) ist ein reines Dienstprogramm zur Aktualisierung des Flash-Speichers (es wird nicht für die Adapterkonfiguration verwendet). Doppelklicken Sie zum Ausführen des Firmware-DUP auf die ausführbare Datei. Alternativ können Sie das Firmware-DUP über die Befehlszeile mit verschiedenen unterstützten Befehlszeilenoptionen ausführen.
4–Aktualisieren der Firmware Ausführen des DUP durch Doppelklicken Abbildung 4-1. Dell Aktualisierungspaket: Startbildschirm 2. Befolgen Sie die Anweisungen auf dem Bildschirm. Wenn ein Dialogfeld mit einer Warnung angezeigt wird, klicken Sie auf Yes (Ja), um mit der Installation fortzufahren. Das Installationsprogramm weist darauf hin, dass die neue Firmware geladen wird, wie in Abbildung 4-2 dargestellt. Abbildung 4-2.
4–Aktualisieren der Firmware Ausführen des DUP durch Doppelklicken Nach Abschluss des Vorgangs zeigt das Installationsprogramm das Ergebnis der Installation an, wie in Abbildung 4-3 dargestellt. Abbildung 4-3. Dell Aktualisierungspaket: Installationsergebnisse 3. Klicken Sie auf Yes (Ja), um das System neu zu starten. 4. Klicken Sie auf Finish (Fertigstellen), um die Installation abzuschließen, wie in Abbildung 4-4 dargestellt. Abbildung 4-4.
4–Aktualisieren der Firmware Ausführen des DUP über eine Befehlszeile Ausführen des DUP über eine Befehlszeile Das Ausführen des Firmware-DUP über die Befehlszeile ohne Angabe weiterer Optionen führt zu demselben Ergebnis wie das Doppelklicken auf das DUP-Symbol. Der tatsächliche Dateiname für das DUP kann auch anders lauten. Gehen Sie wie folgt vor, um das Firmware-DUP über eine Befehlszeile auszuführen: Geben Sie den folgenden Befehl aus: C:\> Network_Firmware_2T12N_WN32__X16.
4–Aktualisieren der Firmware Ausführen des DUP über die BIN-Datei Ausführen des DUP über die BIN-Datei Das folgende Verfahren wird nur auf dem Linux-Betriebssystem unterstützt. Gehen Sie wie folgt vor, um das DUP über die BIN-Datei zu aktualisieren: 1. Kopieren Sie die Datei Network_Firmware_NJCX1_LN_X.Y.Z.BIN auf das zu testende System. 2. Ändern Sie den Dateityp wie folgt in eine ausführbare Datei: chmod 777 Network_Firmware_NJCX1_LN_X.Y.Z.BIN 3.
4–Aktualisieren der Firmware Ausführen des DUP über die BIN-Datei Device: BCM57810 10 Gigabit Ethernet rev 10 (p2p2) Application: BCM57810 10 Gigabit Ethernet rev 10 (p2p2) Update success.
5 Adapterkonfiguration vor dem Start Während des Host-Startvorgangs haben Sie die Möglichkeit, Adapterverwaltungsaufgaben unter Verwendung der HII-Anwendung (Human Infrastructure Interface) anzuhalten und durchzuführen.
5–Adapterkonfiguration vor dem Start Erste Schritte Erste Schritte Gehen Sie wie folgt vor, um die HII-Anwendung zu starten: 1. Öffnen Sie das System-Setup-Fenster für Ihre Plattform. Informationen zum Starten des System-Setup-Programms finden Sie im Benutzerhandbuch zu Ihrem System. 2. Wählen Sie im Fenster „System Setup“ (Systemeinrichtung) (Abbildung 5-1) Device Settings (Geräteeinstellungen) und drücken Sie dann auf ENTER (Eingabe). Abbildung 5-1.
5–Adapterkonfiguration vor dem Start Erste Schritte 3. Wählen Sie im Fenster „Device Settings“ (Geräteeinstellungen) (Abbildung 5-2) den Adapter der 41xxx-Serie-Port aus, den Sie konfigurieren möchten. Drücken Sie anschließend auf ENTER (Eingabe). Abbildung 5-2. Systemeinrichtung: Geräteeinstellungen Auf der Seite „Main Configuration“ (Hauptkonfiguration) (Abbildung 5-3) werden die Adapterverwaltungsoptionen dargestellt, mit denen Sie den Partitionierungsmodus festlegen können. Abbildung 5-3.
5–Adapterkonfiguration vor dem Start Erste Schritte 4. Legen Sie unter Device Level Configuration (Konfiguration auf Geräteebene) die Option für Partitioning Mode (Partitionierungsmodus) auf NPAR, um die Option NIC Partitioning Configuration (Konfiguration der NIC-Partitionierung) zur Seite „Main Configuration“ (Hauptkonfiguration) hinzuzufügen, wie unter Abbildung 5-4 dargestellt. ANMERKUNG NPAR ist auf Ports mit einer maximalen Geschwindigkeit von 1 G nicht verfügbar. Abbildung 5-4.
5–Adapterkonfiguration vor dem Start Erste Schritte NIC Partitioning Configuration (Konfiguration der NIC-Partitionierung) (falls NPAR auf der Seite „Device Level Configuration“ (Konfiguration auf Geräteebene) ausgewählt wird) (siehe „Konfigurieren von Partitionen“ auf Seite 61) Zusätzlich werden auf der Seite „Main Configuration“ (Hauptkonfiguration) die Adaptereigenschaften angezeigt, wie in Tabelle 5-1 dargestellt. Tabelle 5-1.
5–Adapterkonfiguration vor dem Start Anzeigen der Eigenschaften des Firmware-Abbilds Tabelle 5-1.
5–Adapterkonfiguration vor dem Start Konfigurieren der Parameter auf Geräteebene Abbildung 5-5. Firmware-Abbild-Eigenschaften Konfigurieren der Parameter auf Geräteebene ANMERKUNG Die physischen iSCSI-Funktionen (PFs) werden als Aufzählung dargestellt, wenn die iSCSI-Offload-Funktion nur im NPAR-Modus aktiviert ist. Die FCoE-PFs werden als Aufzählung dargestellt, wenn die FCoE-Offload-Funktion nur im NPAR-Modus aktiviert ist. Nicht alle Adaptermodelle unterstützen iSCSI-Offload und FCoE-Offload.
5–Adapterkonfiguration vor dem Start Konfigurieren von NIC-Parametern ANMERKUNG Die Adapter QL41264HMCU-DE (Teilenummer 5V6Y4) und QL41264HMRJ-DE (Teilenummer 0D1WT) zeigen Support für NPAR, SR-IOV und NPAR-EP in der Konfiguration auf Geräteebene, obwohl diese Funktionen auf den 1-Gbps-Ports 3 und 4 nicht unterstützt werden. 3. 4.
5–Adapterkonfiguration vor dem Start Konfigurieren von NIC-Parametern So konfigurieren Sie NIC-Parameter: 1. Wählen Sie auf der Seite „Main Configuration“ (Hauptkonfiguration) die Option NIC Configuration (NIC-Konfiguration) (Abbildung 5-3 auf Seite 44) und drücken dann auf Finish (Fertigstellen). Abbildung 5-7 zeigt die Seite „NIC Configuration“ (NIC-Konfiguration). Abbildung 5-7. NIC-Konfiguration 2.
5–Adapterkonfiguration vor dem Start Konfigurieren von NIC-Parametern SmartAN (Standardwert) aktiviert den FastLinQ SmartAN™-Verbindungsgeschwindigkeitsmodus auf dem Port. Für diese Geschwindigkeitsoption ist keine FEC-Modusauswahl verfügbar. Die Einstellung SmartAN durchläuft alle möglichen Verbindungsgeschwindigkeiten und FEC-Modi, bis eine Verbindung aufgebaut wurde. Dieser Modus ist ausschließlich für 25G-Schnittstellen bestimmt.
5–Adapterkonfiguration vor dem Start Konfigurieren von NIC-Parametern 7. 8. FCoE aktiviert den FCoE-Boot über SAN über den Hardware-Offload-Pfad. Der Modus FCoE ist nur verfügbar, wenn die Option FCoE Offload (FCoE-Offload) auf der zweiten Partition im NPAR-Modus aktiviert ist (siehe „Konfigurieren von Partitionen“ auf Seite 61). iSCSI aktiviert den iSCSI-Remote-Boot über den Hardware-Offload-Pfad.
5–Adapterkonfiguration vor dem Start Konfigurieren von NIC-Parametern So konfigurieren Sie den Port zur Verwendung von RDMA: ANMERKUNG Führen Sie die folgenden Schritte aus, um RDMA auf allen Partitionen eines Ports im NPAR-Modus zu aktivieren. 1. Setzen Sie NIC + RDMA Mode (NIC- + RDMA-Modus) auf Enabled (Aktiviert). 2. Klicken Sie auf Back (Zurück). 3. Klicken Sie an der Eingabeaufforderung auf Yes (Ja), um die Änderungen zu speichern.
5–Adapterkonfiguration vor dem Start Konfigurieren des Data Center Bridging Konfigurieren des Data Center Bridging Die Einstellungen für Data Center Bridging (DCB) umfassen das DCBX-Protokoll und die RoCE-Priorität. So konfigurieren Sie die DCB-Einstellungen: 1. Wählen Sie auf der Seite „Main Configuration“ (Hauptkonfiguration, Abbildung 5-3 auf Seite 44) Data Center Bridging (DCB) Settings (DCB-Einstellungen) aus und klicken Sie anschließend auf Finish (Fertigstellen). 2.
5–Adapterkonfiguration vor dem Start Konfigurieren des FCoE-Startvorgangs Abbildung 5-8. Systemeinrichtung: DCB-Einstellungen 4. Klicken Sie auf Back (Zurück). 5. Klicken Sie an der Eingabeaufforderung auf Yes (Ja), um die Änderungen zu speichern. Die Änderungen werden übernommen, nachdem das System zurückgesetzt wurde. ANMERKUNG Wenn DCBX aktiviert ist, sendet der Adapter regelmäßig Verbindungsschichterkennungsprotokoll-Pakete, also so genannte LLDP-Pakete, mit einer speziellen Unicastadresse.
5–Adapterkonfiguration vor dem Start Konfigurieren des FCoE-Startvorgangs 2. Drücken Sie ENTER (Eingabe). 3. Wählen Sie Werte für die allgemeinen FCoE- oder die FCoE-Ziel-Konfigurationsparameter aus. Abbildung 5-9. Allgemeine FCoE-Parameter Abbildung 5-10. FCoE-Zielkonfiguration 4. Klicken Sie auf Back (Zurück). 5. Klicken Sie an der Eingabeaufforderung auf Yes (Ja), um die Änderungen zu speichern. Die Änderungen werden übernommen, nachdem das System zurückgesetzt wurde.
5–Adapterkonfiguration vor dem Start Konfigurieren des iSCSI-Startvorgangs Konfigurieren des iSCSI-Startvorgangs ANMERKUNG Das Menü „iSCSI Boot Configuration“ (iSCSI-Boot-Konfiguration) wird nur angezeigt, wenn der Modus iSCSI Offload (iSCSI-Offload) auf der dritten Partition im NPAR-Modus aktiviert ist (siehe Abbildung 5-19 auf Seite 66). Im Nicht-NPAR-Modus wird dieses Menü nicht angezeigt. So konfigurieren Sie die iSCSI-Start-Konfigurationsparameter: 1.
5–Adapterkonfiguration vor dem Start Konfigurieren des iSCSI-Startvorgangs iSCSI First Target Parameters (Erste iSCSI-Zielparameter) (Abbildung 5-13 auf Seite 60) Connect (Verbinden). IPv4-Adresse TCP-Port Boot-LUN iSCSI-Name: CHAP ID (CHAP-ID) CHAP Secret (CHAP-Geheimschlüssel) iSCSI Second Target Parameters (Zweite iSCSI-Zielparameter) (Abbildung 5-14 auf Seite 61) 4. CHAP Secret (CHAP-Geheimschlüssel) Connect (Verbinden).
5–Adapterkonfiguration vor dem Start Konfigurieren des iSCSI-Startvorgangs 5. Klicken Sie an der Eingabeaufforderung auf Yes (Ja), um die Änderungen zu speichern. Die Änderungen werden übernommen, nachdem das System zurückgesetzt wurde. Abbildung 5-11.
5–Adapterkonfiguration vor dem Start Konfigurieren des iSCSI-Startvorgangs Abbildung 5-12. iSCSI-Initiator-Konfigurationsparameter Abbildung 5-13.
5–Adapterkonfiguration vor dem Start Konfigurieren von Partitionen Abbildung 5-14. Zweite iSCSI-Zielparameter Konfigurieren von Partitionen Sie können Bandbreitenbereiche für jede Partition auf dem Adapter konfigurieren. Spezifische Informationen zur Partitionskonfiguration auf VMware ESXi 6.0/6.5 finden Sie unter Partitionieren für VMware ESXi 6.0 und ESXi 6.5. So konfigurieren Sie die maximalen und minimalen Bandbreitenzuordnungen: 1.
5–Adapterkonfiguration vor dem Start Konfigurieren von Partitionen Abbildung 5-15. Konfiguration der NIC-Partitionierung, Globale Bandbreitenzuordnung 3. Klicken Sie auf der Seite „Global Bandwidth Allocation“ (Globale Bandbreitenzuordnung) (Abbildung 5-16) für jede Partition, deren Bandbreite Sie zuordnen möchten, in das Feld für die minimale und maximale Übertragungsbandbreite. Es gibt acht Partitionen pro Port im Dual-Port-Modus.
5–Adapterkonfiguration vor dem Start Konfigurieren von Partitionen Abbildung 5-16. Seite für globale Bandbreitenzuordnung Partition n Minimum TX Bandwidth (Mindestbandbreite der Partition n für die Übertragung (TX)) ist die Mindestbandbreite der ausgewählten Partition für die Übertragung, angegeben als Prozentsatz der maximalen Verbindungsgeschwindigkeit des physischen Ports. Gültige Werte reichen von 0 bis 100.
5–Adapterkonfiguration vor dem Start Konfigurieren von Partitionen Geben Sie einen Wert in jedes ausgewählte Feld ein, und klicken Sie anschließend auf Back (Zurück). 4. Klicken Sie an der Eingabeaufforderung auf Yes (Ja), um die Änderungen zu speichern. Die Änderungen werden übernommen, nachdem das System zurückgesetzt wurde. So konfigurieren Sie Partitionen: 1.
5–Adapterkonfiguration vor dem Start Konfigurieren von Partitionen 3. 1 Um die erste Partition zu konfigurieren, wählen Sie Partition 2 Configuration (Konfiguration der Partition 2) aus, um die Seite „Partition 2 Configuration“ (Konfiguration der Partition 2) zu öffnen.
5–Adapterkonfiguration vor dem Start Konfigurieren von Partitionen Abbildung 5-18. Konfiguration der Partition 2: FCoE-Offload 4. Um die dritte Partition zu konfigurieren, wählen Sie Partition 3 Configuration (Konfiguration der Partition 3) aus, um die Seite „Partition 3 Configuration“ (Konfiguration der Partition 3, Abbildung 5-17) zu öffnen.
5–Adapterkonfiguration vor dem Start Konfigurieren von Partitionen 5. Um die verbleibenden Ethernet-Partitionen zu konfigurieren, einschließlich der vorherigen (falls nicht für Offload aktiviert), öffnen Sie die Seite für eine Ethernet-Partition ab Version 2 (siehe Abbildung 5-20). NIC Mode (NIC-Modus) (Enabled (Aktiviert) oder Disabled (Deaktiviert)).
5–Adapterkonfiguration vor dem Start Konfigurieren von Partitionen Die Treiber-Neuinstallation ist erforderlich, da die Speicherfunktionen ggf. die vmnicX-Nummerierung statt der vmhbaX-Nummerierung beibehalten. Dies wird deutlich, wenn Sie den folgenden Befehl auf dem System ausführen: # esxcfg-scsidevs -a vmnic4 qedf link-up fc.2000000e1ed6fa2a:2001000e1ed6fa2a (0000:19:00.2) QLogic Corp. QLogic FastLinQ QL41xxx Series 10/25 GbE Controller (FCoE) vmhba0 lsi_mr3 link-n/a sas.51866da071fa9100 (0000:18:00.
6 RoCE-Konfiguration In diesem Kapitel wird die RoCE-Konfiguration (V1 und V2) auf dem Adapter der 41xxx-Serie, dem Ethernet-Switch und dem Windows- oder Linux-Host beschrieben, darunter: Unterstützte Betriebssysteme und OFED „Planen für RoCE“ auf Seite 70 „Vorbereiten des Adapters“ auf Seite 71 „Vorbereiten des Ethernet-Switches“ auf Seite 72 „Konfigurieren von RoCE auf dem Adapter für Windows Server“ auf Seite 73 „Konfigurieren von RoCE auf dem Adapter für Linux“ auf Seite 83 „
6–RoCE-Konfiguration Planen für RoCE Tabelle 6-1. BS-Unterstützung für RoCE v1, RoCE v2, iWARP und OFED (fortgesetzt) Betriebssystem Eingang OFED 3.18-3 GA OFED 4.8-1 GA RHEL 7.3 RoCE v1, RoCE v2, iWARP, iSER Nein RoCE v1, RoCE v2, iWARP RHEL 7.4 RoCE v1, RoCE v2, iWARP, iSER Nein Nein SLES 12 SP3 RoCE v1, RoCE v2, iWARP, iSER Nein Nein CentOS 7.3 RoCE v1, RoCE v2, iWARP, iSER Nein RoCE v1, RoCE v2, iWARP CentOS 7.4 RoCE v1, RoCE v2, iWARP, iSER Nein Nein Nein k.A. k.A.
6–RoCE-Konfiguration Vorbereiten des Adapters Wenn Sie Benutzerbereichsanwendungen in Inbox-OFED ausführen möchten, müssen Sie die InfiniBand® Support-Gruppe von yum groupinstall „InfiniBand Support“ installieren, das u.a. libibcm und libibverbs enthält. OFED- und RDMA-Anwendungen, die von libibverbs abhängig sind, benötigen außerdem die QLogic RDMA-Benutzerbereichsbibliothek mit der Bezeichnung „libqedr“. Installieren Sie „libqedr“ über die libqedr RPM- oder Quellpakete.
6–RoCE-Konfiguration Vorbereiten des Ethernet-Switches Vorbereiten des Ethernet-Switches In diesem Abschnitt wird beschrieben, wie Sie einen Cisco® Nexus® 6000 Ethernet-Switch und einen Dell® Z9100 Ethernet-Switch für RoCE konfigurieren.
6–RoCE-Konfiguration Konfigurieren von RoCE auf dem Adapter für Windows Server 7. Konfigurieren Sie Netzwerk-QoS-Richtlinienzuordnungen, um die Prioritätsdatenflusssteuerung für die Datenverkehrsklasse „no drop“ wie folgt einzustellen: switch(config)# policy-map type network-qos roce switch(config)# class type network-qos class-roce switch(config)# pause no-drop 8.
6–RoCE-Konfiguration Konfigurieren von RoCE auf dem Adapter für Windows Server Tabelle 6-2. Erweiterte Eigenschaften für RoCE Eigenschaft Wert oder Beschreibung Network Direct-Funktionalität Enabled (Aktiviert) MTU-Größe für Network Direct Die Network Direct-MTU-Größe muss unter der Größe des Jumbo-Pakets liegen. RDMA-Modus RoCE v1 oder RoCE v2. Der Wert iWARP kann nur verwendet werden, wenn Sie Ports für iWARP gemäß Kapitel 7 iWARP-Konfiguration konfigurieren.
6–RoCE-Konfiguration Konfigurieren von RoCE auf dem Adapter für Windows Server Abbildung 6-1. Konfigurieren der RoCE-Eigenschaften 2. Überprüfen Sie unter Verwendung von Windows PowerShell, dass RDMA auf dem Adapter aktiviert ist. Der Befehl Get-NetAdapterRdma führt die Adapter auf, die RDMA unterstützen. Beide Ports sind aktiviert. ANMERKUNG Wenn Sie RoCE over Hyper-V konfigurieren, weisen Sie der physischen Schnittstelle keine VLAN-ID zu. PS C:\Users\Administrator> Get-NetAdapterRdma 3.
6–RoCE-Konfiguration Konfigurieren von RoCE auf dem Adapter für Windows Server 4. TaskOffload : Enabled NetworkDirect : Enabled NetworkDirectAcrossIPSubnets : Blocked PacketCoalescingFilter : Disabled Schließen Sie ein SMB-Laufwerk an (Server Message Block), führen Sie RoCE-Datenverkehr aus, und überprüfen Sie die Ergebnisse. Um ein SMB-Laufwerk einzurichten und zu verbinden, zeigen Sie die Informationen an, die online bei Microsoft verfügbar sind: https://technet.microsoft.
6–RoCE-Konfiguration Konfigurieren von RoCE auf dem Adapter für Windows Server Anzeigen von RDMA-Zählern Das folgende Verfahren gilt auch für iWARP. So zeigen Sie RDMA-Zähler für RoCE an: 1. Starten Sie die Leistungsüberwachung. 2. Öffnen Sie das Dialogfeld „Add Counters“ (Zähler hinzufügen). Abbildung 6-2 zeigt ein Beispiel. Abbildung 6-2.
6–RoCE-Konfiguration Konfigurieren von RoCE auf dem Adapter für Windows Server ANMERKUNG Wenn die Zähler für Cavium RDMA im Dialogfeld „Add Counters“ (Zähler hinzufügen) der Leistungsüberwachung nicht enthalten sind, fügen Sie sie manuell hinzu, indem Sie den folgenden Befehl am Treiberstandort ausführen: 3. Wählen Sie einen der folgenden Zähler-Typen aus: 4. Cavium FastLinQ Congestion Control: Erhöhen bei Stauungen im Netzwerk, wenn ECN am Switch aktiviert ist.
6–RoCE-Konfiguration Konfigurieren von RoCE auf dem Adapter für Windows Server Abbildung 6-3 zeigt Beispiele einer Ausgabe der Zählerüberwachung. Abbildung 6-3. Leistungsüberwachung: Cavium FastLinQ Zähler Tabelle 6-3 bietet Details zu den Fehler-Zählern . Tabelle 6-3. Cavium FastLinQ RDMA Fehler-Zähler RDMA FehlerZähler CQ overflow Zutreffend Zutreffend für für RoCE? iWARP? Beschreibung Eine Completion-Warteschlange, in der eine RDMA-Arbeitsanfrage gepostet wird.
6–RoCE-Konfiguration Konfigurieren von RoCE auf dem Adapter für Windows Server Tabelle 6-3. Cavium FastLinQ RDMA Fehler-Zähler (fortgesetzt) RDMA FehlerZähler Zutreffend Zutreffend für für RoCE? iWARP? Beschreibung Fehlerbehebung Requestor Bad response Rückgabe einer fehlerhaften Antwort durch den Responder.
6–RoCE-Konfiguration Konfigurieren von RoCE auf dem Adapter für Windows Server Tabelle 6-3. Cavium FastLinQ RDMA Fehler-Zähler (fortgesetzt) RDMA FehlerZähler Zutreffend Zutreffend für für RoCE? iWARP? Beschreibung Fehlerbehebung Requestor Remote Invalid request Auf der Remote-Seite wurde eine ungültige Meldung auf dem Kanal erhalten. Bei der ungültigen Meldung könnte es sich um eine Sendemeldung oder eine RDMA-Anfrage gehandelt haben. Ja Ja Mögliche Ursachen sind u. a.
6–RoCE-Konfiguration Konfigurieren von RoCE auf dem Adapter für Windows Server Tabelle 6-3.
6–RoCE-Konfiguration Konfigurieren von RoCE auf dem Adapter für Linux Tabelle 6-3. Cavium FastLinQ RDMA Fehler-Zähler (fortgesetzt) RDMA FehlerZähler Responder remote invalid request Zutreffend Zutreffend für für RoCE? iWARP? Beschreibung Ungültige eingehende Nachricht auf dem Kanal durch den Responder erkannt. Ja Ja Fehlerbehebung Deutet auf ein Fehlverhalten eines Remote-Peers hin. Mögliche Ursachen sind u. a.
6–RoCE-Konfiguration Konfigurieren von RoCE auf dem Adapter für Linux RoCE-Konfiguration für RHEL Zur Konfiguration von RoCE auf dem Adapter muss die Open Fabrics Enterprise Distribution (OFED) auf dem RHEL-Host installiert und konfiguriert sein. Gehen Sie wie folgt vor, um Inbox-OFED für RHEL vorzubereiten: 1. Wählen Sie beim Installieren oder Aktualisieren des Betriebssystems die InfiniBand- und OFED-Support-Pakete aus. 2.
6–RoCE-Konfiguration Konfigurieren von RoCE auf dem Adapter für Linux perftest-x.x.x.x86_64.rpm (erforderlich für Bandbreiten- und Latenzanwendungen) 3. Installieren Sie die Linux-Treiber, wie unter „Installieren der Linux-Treiber mit RDMA“ auf Seite 15 beschrieben. Überprüfen der RoCE-Konfiguration auf Linux Überprüfen Sie nach dem Installieren von OFED, dem Installieren der Linux-Treiber und dem Laden der RoCE-Treiber, ob die RoCE-Geräte auf allen Linux-Betriebssystemen erkannt wurden.
6–RoCE-Konfiguration Konfigurieren von RoCE auf dem Adapter für Linux qed ib_core 5. 2075255 2 qede,qedr 88311 16 qedr, rdma_cm, ib_cm, ib_sa,iw_cm,xprtrdma,ib_mad,ib_srp, ib_ucm,ib_iser,ib_srpt,ib_umad, ib_uverbs,rdma_ucm,ib_ipoib,ib_isert Konfigurieren Sie die IP-Adresse und aktivieren Sie den Port unter Verwendung eines Konfigurationsverfahrens, wie z. B. „ifconfig“: # ifconfig ethX 192.168.10.10/24 up 6. Geben Sie den Befehl ibv_devinfo ein.
6–RoCE-Konfiguration Konfigurieren von RoCE auf dem Adapter für Linux Im Folgenden sind Beispiele für erfolgreiche Ping-Pong-Tests auf dem Server und auf dem Client aufgeführt: Server-Ping: root@captain:~# ibv_rc_pingpong -d qedr0 -g 0 local address: LID 0x0000, QPN 0xff0000, PSN 0xb3e07e, GID fe80::20e:1eff:fe50:c7c0 remote address: LID 0x0000, QPN 0xff0000, PSN 0x934d28, GID fe80::20e:1eff:fe50:c570 8192000 bytes in 0.05 seconds = 1436.97 Mbit/sec 1000 iters in 0.05 seconds = 45.
6–RoCE-Konfiguration Konfigurieren von RoCE auf dem Adapter für Linux ANMERKUNG Der GID-Standardwert für die Einstellungen „Back-to-Back“ oder „Pause“ ist null (0). Bei Server/Switch-Konfigurationen müssen Sie den richtigen GID-Wert ausfindig machen. Falls Sie einen Switch verwenden, lesen Sie die entsprechende Dokumentation zur Switch-Konfiguration, um die richtigen Einstellungen zu ermitteln.
6–RoCE-Konfiguration Konfigurieren von RoCE auf dem Adapter für Linux GID[ GID[ GID[ GID[ GID[ GID[ GID[ 1]: 2]: 3]: 4]: 5]: 6]: 7]: fe80:0000:0000:0000:020e:1eff:fec4:1b20 0000:0000:0000:0000:0000:ffff:1e01:010a 0000:0000:0000:0000:0000:ffff:1e01:010a 3ffe:ffff:0000:0f21:0000:0000:0000:0004 3ffe:ffff:0000:0f21:0000:0000:0000:0004 0000:0000:0000:0000:0000:ffff:c0a8:6403 0000:0000:0000:0000:0000:ffff:c0a8:6403 Überprüfen des GID-Indexes für RoCE v1 oder RoCE v2 sowie der Adresse mithilfe der System- und
6–RoCE-Konfiguration Konfigurieren von RoCE auf dem Adapter für Linux ANMERKUNG Sie müssen die GID-Indexwerte für RoCE v1 oder RoCE v2 auf Basis der Server- oder Switch-Konfiguration spezifizieren (Pause/PFC). Verwenden Sie den GID-Index für die Link-local-IPv6-Adresse, die IPv4-Adresse oder die IPv6-Adresse. Zur Verwendung von VLAN-markierten Frames für den RoCE-Datenverkehr müssen Sie die GID-Indexwerte spezifizieren, die sich von der VLAN-IPv4-Adresse oder der VLAN-IPv6-Adresse ableiten.
6–RoCE-Konfiguration Konfigurieren von RoCE auf dem Adapter für Linux Gehen Sie wie folgt vor, um RoCE v2 über verschiedene Teilnetze zu überprüfen: 1. Stellen Sie mithilfe der DCBX-PFC-Konfiguration die Routenkonfiguration für Server und Client ein. Systemeinstellungen: Server-VLAN-IP: 192.168.100.3 und Gateway:192.168.100.1 Client-VLAN-IP : 192.168.101.3 und Gateway:192.168.101.1 Serverkonfiguration: #/sbin/ip link add link p4p1 name p4p1.100 type vlan id 100 #ifconfig p4p1.100 192.168.100.
6–RoCE-Konfiguration Konfigurieren von RoCE auf dem Adapter für Linux Server-Switch-Einstellungen: Abbildung 6-4. Switch-Einstellungen, Server Client-Switch-Einstellungen: Abbildung 6-5.
6–RoCE-Konfiguration Konfigurieren von RoCE auf dem Adapter für Linux Konfigurieren der Einstellungen von RoCE v1 oder RoCE v2 für RDMA_CM-Anwendungen Verwenden Sie zum Konfigurieren von RoCE die folgenden Scripts aus dem FastLinQ-Quellpaket: # ./show_rdma_cm_roce_ver.sh qedr0 wird zu IB/RoCE V1 konfiguriert qedr1 wird zu IB/RoCE V1 konfiguriert # ./config_rdma_cm_roce_ver.sh v2 configured rdma_cm for qedr0 to RoCE V2 configured rdma_cm for qedr1 to RoCE V2 Server-Einstellungen: Abbildung 6-6.
6–RoCE-Konfiguration Konfigurieren von RoCE auf dem Adapter für VMware ESX Konfigurieren von RoCE auf dem Adapter für VMware ESX In diesem Abschnitt finden Sie die folgenden Verfahren und Informationen zur RoCE-Konfiguration: Konfigurieren von RDMA-Schnittstellen Konfigurieren von MTU RoCE-Modus und Statistikdaten Konfigurieren eines pravirtuellen RDMA-Geräts (PVRDMA) Konfigurieren von RDMA-Schnittstellen So konfigurieren Sie die RDMA-Schnittstellen: 1.
6–RoCE-Konfiguration Konfigurieren von RoCE auf dem Adapter für VMware ESX 5. Um einen neuen virtuellen Switch zu erstellen, führen Sie den folgenden Befehl aus: esxcli network vswitch standard add -v Zum Beispiel: # esxcli network vswitch standard add -v roce_vs Damit wird ein neuer virtueller Switch mit der Bezeichnung roce_vs erstellt. 6.
6–RoCE-Konfiguration Konfigurieren von RoCE auf dem Adapter für VMware ESX Konfigurieren von MTU Ändern Sie zum Anpassen der MTU für die RoCE-Schnittstelle die MTU des entsprechenden virtuellen Switches.
6–RoCE-Konfiguration Konfigurieren von RoCE auf dem Adapter für VMware ESX Queue pairs in RTR state: 0 Queue pairs in RTS state: 0 Queue pairs in SQD state: 0 Queue pairs in SQE state: 0 Queue pairs in ERR state: 0 Queue pair events: 0 Completion queues allocated: 1 Completion queue events: 0 Shared receive queues allocated: 0 Shared receive queue events: 0 Protection domains allocated: 1 Memory regions allocated: 3 Address handles allocated: 0 Memory windows allocated: 0 Konfigurieren eines pravirtuellen
6–RoCE-Konfiguration Konfigurieren von RoCE auf dem Adapter für VMware ESX Abbildung 6-8. Konfigurieren eines neuen verteilten Switches 2. 3. Konfigurieren Sie einen verteilten virtuellen Switch wie folgt: a. Erweitern Sie im VMware vSphere-Web-Client den Knoten RoCE im linken Fensterbereich des Navigator-Fensters. b. Klicken Sie mit der rechten Maustaste auf RoCE-VDS und dann auf Add and Manage Hosts (Hosts hinzufügen und verwalten). c.
6–RoCE-Konfiguration Konfigurieren von RoCE auf dem Adapter für VMware ESX e. Setzen Sie den Wert Net.PVRDMAVmknic auf vmknic; Beispiel: vmk1. Abbildung 6-9 zeigt ein Beispiel. Abbildung 6-9. Zuweisen eines vmknic für PVRDMA 4. Legen Sie die Firewall-Regel für PVRDMA fest: a. Klicken Sie mit der rechten Maustaste auf einen Host und dann auf Settings (Einstellungen). b.
6–RoCE-Konfiguration Konfigurieren von RoCE auf dem Adapter für VMware ESX Abbildung 6-10. Festlegen der Firewall-Regel 5. Richten Sie die virtuelle Maschine für PVRDMA wie folgt ein: a. Installieren Sie eines der folgenden unterstützten Gastbetriebssysteme: RHEL 7.2 Ubuntu 14.04 (Kernel-Version 4.0) b. Installieren Sie OFED-3.18. c. Kompilieren und installieren Sie den PVRDMA-Gastreiber und die zugehörige Bibliothek. d.
7 iWARP-Konfiguration iWARP (Internet Wide Area RDMA Protocol) ist ein Computernetzwerkprotokoll, das RDMA für eine effiziente Datenübertragung über IP-Netzwerke implementiert. iWARP wurde für mehrere Umgebungen konzipiert, darunter LANs, Speichernetzwerke, Rechenzentrumsnetzwerke und WANs.
7–iWARP-Konfiguration Konfigurieren von iWARP unter Windows b. Setzen Sie das Feld RDMA Protocol Support (RDMA-Protokollunterstützung) auf iWARP. c. Klicken Sie auf Back (Zurück). 5. Klicken Sie auf der Seite „Main Configuration“ (Hauptkonfiguration) auf Finish (Fertigstellen). 6. Wenn das Nachrichtenfeld „Warning - Saving Changes“ (Warnung – Änderungen werden gespeichert) angezeigt wird, klicken Sie zum Speichern der Konfiguration auf Yes (Ja). 7.
7–iWARP-Konfiguration Konfigurieren von iWARP unter Windows d. 2. Wählen Sie RDMA Mode (RDMA-Modus) und wählen Sie dann iWARP als Value (Wert). Klicken Sie auf die Schaltfläche OK, um die Änderungen zu speichern und das Dialogfeld mit den Adaptereigenschaften zu schließen. Überprüfen Sie unter Verwendung von Windows PowerShell, dass RDMA aktiviert ist. Die Befehlsausgabe Get-NetAdapterRdma (Abbildung 7-1) zeigt die Adapter, die RDMA unterstützen. Abbildung 7-1.
7–iWARP-Konfiguration Konfigurieren von iWARP unter Windows Abbildung 7-3. Perfmon: Zähler hinzufügen Wenn der iWARP-Datenverkehr ausgeführt wird, werden Zähler gemäß dem Beispiel in Abbildung 7-4 angezeigt. Abbildung 7-4.
7–iWARP-Konfiguration Konfigurieren von iWARP unter Linux ANMERKUNG Weitere Informationen zum Verfahren für die Anzeige von Cavium RDMA-Zählern unter Windows finden Sie unter „Anzeigen von RDMA-Zählern“ auf Seite 77. 4. So überprüfen Sie die SMB-Verbindung: a. Führen Sie an einer Befehlseingabe den Befehl net use wie folgt aus: C:\Users\Administrator> net use New connections will be remembered. Status Local Remote Network --------------------------------------------------------OK F: \\192.168.10.10\Shar
7–iWARP-Konfiguration Konfigurieren von iWARP unter Linux Unterstützte iWARP-Anwendungen Ausführen des Befehls „Perftest“ für iWARP Konfigurieren von NFS-RDMA iWARP RDMA-Kernunterstützung auf SLES 12 SP3, RHEL 7.4 und OFED 4.8x Installieren des Treibers Installieren Sie die RDMA-Treiber wie unter Kapitel 3 Treiberinstallation beschrieben.
7–iWARP-Konfiguration Konfigurieren von iWARP unter Linux Das folgende Beispiel zeigt die Befehlseingaben zum Ändern des RDMA-Protokolls in iWARP auf mehreren NPAR-Schnittstellen: # modprobe qed rdma_protocol_map=04:00.1-3,04:00.3-3,04:00.5-3, 04:00.7-3,04:01.1-3,04:01.3-3,04:01.5-3,04:01.
7–iWARP-Konfiguration Konfigurieren von iWARP unter Linux active_mtu: sm_lid: port_lid: port_lmc: link_layer: 1024 (3) 0 0 0x00 Ethernet Unterstützte iWARP-Anwendungen Zu den von Linux unterstützten RDMA-Anwendungen für iWARP gehören: ibv_devinfo, ib_devices ib_send_bw/lat, ib_write_bw/lat, ib_read_bw/lat, ib_atomic_bw/lat Bei iWARP müssen alle Anwendungen den RDMA-Kommunikationsmanager (rdma_cm) über die Option -R verwenden.
7–iWARP-Konfiguration Konfigurieren von iWARP unter Linux CQ Moderation : 100 Mtu : 1024[B] Link type : Ethernet GID index : 0 Max inline data : 0[B] rdma_cm QPs : ON Data ex.
7–iWARP-Konfiguration Konfigurieren von iWARP unter Linux 4. Schließen Sie den Standard-RDMA-Port 20049 wie folgt in diese Datei ein: # echo rdma 20049 > /proc/fs/nfsd/portlist 5. Um lokale Verzeichnisse für zu mountende NFS-Clients verfügbar zu machen, führen Sie den Befehl exportfs wie folgt aus: # exportfs -v So konfigurieren Sie den NFS-Client: ANMERKUNG Dieses Verfahren für die NFS-Client-Konfiguration gilt auch für RoCE. 1. Laden Sie das Modul „xprtrdma“ wie folgt: # modprobe xprtrdma 2.
7–iWARP-Konfiguration Konfigurieren von iWARP unter Linux iWARP RDMA-Kernunterstützung auf SLES 12 SP3, RHEL 7.4 und OFED 4.8x Die Benutzerbereichsbibliothek „libqedr“ ist Teil des rdma-Kerns. Die vorkonfigurierte libqedr bietet jedoch keine Unterstützung für SLES 12 SP3, RHEL 7.4 und OFED 4.8x. Für diese BS-Versionen ist daher ein Patch erforderlich, um den iWARP-RDMA-Kern zu unterstützen. So wenden Sie das Patch für den iWARP-RDMA-Kern an: 1.
7–iWARP-Konfiguration Konfigurieren von iWARP unter Linux ping data: rdma-ping-2: CDEFGHIJKLMNOPQRSTUVWXYZ[\]^_`abcdefghijklmnopqrst ping data: rdma-ping-3: DEFGHIJKLMNOPQRSTUVWXYZ[\]^_`abcdefghijklmnopqrstu ping data: rdma-ping-4: EFGHIJKLMNOPQRSTUVWXYZ[\]^_`abcdefghijklmnopqrstuv client DISCONNECT EVENT... 5. Um Inbox-OFED-Anwendungen auszuführen, z. B.
8 iSER-Konfiguration In diesem Kapitel wird das Verfahren für die Konfiguration von iSCSI-Erweiterungen für RDMA (iSER) für Linux (RHEL und SLES) und ESXi 6.7 beschrieben, darunter: Vor dem Start Konfigurieren von iSER für RHEL “Konfigurieren von iSER für SLES 12” auf Seite 117 “Verwenden von iSER mit iWARP auf RHEL und SLES” auf Seite 118 “Optimieren der Linux-Leistung” auf Seite 120 “Konfigurieren von iSER auf SLES 6.
8–iSER-Konfiguration Konfigurieren von iSER für RHEL Konfigurieren von iSER für RHEL So konfigurieren Sie iSER für RHEL: 1. Installieren Sie Inbox-OFED wie unter “RoCE-Konfiguration für RHEL” auf Seite 84 beschrieben. Vorkonfigurierte OFEDs werden nicht für iSER unterstützt, da das ib_isert-Modul nicht für die vorkonfigurierten OFED 3.18-2 GA/3.18-3 GA-Versionen verfügbar ist. Das inbox ib_isert-Modul funktioniert mit keiner der Out-of-box-OFED-Versionen. 2.
8–iSER-Konfiguration Konfigurieren von iSER für RHEL Abbildung 8-1 enthält ein Beispiel für einen erfolgreichen RDMA-Ping-Befehl. Abbildung 8-1. RDMA-Ping-Befehl erfolgreich 8. Sie können ein Linux TCM-LIO-Ziel zum Testen von iSER verwenden. Das Setup ist für alle iSCSI-Ziele gleich, mit der Ausnahme, dass Sie den Befehl enable_iser Boolean=true auf den jeweiligen Portalen ausführen müssen. Die Portalinstanzen werden als iser in Abbildung 8-2 identifiziert. Abbildung 8-2. iSER-Portal-Instanzen 9.
8–iSER-Konfiguration Konfigurieren von iSER für RHEL b. Um den Übermittlungsmodus in iSER zu ändern, führen Sie den Befehl iscsiadm aus. Zum Beispiel: iscsiadm -m node -T iqn.2015-06.test.target1 -o update -n iface.transport_name -v iser c. Um eine Verbindung mit dem iSER-Ziel herzustellen oder sich dort anzumelden, führen Sie den Befehl iscsiadm aus. Zum Beispiel: iscsiadm -m node -l -p 192.168.100.99:3260 -T iqn.2015-06.test.target1 d.
8–iSER-Konfiguration Konfigurieren von iSER für SLES 12 e. Um zu überprüfen, ob ein neues iSCSI-Gerät vorhanden ist, wie unter Abbildung 8-4 dargestellt, führen Sie den Befehl lsscsi aus. Abbildung 8-4. Überprüfen auf neues iSCSI-Gerät Konfigurieren von iSER für SLES 12 Da das TargetCLI auf SLES 12.x nicht „inbox“ lautet, müssen Sie das folgende Verfahren ausführen. Gehen Sie wie folgt vor, um iSER für SLES 12 zu konfigurieren: 1.
8–iSER-Konfiguration Verwenden von iSER mit iWARP auf RHEL und SLES 4. Starten Sie das TargetCLI-Dienstprogramm und konfigurieren Sie Ihre Ziele auf dem iSER-Zielsystem. ANMERKUNG Die TargetCLI-Versionen in RHEL und SLES unterscheiden sich. Stellen Sie sicher, dass Sie die richtigen Backstores für die Konfiguration Ihrer Ziele verwenden: RHEL verwendet ramdisk. SLES verwendet rd_mcp.
8–iSER-Konfiguration Verwenden von iSER mit iWARP auf RHEL und SLES Abbildung 8-5 zeigt die Zielkonfiguration für LIO. Abbildung 8-5. LIO-Zielkonfiguration So konfigurieren Sie einen Initiator für iWARP: 1. Um das iSER-LIO-Ziel über Port 3261 zu ermitteln, führen Sie den Befehl iscsiadm wie folgt aus: # iscsiadm -m discovery -t st -p 192.168.21.4:3261 -I iser 192.168.21.4:3261,1 iqn.2017-04.com.org.iserport1.target1 2.
8–iSER-Konfiguration Optimieren der Linux-Leistung Optimieren der Linux-Leistung Berücksichtigen Sie die folgenden Verbesserungen der Linux-Leistungskonfiguration, wie in diesem Abschnitt beschrieben.
8–iSER-Konfiguration Konfigurieren von iSER auf SLES 6.7 Konfigurieren der IRQ-Affinitätseinstellungen In diesem Beispiel werden die CPU-Kerne 0, 1, 2 und 3 auf Unterbrechungsanfrage (IRQ) XX, YY, ZZ bzw. XYZ gesetzt. Führen Sie diese Schritte für jede IRQ aus, die einem Port zugewiesen ist (Standard: acht Warteschlangen je Port). systemctl disable irqbalance systemctl stop irqbalance cat /proc/interrupts | grep qedr Port-Warteschlangen zugewiesen sind.
8–iSER-Konfiguration Konfigurieren von iSER auf SLES 6.7 Interface Port Group/DVPort/Opaque Network Netmask Broadcast MAC Address IP Family IP Address MTU TSO MSS Enabled Type NetStack vmk0 Management Network 255.255.240.0 172.28.15.255 IPv4 172.28.12.
8–iSER-Konfiguration Konfigurieren von iSER auf SLES 6.7 esxcli network vswitch standard uplink add -u vmnic5 -v vSwitch_iser1 esxcli network vswitch standard portgroup add -p "rdma_group1" -v vSwitch_iser1 esxcli network ip interface add -i vmk1 -p "rdma_group1" esxcli network ip interface ipv4 set -i vmk1 -I 192.168.10.100 -N 255.255.255.
8–iSER-Konfiguration Konfigurieren von iSER auf SLES 6.7 5. Listen Sie das angehängte Ziel wie folgt auf: esxcfg-scsidevs -l mpx.vmhba0:C0:T4:L0 Device Type: CD-ROM Size: 0 MB Display Name: Local TSSTcorp CD-ROM (mpx.vmhba0:C0:T4:L0) Multipath Plugin: NMP Console Device: /vmfs/devices/cdrom/mpx.vmhba0:C0:T4:L0 Devfs Path: /vmfs/devices/cdrom/mpx.
9 iSCSI-Konfiguration In diesem Abschnitt finden Sie die folgenden Informationen zur iSCSI-Konfiguration: iSCSI-Start “Konfigurieren des iSCSI-Startvorgangs” auf Seite 132 “Konfigurieren des DHCP-Servers zur Unterstützung des iSCSI-Boot-Vorgangs” auf Seite 144 “iSCSI-Offload unter Windows Server” auf Seite 149 “iSCSI-Offload in Linux-Umgebungen” auf Seite 159 “Konfigurieren des iSCSI-Startvorgangs über SAN für RHEL ab Version 7.
9–iSCSI-Konfiguration iSCSI-Start Einrichten von iSCSI-Boot Das Einrichten von iSCSI-Boot umfasst: Auswählen des bevorzugten iSCSI-Startmodus Konfigurieren des iSCSI-Ziels Konfigurieren der iSCSI-Bootparameter Auswählen des bevorzugten iSCSI-Startmodus Die Startmodusoption wird unter iSCSI Configuration (iSCSI-Konfiguration) (Abbildung 9-1) des Adapter aufgeführt und die Einstellung ist Port-spezifisch.
9–iSCSI-Konfiguration iSCSI-Start Konfigurieren des iSCSI-Ziels Das Konfigurieren des iSCSI-Ziels erfolgt bei den Zielen der verschiedensten Hersteller auf unterschiedliche Weise. Informationen über das Konfigurieren des iSCSI-Ziels finden Sie in der vom Hersteller mitgelieferten Dokumentation. So konfigurieren Sie das iSCSI-Ziel: 1. Wählen Sie das entsprechende Verfahren auf Basis Ihres iSCSI-Ziels aus: Erstellen Sie entweder ein iSCSI-Ziel für Ziele wie SANBlaze® oder IET®.
9–iSCSI-Konfiguration iSCSI-Start ANMERKUNG Die Verfügbarkeit des iSCSI-Startvorgangs für IPv6 ist plattform- und geräteabhängig. Tabelle 9-1. Konfigurationsoptionen Option Beschreibung TCP/IP parameters via DHCP Diese Option gilt nur für IPv4. Legt fest, ob die iSCSI-Boot-Host-Software die IP-Adresse über DHCP (Enabled (Aktiviert)) erhält oder eine statische IP-Konfiguration verwendet (Disabled (Deaktiviert)).
9–iSCSI-Konfiguration iSCSI-Start Adapterkonfiguration für den UEFI-Boot-Modus So konfigurieren Sie den Boot-Modus: 1. Starten Sie das System neu. 2. Rufen Sie das Menü „System Utilities“ (Systemdienstprogramme) (Abbildung 9-2) auf. ANMERKUNG „Booten über SAN“ wird nur in UEFI-Umgebungen unterstützt. Stellen Sie sicher, dass „UEFI“ als System-Startoption und nicht „Legacy“ eingestellt ist. Abbildung 9-2.
9–iSCSI-Konfiguration iSCSI-Start 3. Wählen Sie im „System Setup“ (Systemeinrichtung) unter „Device Settings“ (Geräteeinstellungen) das QLogic-Gerät (Abbildung 9-3) aus. Weitere Informationen zum Zugriff auf das PCI-Geräte-Konfigurationsmenü finden Sie im OEM-Benutzerhandbuch. Abbildung 9-3.
9–iSCSI-Konfiguration iSCSI-Start 4. Wählen Sie auf der Seite „Main Configuration“ (Hauptkonfiguration) die Option NIC Configuration (NIC-Konfiguration) (Abbildung 9-4) aus und drücken dann auf ENTER (Eingabe). Abbildung 9-4.
9–iSCSI-Konfiguration Konfigurieren des iSCSI-Startvorgangs 5. Wählen Sie auf der Seite „NIC Configuration“ (NIC-Konfiguration) (Abbildung 9-5) die Option Boot Protocol (Boot-Protokoll) aus, und drücken Sie dann auf die EINGABETASTE, um UEFI iSCSI HBA auszuwählen (dafür ist der NPAR-Modus erforderlich). Abbildung 9-5. Systemeinrichtung: NIC-Konfiguration, Boot-Protokoll 6.
9–iSCSI-Konfiguration Konfigurieren des iSCSI-Startvorgangs Konfigurieren einer statischen iSCSI-Boot-Konfiguration In einer statischen Konfiguration müssen Sie die folgenden Daten eingeben: System-IP-Adresse System-Initiator IQN Zielparameter (abrufbar über “Konfigurieren des iSCSI-Ziels” auf Seite 127) Informationen über Konfigurationsoptionen finden Sie unter Tabelle 9-1 auf Seite 128. So konfigurieren Sie die iSCSI-Boot-Parameter in einer statischen Konfiguration: 1.
9–iSCSI-Konfiguration Konfigurieren des iSCSI-Startvorgangs 2. Wählen Sie auf der Seite „iSCSI Configuration“ (iSCSI-Konfiguration) die Option iSCSI General Parameters (Allgemeine iSCSI-Parameter) (Abbildung 9-7) aus und drücken dann auf ENTER (Eingabe). Abbildung 9-7. Systemeinrichtung: Auswählen allgemeiner Parameter 3.
9–iSCSI-Konfiguration Konfigurieren des iSCSI-Startvorgangs Virtual LAN ID (Virtuelle LAN-ID): Standardwert oder nach Bedarf Virtual LAN Mode (Virtueller LAN-Modus): Disabled (Deaktiviert) Abbildung 9-8. Systemeinrichtung: Allgemeine iSCSI-Parameter 4. Kehren Sie zur Seite „iSCSI Configuration“ (iSCSI-Konfiguration) zurück und drücken Sie auf die Taste ESC.
9–iSCSI-Konfiguration Konfigurieren des iSCSI-Startvorgangs 5. Wählen Sie die Option iSCSI Initiator Parameters (iSCSI-Initiatorparameter) (Abbildung 9-9) aus und drücken Sie ENTER (Eingabe). Abbildung 9-9. Systemeinrichtung: Auswählen von iSCSI Initiator-Parametern 6.
9–iSCSI-Konfiguration Konfigurieren des iSCSI-Startvorgangs ANMERKUNG Beachten Sie die folgenden für die vorgenannten Elemente mit einem Sternchen (*): Die Bezeichnung ändert sich auf Basis der auf der Seite „iSCSI General Parameters“ (Allgemeine iSCSI-Parameter) (Abbildung 9-8 auf Seite 135) eingestellten IP-Version in IPv6 oder IPv4 (Standardeinstellung). Geben Sie die IP-Adresse ein. Achten Sie dabei auf die korrekte Eingabe.
9–iSCSI-Konfiguration Konfigurieren des iSCSI-Startvorgangs 8. Wählen Sie die Option iSCSI First Target Parameters (Erste iSCSI-Zielparameter) (Abbildung 9-11) aus und drücken Sie ENTER (Eingabe). Abbildung 9-11. Systemeinrichtung: Auswählen der ersten iSCSI-Zielparameter 9. Setzen Sie auf der Seite „iSCSI First Target Parameters“ (Erste iSCSI-Zielparameter) die Option Connect (Verbinden) für das iSCSI-Ziel auf Enabled (Aktiviert). 10.
9–iSCSI-Konfiguration Konfigurieren des iSCSI-Startvorgangs CHAP Secret (CHAP-Geheimschlüssel) ANMERKUNG Für die vorgenannten Parameter mit einem Sternchen (*) ändert sich die Bezeichnung auf Basis der IP-Version, die auf der Seite „iSCSI General Parameter“ (Allgemeine iSCSI-Parameter) festgelegt wurde, in IPv6 oder IPv4 (Standardeinstellung). Siehe Abbildung 9-12. Abbildung 9-12. Systemeinrichtung: Parameter für das erste iSCSI-Ziel 11.
9–iSCSI-Konfiguration Konfigurieren des iSCSI-Startvorgangs 12. Wenn Sie ein zweites iSCSI-Zielgerät konfigurieren möchten, wählen Sie iSCSI Second Target Parameters (Zweite iSCSI-Zielparameter) (Abbildung 9-13) aus und geben Sie die Parameterwerte gemäß Schritt 10 ein. Fahren Sie ansonsten mit Schritt 13 fort. Abbildung 9-13. Systemeinrichtung: Parameter für das zweite iSCSI-Ziel 13. Drücken Sie einmal ESC und ein zweites Mal zum Beenden.
9–iSCSI-Konfiguration Konfigurieren des iSCSI-Startvorgangs 14. Klicken Sie zum Speichern der Änderungen auf Yes (Ja) oder folgen Sie den OEM-Richtlinien zum Speichern der Konfiguration auf Geräteebene. Klicken Sie beispielsweise auf Yes (Ja), um das Ändern der Einstellung zu bestätigen (Abbildung 9-14). Abbildung 9-14. Systemeinrichtung: Speichern der iSCSI-Änderungen 15.
9–iSCSI-Konfiguration Konfigurieren des iSCSI-Startvorgangs Informationen über Konfigurationsoptionen finden Sie unter Tabelle 9-1 auf Seite 128. ANMERKUNG Bei Verwendung eines DHCP-Servers werden die Einträge des DNS-Servers durch die vom DHCP-Server bereitgestellten Werte überschrieben. Dieses Überschreiben tritt selbst dann auf, wenn die lokal bereitgestellten Werte gültig sind und der DHCP-Server keine Daten über den DNS-Server zur Verfügung stellt.
9–iSCSI-Konfiguration Konfigurieren des iSCSI-Startvorgangs CHAP Authentication (CHAP-Authentifizierung): Nach Bedarf IP Version (IP-Version): Nach Bedarf (IPv4 oder IPv6) CHAP Mutual Authentication (Gegenseitige CHAP-Authentifizierung): Nach Bedarf DHCP Vendor ID (DHCP-Anbieter-ID): Nach Bedarf HBA Boot Mode (HBA-Boot-Modus): Disabled (Deaktiviert) Virtual LAN ID (Virtuelle LAN-ID): Nach Bedarf Virtual LAN Boot Mode (Virtueller LAN-Startmodus): Enabled (Aktiviert) Abbildung 9-15.
9–iSCSI-Konfiguration Konfigurieren des DHCP-Servers zur Unterstützung des iSCSI-Boot-Vorgangs CHAP Secret (CHAP-Geheimschlüssel, wenn Authentifizierung erforderlich ist; muss 12 bis 16 Zeichen lang sein) 4. Drücken Sie auf ESC, um zur Seite „iSCSI Boot configuration“ (iSCSI-Boot-Konfiguration) zurückzukehren. 5. Wählen Sie auf der Seite „iSCSI Boot configuration“ (iSCSI-Startkonfiguration) die Option iSCSI First Target Parameters (Erste iSCSI-Zielparameter) aus. 6.
9–iSCSI-Konfiguration Konfigurieren des DHCP-Servers zur Unterstützung des iSCSI-Boot-Vorgangs DHCP Option 17, Root Path Mit Hilfe von Option 17 werden Informationen über das iSCSI-Ziel an den iSCSI-Client übermittelt. Das Format für das Stammverzeichnis ist in IETC RFC 4173 definiert und lautet: "iscsi:"":"":"":"":"" Tabelle 9-2 listet die DHCP Option 17-Parameter auf. Tabelle 9-2.
9–iSCSI-Konfiguration Konfigurieren des DHCP-Servers zur Unterstützung des iSCSI-Boot-Vorgangs Tabelle 9-3 listet die Unteroptionen für DHCP Option 43 auf. Tabelle 9-3.
9–iSCSI-Konfiguration Konfigurieren des DHCP-Servers zur Unterstützung des iSCSI-Boot-Vorgangs Konfigurieren des DHCP iSCSI-Startvorgangs für IPv4 Der DHCPv6-Server stellt eine Anzahl von Optionen zur Verfügung, darunter eine zustandslose oder zustandbehaftete IP-Konfiguration sowie Informationen für den DHCPv6-Client.
9–iSCSI-Konfiguration Konfigurieren des DHCP-Servers zur Unterstützung des iSCSI-Boot-Vorgangs Tabelle 9-4.
9–iSCSI-Konfiguration iSCSI-Offload unter Windows Server 3. Wählen Sie VLAN ID (VLAN-ID) aus, um den VLAN-Wert einzugeben und festzulegen. Siehe dazu auch Abbildung 9-16. Abbildung 9-16.
9–iSCSI-Konfiguration iSCSI-Offload unter Windows Server iSCSI-Absturzspeicherabbild Installieren der QLogic-Treiber Installieren Sie die Windows-Treiber, wie unter “Installieren der Windows-Treibersoftware” auf Seite 17 beschrieben. Installieren von Microsoft iSCSI Software Initiator Rufen Sie das Microsoft-iSCSI-Initiator-Applet auf. Beim ersten Start fordert Sie das System dazu auf, einen automatischen Dienststart einzurichten. Bestätigen Sie die Auswahl, damit das Applet gestartet wird.
9–iSCSI-Konfiguration iSCSI-Offload unter Windows Server b. Klicken Sie auf der Seite „Configuration“ (Konfiguration) (Abbildung 9-17) zum Ändern des Initiatornamens auf Change (Ändern). Abbildung 9-17.
9–iSCSI-Konfiguration iSCSI-Offload unter Windows Server c. Geben Sie im Dialogfeld „iSCSI Initiator Name“ (iSCSI-Initiatorname) den neuen Initiator-IQN-Namen ein und klicken Sie auf OK. (Abbildung 9-18) Abbildung 9-18. Änderung des iSCSI-Initiator-Knotennamens 3. Klicken Sie unter „iSCSI Initiator Properties“ (Eigenschaften des iSCSI-Initiators) auf die Registerkarte Discovery (Ermittlung).
9–iSCSI-Konfiguration iSCSI-Offload unter Windows Server 4. Klicken Sie auf der Seite „Discovery“ (Ermittlung) (Abbildung 9-19) unter Target portals (Zielportale) auf Discover Portal (Portal ermitteln). Abbildung 9-19.
9–iSCSI-Konfiguration iSCSI-Offload unter Windows Server 5. Führen Sie im Dialogfeld „Discover Target Portal“ (Zielportal ermitteln) (Abbildung 9-20) die folgenden Schritte aus: a. Geben Sie in das Feld IP address or DNS name (IP-Adresse oder DNS-Name) die IP-Adresse des Ziels ein. b. Klicken Sie auf Advanced (Erweitert). Abbildung 9-20. IP-Adresse für das Zielportal 6.
9–iSCSI-Konfiguration iSCSI-Offload unter Windows Server c. Klicken Sie auf OK. Abbildung 9-21. Auswählen der Initiator-IP-Adresse 7. Klicken Sie auf der Seite „iSCSI Initiator Properties, Discovery“ (iSCSI-Initiator-Eigenschaften, Ermittlung) auf OK.
9–iSCSI-Konfiguration iSCSI-Offload unter Windows Server 8. Klicken Sie auf die Registerkarte Targets (Ziele) und dann auf der Seite „Targets“ (Ziele) (Abbildung 9-22) auf Connect (Verbinden). Abbildung 9-22.
9–iSCSI-Konfiguration iSCSI-Offload unter Windows Server 9. Klicken Sie im Dialogfeld „Connect To“ (Verbinden mit) (Abbildung 9-23) auf Advanced (Erweitert). Abbildung 9-23. Mit Ziel verbinden – Dialogfeld 10. Wählen Sie im Dialogfeld „Local Adapter“ (Lokaler Adapter) den QLogic Adapter aus und klicken Sie dann auf OK. 11. Klicken Sie erneut auf OK, um Microsoft Initiator zu schließen. 12. Zur Formatierung der iSCSI-Partition verwenden Sie die Datenträgerverwaltung.
9–iSCSI-Konfiguration iSCSI-Offload unter Windows Server Frage: Welche Werkzeuge soll ich verwenden, um die Verbindung mit dem Ziel herzustellen? Antwort: Verwenden Sie Microsoft iSCSI Software Initiator (ab Version 2.08). Frage: Woher weiß ich, dass sich die Verbindung im Offload-Modus befindet? Antwort: Verwenden Sie Microsoft iSCSI Software Initiator. Geben Sie in einer Befehlszeile oiscsicli sessionlist ein.
9–iSCSI-Konfiguration iSCSI-Offload in Linux-Umgebungen 6. Speichern Sie die Einstellungen, und starten Sie das System neu. Das Remote-System sollte eine Verbindung zum iSCSI-Ziel herstellen und dann vom DVD-ROM-Gerät starten. 7. Booten Sie von der DVD, und starten Sie die Installation. 8. Befolgen Sie die Anweisungen auf dem Bildschirm. Im Fenster, in dem die Liste der für die Installation verfügbaren Festplatten angezeigt wird, sollte auch das iSCSI-Ziellaufwerk angezeigt werden.
9–iSCSI-Konfiguration iSCSI-Offload in Linux-Umgebungen Diese Module müssen geladen werden, bevor qedi in Betrieb genommen werden kann. Ansonsten tritt möglicherweise ein Fehler der Art „unresolved symbol“ (nicht aufgelöstes Symbol) auf. Wenn das qedi-Modul im Aktualisierungspfad der Distribution installiert ist, wird die Erfordernis automatisch durch modprobe geladen. Dieser Abschnitt bietet die folgenden Informationen zum ISCSI-Offload in Linux. Unterschiede zu bnx2i Konfigurieren von qedi.
9–iSCSI-Konfiguration iSCSI-Offload in Linux-Umgebungen # modprobe uio # modprobe iscsi_boot_sysfs # modprobe qedi Überprüfen von iSCSI-Schnittstellen in Linux Nach der Installation und dem Laden des qedi-Kernel-Moduls müssen Sie sicherstellen, dass die iSCSI-Schnittstellen korrekt ermittelt wurden. So überprüfen Sie die iSCSI-Schnittstellen in Linux: 1. Um zu überprüfen, ob qedi und die verknüpften Kernel-Module aktiv geladen wurden, führen Sie den folgenden Befehl aus: # lsmod | grep qedi 2.
9–iSCSI-Konfiguration iSCSI-Offload in Linux-Umgebungen qedi.00:0e:1e:c4:e1:6c qedi,00:0e:1e:c4:e1:6c,192.168.25.91,,iqn.1994-05.com.redhat:534ca9b6adf 4. Um sicherzustellen, dass der iscsiuio-Dienst ausgeführt wird, führen Sie den folgenden Befehl aus: # systemctl status iscsiuio.service iscsiuio.service - iSCSI UserSpace I/O driver Loaded: loaded (/usr/lib/systemd/system/iscsiuio.
9–iSCSI-Konfiguration iSCSI-Offload in Linux-Umgebungen 7. Um zu überprüfen, ob die iSCSI-Sitzung erstellt wurde, führen Sie den folgenden Befehl aus: # iscsiadm -m session qedi: [297] 192.168.25.100:3260,1 iqn.2003-04.com.sanblaze:virtualun.virtualun.target-05000007 (non-flash) 8. Um nach iSCSI-Geräten zu suchen, führen Sie den Befehl iscsiadm aus: # iscsiadm -m session -P3 ...
9–iSCSI-Konfiguration iSCSI-Offload in Linux-Umgebungen So führen Sie einen Vorgang der Art „Booten über SAN“ über einen Software-Initiator mithilfe der Dell OEM-Lösungen aus: 1. Wählen Sie auf der Seite „NIC Configuration“ (NIC-Konfiguration) die Option Boot Protocol (Boot-Protokoll) aus, und drücken Sie dann auf EINGABE, um Legacy PXE (Legacy-PXE) auszuwählen. 2. Konfigurieren Sie den Initiator und die Zieleinträge. 3.
9–iSCSI-Konfiguration iSCSI-Offload in Linux-Umgebungen RHEL 6.9 iSCSI L4 – Migration für „Booten über SAN“ So migrieren Sie von einer Non-Offload-Schnittstelle auf eine Offload-Schnittstelle: 1. Booten Sie auf das iSCSI-Non-Offload-/L2-Booten-über-SAN-Betriebssystem. Geben Sie die folgenden Befehle aus, um die open-iscsi- und iscsiuio-RPMs zu installieren: # rpm -ivh --force qlgc-open-iscsi-2.0_873.111-1.x86_64.rpm # rpm -ivh --force iscsiuio-2.11.5.2-1.rhel6u9.x86_64.rpm 2.
9–iSCSI-Konfiguration iSCSI-Offload in Linux-Umgebungen # Default for Fedora and RHEL. (uncomment to activate). #iscsid.startup = /etc/rc.d/init.d/iscsid force-start # # Default for upstream open-iscsi scripts (uncomment to activate). iscsid.startup = /sbin/iscsid 4. Erstellen Sie einen Iface-Datensatz für eine L4-Schnittstelle: Geben Sie den folgenden Befehl aus: # iscsiadm -m iface -I qedi.14:02:ec:ce:dc:71 -o new New interface qedi.
9–iSCSI-Konfiguration iSCSI-Offload in Linux-Umgebungen kernel /vmlinuz-2.6.32-696.el6.x86_64 ro root=/dev/mapper/vg_prebooteit-lv_root rd_NO_LUKS iscsi_firmware LANG=en_US.UTF-8 rd_NO_MD SYSFONT=latarcyrheb-sun16 crashkernel=auto rd_NO_DM rd_LVM_LV=vg_prebooteit/lv_swap KEYBOARDTYPE=pc KEYTABLE=us rd_LVM_LV=vg_prebooteit/lv_root selinux=0 initrd /initramfs-2.6.32-696.el6.x86_64.img 7. Erstellen Sie die Datei initramfs, indem Sie den folgenden Befehl ausgeben: # dracut -f 8.
9–iSCSI-Konfiguration iSCSI-Offload in Linux-Umgebungen RHEL 7.2/7.3 iSCSI L4 – Migration für „Booten über SAN“ So migrieren Sie von einer Non-Offload-Schnittstelle auf eine Offload-Schnittstelle: 1. Aktualisieren Sie die open-iscisi-Werkzeuge und iscsiuio, indem Sie die folgenden Befehle ausgeben: #rpm -ivh qlgc-open-iscsi-2.0_873.111.rhel7u3-3.x86_64.rpm --force #rpm -ivh iscsiuio-2.11.5.3-2.rhel7u3.x86_64.rpm --force 2.
9–iSCSI-Konfiguration iSCSI-Offload in Linux-Umgebungen Fügen Sie || [ "$transport" = qedi ] wie folgt zum IF-Ausdruck hinzu: if [ "$transport" = bnx2i ] || [ "$transport" = qedi ]; then start_iscsiuio=1 8. Bearbeiten Sie die Datei /etc/default/grub, und suchen Sie anschließend die folgende Aussage: GRUB_CMDLINE_LINUX="iscsi_firmware ip=ibft" Ändern Sie diese Aussage in: GRUB_CMDLINE_LINUX="rd.iscsi.firmware" 9. Erstellen Sie eine neue grub.
9–iSCSI-Konfiguration iSCSI-Offload in Linux-Umgebungen 15. Speichern Sie die Konfiguration, und starten Sie den Server neu. ANMERKUNG Das BS kann nun über die Offload-Schnittstelle gestartet werden. SLES 11 SP4 iSCSI L4 – Migration für „Booten über SAN“ So migrieren Sie von einer Non-Offload-Schnittstelle auf eine Offload-Schnittstelle: 1. Aktualisieren Sie die open-iscsi-Werkzeuge auf die neuesten verfügbaren Versionen, indem Sie die folgenden Befehle ausführen: # rpm -ivh qlgc-open-iscsi-2.0_873.
9–iSCSI-Konfiguration iSCSI-Offload in Linux-Umgebungen 7. Starten Sie den Server neu, und öffnen Sie dann die HII. 8. Aktivieren Sie in der HII den iSCSI-Offload-Modus: a. Wählen Sie auf der Seite „Main Configuration“ (Hauptkonfiguration) System Setup (Systemeinrichtung) und Device Settings (Geräteinstellungen) aus. b. Wählen Sie auf der Seite „Device Settings“ (Geräteeinstellungen) den Port aus, auf dem die iSCSI-Boot-Firmware-Tabelle (iBFT) konfiguriert wurde. c.
9–iSCSI-Konfiguration iSCSI-Offload in Linux-Umgebungen 3. Aktivieren Sie die iscsid- und iscsiuio-Dienste, wenn sie nicht bereits aktiviert wurden. Geben Sie dazu die folgenden Befehle aus: # systemctl enable iscsid # systemctl enable iscsiuio 4. Geben Sie den folgenden Befehl aus: cat /proc/cmdline 5. Überprüfen Sie, ob das BS Startoptionen bewahrt hat, z. B. ip=ibft oder rd.iscsi.ibft. 6. 7. Bearbeiten Sie die Datei /etc/default/grub und ändern Sie den Wert GRUB_CMDLINE_LINUX. a.
9–iSCSI-Konfiguration iSCSI-Offload in Linux-Umgebungen 13. Aktivieren Sie in der HII den iSCSI-Offload-Modus: a. Wählen Sie auf der Seite „Main Configuration“ (Hauptkonfiguration) System Setup (Systemeinrichtung) und Device Settings (Geräteinstellungen) aus. b. Wählen Sie auf der Seite „Device Settings“ (Geräteeinstellungen) den Port aus, auf dem die iSCSI-Boot-Firmware-Tabelle (iBFT) konfiguriert wurde. c.
9–iSCSI-Konfiguration iSCSI-Offload in Linux-Umgebungen 4. Führen Sie zum Laden des Multipfad-Moduls den folgenden Befehl aus: modprobe dm_multipath 5. Führen Sie zum Aktivieren des Multipfad-Daemon die folgenden Befehle aus: systemctl start multipathd.service systemctl enable multipathd.service systemctl start multipathd.socket 6. Führen Sie zum Hinzufügen von Geräten zum Multipfad die folgenden Befehle aus: multipath -a /dev/sda multipath -a /dev/sdb 7.
9–iSCSI-Konfiguration iSCSI-Offload in Linux-Umgebungen 11. e. Setzen Sie auf der Seite „Partition 3 Configuration“ (Konfiguration Partition 3) iSCSI Offload Mode (iSCSI-Offload-Modus) auf Enabled (Aktiviert). f. Gehen Sie zur Seite „Main Configuration“ (Hauptkonfiguration), und wählen Sie dort iSCSI Configuration (iSCSI-Konfiguration) aus. g. Wählen Sie auf der Seite „iSCSI Configuration“ (iSCSI-Konfiguration) die Option iSCSI General Parameters (Allgemeine iSCSI-Parameter) aus. h.
9–iSCSI-Konfiguration Konfigurieren des iSCSI-Startvorgangs über SAN für RHEL ab Version 7.4 Konfigurieren des iSCSI-Startvorgangs über SAN für RHEL ab Version 7.4 So installieren Sie RHEL ab Version 7.4: 1. Starten Sie vom RHEL 7.x-Installationsdatenträger, wobei das iSCSI-Ziel bereits mit UEFI verbunden sein muss. Install Red Hat Enterprise Linux 7.x Test this media & install Red Hat Enterprise 7.
9–iSCSI-Konfiguration Konfigurieren des iSCSI-Startvorgangs über SAN für RHEL ab Version 7.4 Figure 9-24. Aufforderung zur Installation des vorkonfigurierten Treibers 6. Falls in Ihrer Konfiguration erforderlich, laden Sie den Datenträger mit dem FastLinQ-Treiber-Update, wenn Sie dazu aufgefordert werden, weitere Treiber-Datenträger einzulegen. Geben Sie ansonsten den Befehl c ein, wenn es keine weiteren Treiber-Update-Datenträger für die Installation mehr gibt. 7. Setzen Sie die Installation fort.
9–iSCSI-Konfiguration Konfigurieren des iSCSI-Startvorgangs über SAN für RHEL ab Version 7.4 8. Wählen Sie im Fenster „Configuration“ (Konfiguration) (Abbildung 9-25) die Sprache aus, die während des Installationsvorgangs verwendet werden soll, und klicken Sie dann auf Continue (Weiter). Figure 9-25. Konfiguration von Red Hat Enterprise Linux 7.4 9. Klicken Sie im Fenster „Installation Summary“ (Installationszusammenfassung) auf Installation Destination (Installationsziel).
9–iSCSI-Konfiguration Konfigurieren des iSCSI-Startvorgangs über SAN für RHEL ab Version 7.4 Ändern Sie die Aussage in: if [ "$transport" = bnx2i ] || [ "$transport" = qedi ]; then 15. Führen Sie einen Unmount-Vorgang des Dateisystems durch, indem Sie den folgenden Befehl ausgeben: # umount /sysroot 16. Starten Sie den Server neu, und fügen Sie die folgenden Parameter zur Befehlszeile hinzu: rd.iscsi.firmware rd.driver.pre=qed,qedi (zum Laden aller Treiber pre=qed,qedi,qedi,qedf) selinux=0 17.
10 FCoE-Konfiguration In diesem Abschnitt finden Sie die folgenden Informationen zur Fibre Channel over Ethernet (FCoE)-Konfiguration: FCoE – Starten über SAN „Einfügen (Slipstreaming) der Adaptertreiber in die Windows-Imagedateien“ auf Seite 188 „Konfigurieren von Linux FCoE-Offload“ auf Seite 189 „Unterschiede zwischen qedf und bnx2fc“ auf Seite 190 „Konfigurieren von qedf.
10–FCoE-Konfiguration FCoE – Starten über SAN Vorbereiten des System-BIOS auf den Aufbau und das Starten von FCoE Um das System-BIOS vorzubereiten, passen Sie die Systemstartreihenfolge an und definieren Sie, falls erforderlich, das BIOS-Startprotokoll. Definieren des BIOS-Startprotokolls Das Starten von FCoE von einem SAN wird nur im UEFI-Modus unterstützt. Setzen Sie die Plattform im Startmodus (Protokoll) über die System-BIOS-Konfiguration auf „UEFI“.
10–FCoE-Konfiguration FCoE – Starten über SAN ANMERKUNG „Start Boot“ (Starten über SAN) wird nur in UEFI-Umgebungen unterstützt. Stellen Sie sicher, dass „UEFI“ als System-Startoption und nicht „Legacy“ eingestellt ist. 3. Wählen Sie auf der Seite „Device Settings“ (Geräteeinstellungen) das QLogic-Gerät (Abbildung 10-2) aus. Abbildung 10-2. Systemeinrichtung: Geräteeinstellungen, Port-Auswahl 4.
10–FCoE-Konfiguration FCoE – Starten über SAN Abbildung 10-3. Systemeinrichtung: NIC-Konfiguration 5. Wählen Sie auf der Seite „NIC Configuration“ (NIC-Konfiguration) die Option Boot Mode (Startmodus) aus und drücken Sie dann auf ENTER (Eingabe), um FCoE als bevorzugten Startmodus auszuwählen. ANMERKUNG FCoE wird nicht als Startoption aufgeführt, wenn die Funktion FCoE Mode (FCoE-Modus) auf der Port-Ebene deaktiviert wurde.
10–FCoE-Konfiguration FCoE – Starten über SAN Abbildung 10-4. Systemeinrichtung: FCoE-Modus aktiviert So konfigurieren Sie die FCoE-Startparameter: 1. Wählen Sie auf der Seite „Main Configuration“ (Hauptkonfiguration) die Option FCoE-Configuration (FCoE-Konfiguration) aus und drücken dann auf ENTER (Eingabe). 2. Wählen Sie auf der Seite „FCoE Configuration“ (FCoE-Konfiguration) die Option FCoE General Parameters (Allgemeine FCoE-Parameter) aus und drücken dann auf ENTER (Eingabe). 3.
10–FCoE-Konfiguration FCoE – Starten über SAN Abbildung 10-5. Systemeinrichtung: Allgemeine FCoE-Parameter 4. Kehren Sie zurück zur FCoE-Konfigurationsseite zurück. 5. Drücken Sie auf ESC und wählen Sie dann FCoE Target Parameter (FCoE-Zielparameter) aus. 6. Drücken Sie ENTER (Eingabe). 7. Aktivieren Sie im Menü „FCoE Target Parameters“ (FCoE-Zielparameter) die Option Connect (Verbinden) für das bevorzugte FCoE-Ziel. 8.
10–FCoE-Konfiguration FCoE – Starten über SAN Abbildung 10-6.
10–FCoE-Konfiguration FCoE – Starten über SAN 3. Laden Sie die aktuellsten QLogic FCoE-Boot-Abbilder auf den NVRAM des Adapters. 4. Konfigurieren Sie das FCoE-Ziel, um eine Verbindung vom Remote-Gerät zuzulassen. Vergewissern Sie sich, dass das Ziel über ausreichend Speicherplatz für die neue Betriebssysteminstallation verfügt. 5. Konfigurieren Sie UEFI HII zum Festlegen des FCoE-Starttyps auf dem Adapter-Port, korrigieren Sie den Initiator und die Zielparameter für den FCoE-Start. 6.
10–FCoE-Konfiguration Einfügen (Slipstreaming) der Adaptertreiber in die Windows-Imagedateien Einfügen (Slipstreaming) der Adaptertreiber in die Windows-Imagedateien So fügen Sie Adaptertreiber in die Windows-Imagedateien ein: 1. Rufen Sie das aktuellste Treiberpaket für die jeweilige Windows Server-Version (2012, 2012 R2 oder 2016) ab. 2. Extrahieren Sie dieses Treiberpaket in ein Arbeitsverzeichnis: a.
10–FCoE-Konfiguration Konfigurieren von Linux FCoE-Offload ANMERKUNG Beachten Sie den folgenden Hinweis zum Betriebssystem-Installationsmedium: Das Betriebssystem-Installationsmedium muss ein lokales Laufwerk sein. Netzwerkpfade als Betriebssystem-Installationsmedien werden nicht unterstützt. Das Script slipstream.bat fügt die Treiberkomponenten in alle SKUs ein, die durch das Betriebssystem-Installationsmedium unterstützt werden. 6.
10–FCoE-Konfiguration Unterschiede zwischen qedf und bnx2fc ANMERKUNG Wenn die Installation mit SLES 11 oder SLES 12 erfolgt, wird der Parameter withfcoe=1 nicht benötigt, da Adapter der 41xxx-Serie den Software-FCoE-Daemon nicht mehr benötigt. Unterschiede zwischen qedf und bnx2fc Zwischen qedf, dem Treiber für den Cavium FastLinQ 41xxx 10/25GbE Controller (FCoE), und dem vorherigen Cavium FCoE-Offload-Treiber, bnx2fc, bestehen signifikante Unterschiede.
10–FCoE-Konfiguration Überprüfen von FCoE-Geräten in Linux ANMERKUNG Weitere Informationen zur FastLinQ-Treiberinstallation finden Sie unter Kapitel 3 Treiberinstallation. Das Kernelmodul „load qedf.ko“ führt die folgenden Schritte aus: # modprobe qed # modprobe libfcoe # modprobe qedf Überprüfen von FCoE-Geräten in Linux Führen Sie die folgenden Schritte aus, um zu überprüfen, ob die FCoE-Geräte nach der Installation und dem Laden des qedf-Kernelmoduls korrekt ermittelt wurden.
10–FCoE-Konfiguration Konfigurieren des FCoE-Startvorgangs über SAN für RHEL ab Version 7.4 .... [ 243.991851] [0000:21:00.3]: [qedf_link_update:489]:5: LINK UP (40 GB/s). 3. Prüfen Sie auf ermittelte FCoE-Geräte über lsblk -S: # lsblk -S NAME HCTL TYPE VENDOR MODEL REV TRAN sdb 5:0:0:0 disk SANBlaze VLUN P2T1L0 V7.3 fc sdc 5:0:0:1 disk SANBlaze VLUN P2T1L1 V7.3 fc sdd 5:0:0:2 disk SANBlaze VLUN P2T1L2 V7.3 fc sde 5:0:0:3 disk SANBlaze VLUN P2T1L3 V7.
10–FCoE-Konfiguration Konfigurieren des FCoE-Startvorgangs über SAN für RHEL ab Version 7.4 4. Führen Sie den folgenden Befehl aus und drücken Sie dann auf die EINGABETASTE. linux dd modprobe.blacklist=qed modprobe.blacklist=qede modprobe.blacklist=qedr modprobe.blacklist=qedi modprobe.blacklist=qedf Sie können die Option inst.dd statt der Option linux dd verwenden. 5.
10–FCoE-Konfiguration Konfigurieren des FCoE-Startvorgangs über SAN für RHEL ab Version 7.4 6. Falls in Ihrer Konfiguration erforderlich, laden Sie den Datenträger mit dem FastLinQ-Treiber-Update, wenn Sie dazu aufgefordert werden, weitere Treiber-Datenträger einzulegen. Geben Sie ansonsten den Befehl c ein, wenn es keine weiteren Treiber-Update-Datenträger für die Installation mehr gibt. 7. Setzen Sie die Installation fort. Sie können den Datenträgertest übergehen.
10–FCoE-Konfiguration Konfigurieren des FCoE-Startvorgangs über SAN für RHEL ab Version 7.4 14. Bauen Sie die Ramdisk neu auf, indem Sie den Befehl dracut -f ausführen und anschließend einen Neustart einleiten. ANMERKUNG Deaktivieren Sie die Dienste „lldpad“ und „fcoe“, die für Software-FCoE verwendet werden.
11 SR-IOV-Konfiguration SR-IOV (Single Root Input/Output-Virtualisierung) ist eine Spezifikation von PCI SIG, mit der ein einzelnes PCIe-Gerät als mehrere, separate physische PCIe-Geräte angezeigt werden kann. SR-IOV ermöglicht die Isolation von PCIe-Ressourcen zum Zwecke der Leistung, Interoperabilität und Verwaltbarkeit. ANMERKUNG Einige SR-IOV-Funktionen sind in der aktuellen Version möglicherweise nicht vollständig aktiviert.
11–SR-IOV-Konfiguration Konfigurieren von SR-IOV unter Windows Abbildung 11-1. Systemeinrichtung für SR-IOV: Integrierte Geräte 4. Klicken Sie auf der Seite „Main Configuration“ (Hauptkonfiguration) für den ausgewählte Adapter auf Device Level Configuration (Konfiguration auf Geräteebene). 5. Führen Sie auf der Seite „Main Configuration“ (Hauptkonfiguration) unter „Device Level Configuration“ (Konfiguration auf Geräteebene) (Abbildung 11-2) die folgenden Schritte aus: a.
11–SR-IOV-Konfiguration Konfigurieren von SR-IOV unter Windows 7. Wenn das Nachrichtenfeld „Warning - Saving Changes“ (Warnung – Änderungen werden gespeichert) angezeigt wird, klicken Sie zum Speichern der Konfiguration auf Yes (Ja). 8. Klicken Sie im Nachrichtenfeld „Success - Saving Changes“ (Erfolg – Änderungen werden gespeichert) auf OK. 9. So aktivieren Sie SR-IOV auf dem Miniport-Adapter: a. Rufen Sie den Geräte-Manager auf. b.
11–SR-IOV-Konfiguration Konfigurieren von SR-IOV unter Windows e. Aktivieren Sie das Kontrollkästchen Enable single-root I/O virtualization (SR-IOV) (Single-Root-E/A-Virtualisierung (SR-IOV) aktivieren) und klicken Sie dann auf Apply (Anwenden). ANMERKUNG Stellen Sie sicher, dass Sie bei der Erstellung des virtuellen Switches SR-IOV aktivieren. Diese Option ist nach der Erstellung des virtuellen Switches nicht mehr verfügbar. Abbildung 11-4.
11–SR-IOV-Konfiguration Konfigurieren von SR-IOV unter Windows f. 11. Das Nachrichtenfeld „Apply Networking Changes“ (Netzwerkänderungen anwenden) zeigt an, dass ausstehende Änderungen die Netzwerkkonnektivität unterbrechen können. Klicken Sie zum Speichern Ihrer Änderungen und zum Fortfahren auf Yes (Ja). Um den Funktionsumfang des Switches für die virtuelle Maschine nutzen zu können, führen Sie den folgenden Windows PowerShell-Befehl aus: PS C:\Users\Administrator> Get-VMSwitch -Name SR-IOV_vSwitch |
11–SR-IOV-Konfiguration Konfigurieren von SR-IOV unter Windows Abbildung 11-5. Einstellungen für VM: SR-IOV aktivieren 13. Installieren Sie die QLogic-Treiber für die in der VM erkannten Adapter. Verwenden Sie die neuesten Treiber Ihres Host-Betriebssystemherstellers (verwenden Sie nicht die enthaltenen Treiber). ANMERKUNG Stellen Sie sicher, dass Sie dasselbe Treiberpaket auf der virtuellen Maschine und dem Host-System verwenden.
11–SR-IOV-Konfiguration Konfigurieren von SR-IOV unter Windows Nach der Installation der Treiber wird der QLogic-Adapter in der VM aufgelistet. Abbildung 11-6 zeigt ein Beispiel. Abbildung 11-6. Geräte-Manager: VM mit QLogic-Adapter 14. Führen Sie zum Anzeigen der SR-IOV-VF-Details den folgenden Windows PowerShell-Befehl aus: PS C:\Users\Administrator> Get-NetadapterSriovVf Abbildung 11-7 zeigt ein Beispiel für die Ausgabe an. Abbildung 11-7.
11–SR-IOV-Konfiguration Konfigurieren von SR-IOV unter Linux Konfigurieren von SR-IOV unter Linux So konfigurieren Sie SR-IOV unter Linux: 1. Rufen Sie die Systemeinrichtung für das Server-BIOS auf und klicken dann auf System BIOS Settings (System-BIOS-Einstellungen). 2. Klicken Sie auf der Seite „System BIOS Settings“ (Sytem-BIOS-Einstellungen) auf Integrated Devices (Integrierte Geräte). 3.
11–SR-IOV-Konfiguration Konfigurieren von SR-IOV unter Linux Abbildung 11-8. Systemeinrichtung: Prozessoreinstellungen für SR-IOV 6. Wählen Sie auf der Seite „System Setup“ (Systemeinrichtung) die Option „Device Settings“ (Geräteeinstellungen) aus. 7. Wählen Sie auf der Seite „Device Settings“ (Geräteeinstellungen) Port 1 für den QLogic-Adapter aus. 8. Führen Sie auf der Seite „Device Level Configuration“ (Konfiguration auf Geräteebene) (Abbildung 11-9) die folgenden Schritte aus: a.
11–SR-IOV-Konfiguration Konfigurieren von SR-IOV unter Linux Abbildung 11-9. Systemeinrichtung für SR-IOV: Integrierte Geräte 9. Klicken Sie auf der Seite „Main Configuration“ (Hauptkonfiguration) auf Finish (Fertigstellen), speichern Sie Ihre Einstellungen und starten Sie das System anschließend neu. 10. So aktivieren und überprüfen Sie die Virtualisierung: a. Öffnen Sie die Datei grub.conf und konfigurieren Sie den Parameter iommu, wie unter Abbildung 11-10 dargestellt.
11–SR-IOV-Konfiguration Konfigurieren von SR-IOV unter Linux Abbildung 11-10. Bearbeiten der Datei „grub.conf“ für SR-IOV b. Speichern Sie die Datei grub.conf und starten Sie das System anschließend neu. c. Um zu überprüfen, ob die Änderungen umgesetzt wurden, führen Sie den folgenden Befehl aus: dmesg | grep -I iommu Das Ergebnis eines erfolgreichen Befehls für die E/A-Ausgabe-Speicherverwaltungseinheit (IOMMU) könnte beispielsweise wie folgt aussehen: Intel-IOMMU: enabled d.
11–SR-IOV-Konfiguration Konfigurieren von SR-IOV unter Linux 11. Aktivieren Sie für einen spezifischen Port eine VF-Menge. a. Führen Sie den folgenden Befehl aus, um beispielsweise 8 VFs auf der PCI-Instanz 04:00.0 (Bus 4, Gerät 0, Funktion 0) zu aktivieren: [root@ah-rh68 ~]# echo 8 > /sys/devices/pci0000:00/0000:00:02.0/0000:04:00.0/sriov_numvfs b. Überprüfen Sie die Befehlsausgabe (Abbildung 11-11), um zu bestätigen, dass tatsächliche VFs auf dem Bus 4, auf Gerät 2 (über den Parameter 0000:00:02.
11–SR-IOV-Konfiguration Konfigurieren von SR-IOV unter Linux Abbildung 11-12 zeigt ein Beispiel für die Ausgabe an. Abbildung 11-12. Befehlsausgabe für den Befehl „ip link show“ 13. Weisen Sie MAC-Adressen zu und überprüfen Sie diese: a. Führen Sie zum Zuweisen einer MAC-Adresse auf der VF den folgenden Befehl aus: ip link set vf mac b. 14. Stellen Sie sicher, dass die VF-Schnittstelle mit der zugewiesenen Schnittstelle betriebsbereit ist.
11–SR-IOV-Konfiguration Konfigurieren von SR-IOV unter Linux Abbildung 11-13. RHEL68 – Virtuelle Maschine b. Klicken Sie im linken Fenster des Dialogfelds „Add New Virtual Hardware“ (Neue virtuelle Hardware hinzufügen) (Abbildung 11-14) auf PCI Host Device (PCI-Host-Gerät). c. Wählen Sie im rechten Fenster ein Host-Gerät aus. d. Klicken Sie auf Finish (Fertigstellen).
11–SR-IOV-Konfiguration Konfigurieren von SR-IOV unter VMware Abbildung 11-14. Neue virtuelle Hardware hinzufügen 15. Schalten Sie die virtuelle Maschine ein und führen Sie dann den folgenden Befehl aus: check lspci -vv|grep -I ether 16. Installieren Sie die Treiber für die in der VM erkannten Adapter. Verwenden Sie die neuesten Treiber Ihres Host-Betriebssystemherstellers (verwenden Sie nicht die enthaltenen Treiber). Es muss die gleiche Treiberversion auf dem Host und der VM installiert sein. 17.
11–SR-IOV-Konfiguration Konfigurieren von SR-IOV unter VMware 5. Wählen Sie auf der Seite „Device Settings“ (Geräteeinstellungen) einen Port für den 25-G-Adapter der 41xxx-Serie. 6. Führen Sie auf der Seite „Device Level Configuration“ (Konfiguration auf Geräteebene) (Abbildung 11-2 auf Seite 197) die folgenden Schritte aus: a. Setzen Sie Virtualization Mode (Virtualisierungsmodus) auf SR-IOV. b. Klicken Sie auf Back (Zurück). 7.
11–SR-IOV-Konfiguration Konfigurieren von SR-IOV unter VMware 0000:05:02.3 Network controller: QLogic Corp. QLogic FastLinQ QL41xQL41xxxxx Series 10/25 GbE Controller (SR-IOV VF) [PF_0.5.0_VF_3] . . . 0000:05:03.7 Network controller: QLogic Corp. QLogic FastLinQ QL41xxx Series 10/25 GbE Controller (SR-IOV VF) [PF_0.5.0_VF_15] 0000:05:0e.0 Network controller: QLogic Corp. QLogic FastLinQ QL41xxx Series 10/25 GbE Controller (SR-IOV VF) [PF_0.5.1_VF_0] 0000:05:0e.1 Network controller: QLogic Corp.
11–SR-IOV-Konfiguration Konfigurieren von SR-IOV unter VMware Abbildung 11-15. VMware-Host – Einstellungen bearbeiten 15. Um die VFs pro Port zu überprüfen, führen Sie den Befehl esxcli wie folgt aus: [root@localhost:~] esxcli network sriovnic vf list -n vmnic6 VF ID Active PCI Address Owner World ID ----- ------ ----------- -------------- 0 true 005:02.
11–SR-IOV-Konfiguration Konfigurieren von SR-IOV unter VMware 1 true 005:02.1 60591 2 false 005:02.2 - 3 false 005:02.3 - 4 false 005:02.4 - 5 false 005:02.5 - 6 false 005:02.6 - 7 false 005:02.7 - 8 false 005:03.0 - 9 false 005:03.1 - 10 false 005:03.2 - 11 false 005:03.3 - 12 false 005:03.4 - 13 false 005:03.5 - 14 false 005:03.6 - 15 false 005:03.7 - 16. Installieren Sie die QLogic-Treiber für die in der VM erkannten Adapter.
12 NVMe-oF-Konfiguration mit RDMA Mit der Funktion für den Zugriff auf den nicht-flüchtigen Speicher über Fabrics (NVMe-oF) ist es möglich, die Verwendung alternativer Transportmöglichkeiten auf PCIe zu aktivieren, um die Spanne zu erweitern, über die ein NVMe-Host-Gerät und ein NVMe-Speichertreiber oder Subsystem sich miteinander verbinden können.
12–NVMe-oF-Konfiguration mit RDMA Abbildung 12-1 stellt ein Beispielnetzwerk dar. Adapter der 41xxx-Serie Adapter der 41xxx-Serie Abbildung 12-1. NVMe-oF-Netzwerk Der NVMe-oF-Konfigurationsprozess umfasst die folgenden Verfahren: 1. Installieren von Gerätetreibern auf beiden Servern 2. Konfigurieren des Zielservers 3. Konfigurieren des Initiatorservers 4. Vorbehandeln des Zielservers 5. Testen der NVMe-oF-Geräte 6.
12–NVMe-oF-Konfiguration mit RDMA Installieren von Gerätetreibern auf beiden Servern Installieren von Gerätetreibern auf beiden Servern Installieren Sie nach der Installation Ihres Betriebssystems (RHEL 7.4 oder SLES 12 SP3) die Gerätetreiber auf beiden Servern. Gehen Sie zum Aufrüsten des Kernels auf den aktuellen Linux-Upstream-Kernel zu . https://www.kernel.org/pub/linux/kernel/v4.x/ 1.
12–NVMe-oF-Konfiguration mit RDMA Konfigurieren des Zielservers f. Wenn Änderungen am Kernel vorgenommen wurden, starten Sie in diesen neuen BS-Kernel neu. Weitere Anweisungen zum Festlegen des Standard-Startkernel finden Sie unter: https://wiki.centos.org/HowTos/Grub2 3. Aktivieren und starten Sie den RDMA-Dienst wie folgt: # systemctl enable rdma.service # systemctl start rdma.service Ignorieren Sie den Fehler RDMA Service Failed (RDMA-Dienst fehlgeschlagen).
12–NVMe-oF-Konfiguration mit RDMA Konfigurieren des Zielservers 4. Legen Sie die unter Tabelle 12-1 aufgelisteten Zielparameter fest. Tabelle 12-1. Zielparameter Befehl Beschreibung # echo 1 > attr_allow_any_host Ermöglichen Sie es allen Hosts, eine Verbindung aufzubauen. # mkdir namespaces/1 Erstellen Sie einen Namespace. # echo -n /dev/nvme0n1 >namespaces/ 1/device_path Legen Sie den NVMe-Gerätepfad fest. Der NVMe-Gerätepfad kann sich von System zu System unterscheiden.
12–NVMe-oF-Konfiguration mit RDMA Konfigurieren des Initiatorservers 6. Bestätigen Sie wie folgt, dass das NVMe-Ziel auf dem Port hört: # dmesg | grep nvmet_rdma [ 8769.470043] nvmet_rdma: enabling port 1 (1.1.1.1:4420) Konfigurieren des Initiatorservers Sie konfigurieren den Initiator-Server nach dem Neustartprozess. Sobald der Server betriebsbereit ist, ist für alle Änderungen an der Konfiguration ein Neustart erforderlich.
12–NVMe-oF-Konfiguration mit RDMA Konfigurieren des Initiatorservers Abbildung 12-2. Subsystem-NQN 5. Stellen Sie anhand der NQN eine Verbindung zum ermittelten NVMe-oF-Ziel (nvme-qlogic-tgt1) her. Führen Sie den folgenden Befehl nach jedem einzelnen Server-Neustart aus. Zum Beispiel: # nvme connect -t rdma -n nvme-qlogic-tgt1 -a 1.1.1.1 -s 1023 6. Bestätigen Sie wie folgt die NVMe-oF-Zielverbindung mit dem NVMe-oF-Gerät: # dmesg | grep nvme # lsblk # list nvme Abbildung 12-3 zeigt ein Beispiel.
12–NVMe-oF-Konfiguration mit RDMA Vorbehandeln des Zielservers Vorbehandeln des Zielservers NVMe-Zielserver, die vorkonfiguriert getestet werden, zeigen eine höhere Leistung als erwartet. Bevor Sie einen Benchmarking-Test durchführen, muss der Zielserver zunächst vorausgefüllt oder vorbehandelt werden. So behandeln Sie den Zielserver vor: 1. Führen Sie ein sicheres Löschen (Secure-Erase) des Zielservers mit anbieterspezifischen Werkzeugen (ähnlich dem Formatieren) durch.
12–NVMe-oF-Konfiguration mit RDMA Testen der NVMe-oF-Geräte 2. Führen Sie das FIO-Dienstprogramm aus, um die Latenz des Initiator-NVMe-oF-Geräts zu messen. Geben Sie den folgenden Befehl aus: # fio --filename=/dev/nvme0n1 --direct=1 --time_based --rw=randread --refill_buffers --norandommap --randrepeat=0 --ioengine=libaio --bs=4k --iodepth=1 --numjobs=1 --runtime=60 --group_reporting --name=temp.out FIO meldet zwei Latenztypen: Übermittlung und Fertigstellung.
12–NVMe-oF-Konfiguration mit RDMA Optimieren der Leistung Optimieren der Leistung So optimieren Sie die Leistung auf dem Initiator- und dem Zielserver: 1. Konfigurieren Sie die folgenden System-BIOS-Einstellungen: 2.
12–NVMe-oF-Konfiguration mit RDMA Optimieren der Leistung 4. Legen Sie das CPU-Intervall fest. Die cpufreq.sh-Datei ist eine Script-Datei, die unter „CPU-Intervall (cpufreq.sh)“ auf Seite 226 aufgeführt ist. # ./cpufreq.sh In den folgenden Abschnitten werden die Scripte aufgeführt, die in Schritt 3 und 4 verwendet werden. .IRQ-Affinität (multi_rss-affin.sh) Das folgende Script legt die IRQ-Affinität fest.
12–NVMe-oF-Konfiguration mit RDMA Optimieren der Leistung fi done done CPU-Intervall (cpufreq.sh) Mit dem folgenden Script wird das CPU-Intervall festgelegt. #Usage "./nameofscript.
13 Windows Server 2016 Dieser Abschnitt enthält die folgenden Informationen zu Windows Server 2016: Konfigurieren von RoCE-Schnittstellen mit Hyper-V „RoCE über Switch – Eingebettetes Teaming“ auf Seite 233 „Konfigurieren von QoS für RoCE“ auf Seite 235 „Konfigurieren von VMMQ“ auf Seite 243 „Konfigurieren von VXLAN“ auf Seite 250 „Konfigurieren der Funktion „Direkte Speicherplätze““ auf Seite 252 „Implementieren und Verwalten eines Nano-Servers“ auf Seite 259 Konfigurieren von
13–Windows Server 2016 Konfigurieren von RoCE-Schnittstellen mit Hyper-V Erstellen eines virtuellen Hyper-V-Switches mit einer virtuellen RDMA-NIC Führen Sie die in diesem Abschnitt beschriebenen Schritte aus, um einen virtuellen Hyper-V-Switch zu erstellen und RDMA in der VNIC zu aktivieren. So erstellen Sie einen virtuellen Hyper-V-Switch mit einer virtuellen RDMA-NIC: 1. Starten Sie Hyper-V Manager. 2. Klicken Sie auf Virtual Switch Manager (Manager für virtuellen Switch) (siehe Abbildung 13-1).
13–Windows Server 2016 Konfigurieren von RoCE-Schnittstellen mit Hyper-V So aktivieren Sie RDMA auf einer virtuellen Host-NIC: 1. Öffnen Sie das Fenster „Hyper-V Virtual Ethernet Adapter Properties“ (Eigenschaften für den virtuellen Hyper-V-Ethernet-Adapter). 2. Klicken Sie auf die Registerkarte Advanced (Erweitert). 3. Führen Sie auf der Seite „Advanced“ (Erweitert) (Abbildung 13-2) die folgenden Schritte aus: a. Wählen Sie unter Property (Eigenschaft) die Option Network Direct (RDMA) aus. b.
13–Windows Server 2016 Konfigurieren von RoCE-Schnittstellen mit Hyper-V Hinzufügen einer VLAN-ID zu einer virtuellen Host-NIC So fügen Sie eine VLAN-ID zu einer virtuellen Host-NIC hinzu: 1. Um den Namen der virtuellen Host-NIC zu ermitteln, führen Sie den folgenden Windows PowerShell-Befehl aus: PS C:\Users\Administrator> Get-VMNetworkAdapter -ManagementOS Abbildung 13-3 zeigt die Befehlsausgabe. Abbildung 13-3. Windows PowerShell-Befehl: Get-VMNetworkAdapter 2.
13–Windows Server 2016 Konfigurieren von RoCE-Schnittstellen mit Hyper-V Abbildung 13-4. Windows PowerShell-Befehl: Get-NetAdapterRdma Hinzufügen von virtuellen Host-NICs (virtuelle Ports) So fügen Sie virtuelle Host-NICs hinzu: 1. Um eine virtuelle Host-NIC hinzuzufügen, führen Sie den folgenden Befehl aus: Add-VMNetworkAdapter -SwitchName "New Virtual Switch" -Name SMB - ManagementOS 2.
13–Windows Server 2016 Konfigurieren von RoCE-Schnittstellen mit Hyper-V Abbildung 13-5. Zähler hinzufügen – Dialogfeld Wenn der RoCE-Datenverkehr ausgeführt wird, werden Zähler gemäß dem Beispiel in Abbildung 13-6 angezeigt. Abbildung 13-6.
13–Windows Server 2016 RoCE über Switch – Eingebettetes Teaming RoCE über Switch – Eingebettetes Teaming Switch Embedded Teaming (SET) ist die alternative NIC-Teaming-Solution von Microsoft, die Sie in Umgebungen mit Hyper-V und dem Software-Defined Networking (SDN)-Stapel in Windows Server 2016 Technical Preview verwenden können. SET integriert die begrenzte NIC-Teaming-Funktionalität in den virtuellen Hyper-V-Switch.
13–Windows Server 2016 RoCE über Switch – Eingebettetes Teaming Aktivieren von RDMA auf SET So aktivieren Sie RDMA auf SET: 1. Führen Sie zum Anzeigen von SET auf dem Adapter den folgenden Windows PowerShell-Befehl aus: PS C:\Users\Administrator> Get-NetAdapter "vEthernet (SET)" Abbildung 13-8 zeigt die Befehlsausgabe. Abbildung 13-8. Windows PowerShell-Befehl: Get-NetAdapter 2. Führen Sie zum Aktivieren von RDMA auf SET den folgenden Windows PowerShell-Befehl aus: PS C:\Users\Administrator> Enable-Net
13–Windows Server 2016 Konfigurieren von QoS für RoCE Konfigurieren von QoS für RoCE Sie können aus den folgenden zwei Verfahren für die Konfiguration bei der Servicequalität (Quality of Service, QoS) auswählen: Konfigurieren von QoS durch Deaktivieren von DCBX auf dem Adapter Konfigurieren von QoS durch Aktivieren von DCBX auf dem Adapter Konfigurieren von QoS durch Deaktivieren von DCBX auf dem Adapter Die gesamte Konfiguration muss auf allen verwendeten Systemen abgeschlossen sein, bevor QoS dur
13–Windows Server 2016 Konfigurieren von QoS für RoCE Abbildung 13-9. Erweiterte Eigenschaften: QoS aktivieren 6. Weisen Sie der Schnittstelle wie folgt die VLAN-ID zu: a. Klicken Sie im Fenster „Miniport“ (Miniport) auf die Registerkarte Advanced (Erweitert). b. Wählen Sie auf der Seite „Advanced properties“ (Erweiterte Eigenschaften) des Adapters (Abbildung 13-10) unter Property (Eigenschaft) die Option VLAN ID (VLAN-ID) aus und legen Sie den Wert fest. c. Klicken Sie auf OK.
13–Windows Server 2016 Konfigurieren von QoS für RoCE Abbildung 13-10. Erweiterte Eigenschaften: Einstellen der VLAN-ID 7. Um die prioritätsbasierte Flusskontrolle für RoCE auf einer bestimmten Priorität zu aktivieren, führen Sie den folgenden Befehl aus: PS C:\Users\Administrators> Enable-NetQoSFlowControl -Priority 4 ANMERKUNG Weisen Sie bei der Konfiguration von RoCE über Hyper-V der physischen Schnittstelle keine VLAN-ID zu. 8.
13–Windows Server 2016 Konfigurieren von QoS für RoCE 4 True Global 5 False Global 6 False Global 7 False Global 9. Um QoS zu konfigurieren und jedem Datenverkehrstyp die relevante Priorität zuzuweisen, führen Sie die folgenden Befehle aus (wobei „Priority 4“ (Priorität 4) für RoCE und „Priority 0“ (Priorität 0) für TCP gekennzeichnet ist): PS C:\Users\Administrators> New-NetQosPolicy "SMB" -NetDirectPortMatchCondition 445 -PriorityValue8021Action 4 -PolicyStore ActiveStore PS C:\Users\Admini
13–Windows Server 2016 Konfigurieren von QoS für RoCE Name Algorithm Bandwidth(%) Priority ---- --------- ------------ -------- PolicySet --------- [Default] ETS 20 2-3,5-7 Global RDMA class ETS 50 4 Global TCP class ETS 30 0 Global 11. IfIndex IfAlias ------- ------- Um die Servicequalität (QoS) für den Netzwerkadapter in der vorherigen Konfiguration anzuzeigen, führen Sie den folgenden Windows PowerShell-Befehl aus: PS C:\Users\Administrator> Get-NetAdapterQos Name : SLOT 4 Port 1
13–Windows Server 2016 Konfigurieren von QoS für RoCE So konfigurieren Sie QoS durch Aktivieren von DCBX: 1. Aktivieren Sie DCBX (IEEE, CEE oder Dynamic (Dynamisch)). 2. Setzen Sie den Wert für RoCE Priority (RoCE-Priorität) unter Verwendung von HII auf 0. 3. Führen Sie zum Installieren der DCB-Rolle in den Host den folgenden Windows PowerShell-Befehl aus: PS C:\Users\Administrators> Install-WindowsFeature Data-Center-Bridging ANMERKUNG Setzen Sie für diese Konfiguration DCBX Protocol (DCBX-Protokoll
13–Windows Server 2016 Konfigurieren von QoS für RoCE Abbildung 13-11. Erweiterte Eigenschaften: Aktivieren von QoS 6. Weisen Sie der Schnittstelle (für PFC erforderlich) wie folgt die VLAN-ID zu: a. Klicken Sie im Fenster „Miniport“ (Miniport) auf die Registerkarte Advanced (Erweitert). b. Wählen Sie auf der Seite „Advanced properties“ (Erweiterte Eigenschaften) des Adapters (Abbildung 13-12) unter Property (Eigenschaft) die Option VLAN ID (VLAN-ID) aus und legen Sie den Wert fest. c.
13–Windows Server 2016 Konfigurieren von QoS für RoCE Abbildung 13-12. Erweiterte Eigenschaften: Einstellen der VLAN-ID 7. Um den Switch zu konfigurieren, führen Sie den folgenden Windows PowerShell-Befehl aus: PS C:\Users\Administrators> Get-NetAdapterQoS Name Enabled Capabilities : Ethernet 5 : True : OperationalTrafficClasses : TC -0 1 Hardware -------MacSecBypass : NotSupported DcbxSupport : CEE NumTCs(Max/ETS/PFC) : 4/4/4 TSA --ETS ETS Bandwidth --------5% 95% Current ------NotSupported CEE 4/
13–Windows Server 2016 Konfigurieren von VMMQ RemoteTrafficClasses : TC -0 1 TSA --ETS ETS Bandwidth --------5% 95% Priorities ---------0-3,5-7 4 RemoteFlowControl RemoteClassifications : Priority 4 Enabled : Protocol Port/Type Priority -------- --------- -------NetDirect 445 4 ANMERKUNG Das vorherige Beispiel gilt, wenn der Adapter-Port mit einem Arista 7060X-Switch verbunden ist. In diesem Beispiel ist der Switch-PFC auf Priorität 4 aktiviert. RoCE App TLVs sind definiert.
13–Windows Server 2016 Konfigurieren von VMMQ Aktivieren von VMMQ auf dem Adapter So aktivieren Sie VMMQ auf dem Adapter: 1. Klicken Sie im Fenster „Miniport“ (Miniport) auf die Registerkarte Advanced (Erweitert). 2. Wählen Sie auf der Seite „Advanced Properties“ (Erweiterte Eigenschaften) (Abbildung 13-13) unter Property (Eigenschaft) die Option Virtual Switch RSS (RSS für virtuellen Switch) und setzen Sie den Wert auf Enabled (Aktiviert). 3. Klicken Sie auf OK. Abbildung 13-13.
13–Windows Server 2016 Konfigurieren von VMMQ 2. 3. Wählen Sie auf der Seite „Advanced Properties“ (Erweiterte Eigenschaften) (Abbildung 13-14) unter Property (Eigenschaft) eine der folgenden Optionen aus: VMMQ Max QPs – Standard-VPort VMMQ Max QPs – Nicht-Standard-VPort Passen Sie Wert für die ausgewählte Eigenschaften ggf. an. Abbildung 13-14. Erweiterte Eigenschaften: Festlegen von VMMQ 4. Klicken Sie auf OK.
13–Windows Server 2016 Konfigurieren von VMMQ 4. Unter Connection type (Verbindungstyp): a. Klicken Sie auf External network (Externes Netzwerk). b. Aktivieren Sie das Kontrollkästchen Allow management operating system to share this network adapter (Verwaltungsbetriebssystem die Freigabe dieses Netzwerkadapters genehmigen). Abbildung 13-15. Manager für virtuellen Switch 5. Klicken Sie auf OK.
13–Windows Server 2016 Konfigurieren von VMMQ Aktivieren von VMMQ auf dem Switch für die virtuelle Maschine So aktivieren Sie VMMQ auf dem Switch für die virtuelle Maschine: Führen Sie den folgenden Windows PowerShell-Befehl aus: PS C:\Users\Administrators> Set-VMSwitch -name q1 -defaultqueuevmmqenabled $true -defaultqueuevmmqqueuepairs 4 Abrufen der Funktionen für den Switch der virtuellen Maschine So rufen Sie die Funktionen für den Switch der virtuellen Maschine ab: Führen Sie den folgenden Windo
13–Windows Server 2016 Konfigurieren von VMMQ Erstellen einer VM und Aktivieren von VMMQ auf VM-Netzwerkadaptern in der VM So erstellen Sie eine virtuelle Maschine (VM) und aktivieren VMMQ auf VM-Netzwerkadaptern in der virtuellen Maschine: 1. Erstellen Sie eine VM. 2. Fügen Sie den VM-Netzwerkadapter zur VM hinzu. 3. Weisen Sie einen virtuellen Switch zum VM-Netzwerkadapter hinzu. 4. Führen Sie zum Aktivieren von VMMQ auf der VM den folgenden Windows PowerShell-Befehl aus: PS C:\Users\Administrator
13–Windows Server 2016 Konfigurieren von VMMQ Ethernet Ethernet Name ---Ethernet Ethernet Ethernet Ethernet Ethernet Ethernet Ethernet Ethernet Ethernet Ethernet Ethernet Ethernet 3 3 3 3 3 3 3 3 3 3 3 3 3 3 67 68 ID -69 70 71 72 73 74 75 76 77 78 79 80 00-15-5D-36-0A-05 00-15-5D-36-0A-06 MacAddress ---------00-15-5D-36-0A-07 00-15-5D-36-0A-08 00-15-5D-36-0A-09 00-15-5D-36-0A-0A 00-15-5D-36-0A-0B 00-15-5D-36-0A-F4 00-15-5D-36-0A-F5 00-15-5D-36-0A-F6 00-15-5D-36-0A-F7 00-15-5D-36-0A-F8 00-15-5D-36-0A-F9
13–Windows Server 2016 Konfigurieren von VXLAN PS C:\Users\Administrator> Set-VMNetworkAdapter –ManagementOS –vmmqEnabled $false Eine VMMQ ist auch für den kürzesten, ersten offenen Multicast-Pfad (MOSPF) verfügbar. Überwachen der Datenverkehrsstatistik Um den Datenverkehr der virtuellen Funktion auf einer virtuellen Maschine zu überwachen, führen Sie den folgenden Windows PowerShell-Befehl aus: PS C:\Users\Administrator> Use get-netadapterstatistics | fl Konfigurieren von VXLAN Die folgenden VXLAN-Konf
13–Windows Server 2016 Konfigurieren von VXLAN Abbildung 13-17. Erweiterte Eigenschaften: Aktivieren von VXLAN 3. Setzen Sie das Feld Value (Wert) auf Enabled (Aktiviert). 4. Klicken Sie auf OK. Implementieren eines Software Defined Network Um die Funktion der Offload-VXLAN-Verkapselung auf virtuellen Maschinen vollständig zu nutzen, müssen Sie einen Stapel für ein Software Defined Network (SDN) implementieren, das einen Microsoft-Netzwerk-Controller verwendet.
13–Windows Server 2016 Konfigurieren der Funktion „Direkte Speicherplätze“ Konfigurieren der Funktion „Direkte Speicherplätze“ Mit Windows Server 2016 wird die Funktion „Direkte Speicherplätze“ eingeführt. Mit dieser Funktion können Sie hoch verfügbare und skalierbare Speichersysteme mit lokalem Speicher aufbauen. Weitere Informationen finden Sie unter dem folgenden Microsoft TechnNet-Link: https://technet.microsoft.
13–Windows Server 2016 Konfigurieren der Funktion „Direkte Speicherplätze“ Implementieren eines Hyper-Konvergenzsystems In diesem Abschnitt finden Sie Anweisungen für die Installation und Konfiguration der Komponenten eines Hyper-Konvergenzsystems über Windows Server 2016.
13–Windows Server 2016 Konfigurieren der Funktion „Direkte Speicherplätze“ b. Aktivieren Sie den Switch-Port und stellen Sie sicher, dass der Switch-Port den Switch-unabhängigen Teaming-Modus unterstützt und Teil mehrerer VLAN-Netzwerk ist. Beispiel für eine Dell Switch-Konfiguration: no ip address mtu 9416 portmode hybrid switchport dcb-map roce_S2D protocol lldp dcbx version cee no shutdown 2. Aktivieren Sie Network Quality of Service (Servicequalität des Netzwerks).
13–Windows Server 2016 Konfigurieren der Funktion „Direkte Speicherplätze“ Add-VMNetworkAdapter –SwitchName SETswitch –Name SMB_1 – managementOS Add-VMNetworkAdapter –SwitchName SETswitch –Name SMB_2 – managementOS ANMERKUNG Die vorherigen Befehle konfigurieren die virtuelle NIC aus dem virtuellen Switch, den Sie soeben für das zu verwendende Verwaltungsbetriebssystem konfiguriert haben. d.
13–Windows Server 2016 Konfigurieren der Funktion „Direkte Speicherplätze“ Konfigurieren der Funktion „Direkte Speicherplätze“ Die Konfiguration der Funktion „Direkte Speicherplätze“ in Windows Server 2016 umfasst die folgenden Schritte: Schritt 1. Ausführen eines Clustervalidierungswerkzeugs Schritt 2. Erstellen eines Clusters Schritt 3. Konfigurieren eines Clusterzeugen Schritt 4. Säubern der für die Funktion „Direkte Speicherplätze“ verwendeten Festplatten Schritt 5.
13–Windows Server 2016 Konfigurieren der Funktion „Direkte Speicherplätze“ Weitere Informationen finden Sie unter: https://blogs.msdn.microsoft.com/clustering/2014/03/31/configuring-a-file-sharewitness-on-a-scale-out-file-server/ Schritt 4. Säubern der für die Funktion „Direkte Speicherplätze“ verwendeten Festplatten Die Festplatten, die für die Funktion „Direkte Speicherplätze“ verwendet werden sollen, müssen leer sein und dürfen keine Partitionen oder andere Daten aufweisen.
13–Windows Server 2016 Konfigurieren der Funktion „Direkte Speicherplätze“ Get-Disk |? Number -ne $null |? IsBoot -ne $true |? IsSystem -ne $true |? PartitionStyle -eq RAW | Group -NoElement -Property FriendlyName } | Sort -Property PsComputerName,Count Schritt 5. Aktivieren der Funktion „Direkte Speicherplätze“ Führen Sie nach der Erstellung des Clusters das cmdlet Enable-ClusterStorageSpacesDirect Windows PowerShell aus.
13–Windows Server 2016 Implementieren und Verwalten eines Nano-Servers Implementieren und Verwalten eines Nano-Servers Windows Server 2016 bietet den Nano-Server als neue Installationsoption an. Nano-Server ist ein remote verwaltetes Server-Betriebssystem, das für private Clouds und Rechenzentren optimiert wurde. Es ähnelt Windows Server im Server Core-Modus, es ist jedoch deutlich kleiner, verfügt nicht über eine lokale Anmeldefunktion und unterstützt nur 64-Bit-Anwendungen, -Werkzeuge und -Agenten.
13–Windows Server 2016 Implementieren und Verwalten eines Nano-Servers Tabelle 13-1.
13–Windows Server 2016 Implementieren und Verwalten eines Nano-Servers In den nächsten Abschnitten wird beschrieben, wie das Nano-Server-Image mit den erforderlichen Paketen konfiguriert wird und wie zusätzliche, für QLogic-Geräte spezifische Gerätetreiber hinzugefügt werden. Außerdem wird erläutert, wie die Nano-Server-Wiederherstellungskonsole verwendet, ein Nano-Server per remote verwaltet und der Ntttcp-Datenverkehr über einen Nano-Server ausgeführt wird.
13–Windows Server 2016 Implementieren und Verwalten eines Nano-Servers -DriversPath "" Beispiel: New-NanoServerImage –DeploymentType Host –Edition Datacenter -MediaPath C:\tmp\TP4_iso\Bld_10586_iso -BasePath ".\Base" -TargetPath "C:\Nano\PhysicalSystem\Nano_phy_vhd.vhd" -ComputerName "Nano-server1" –Compute -Storage -Cluster -OEMDrivers -DriversPath "C:\Nano\Drivers" In den vorherigen Beispielen steht C:\Nano\Drivers für den Pfad der QLogic-Treiber.
13–Windows Server 2016 Implementieren und Verwalten eines Nano-Servers 9. So kopieren Sie das virtuelle Festplattenlaufwerk auf den physischen Server und konfigurieren es zum Starten über das neue virtuelle Festplattenlaufwerk: a. Gehen Sie zu Computer Management > Storage > Disk Management (Computerverwaltung > Speicher > Festplattenverwaltung). b. Klicken Sie mit der rechten Maustaste auf Disk Management (Festplattenverwaltung) und wählen Sie Attach VHD (Virtuelles Festplattenlaufwerk anhängen) aus.
13–Windows Server 2016 Implementieren und Verwalten eines Nano-Servers 4. Starten Sie Windows PowerShell als Administrator. 5. Ändern Sie das Verzeichnis in einen Ordner, in den Sie die Dateien aus Schritt 3 einfügen. 6. Importieren Sie das NanoServerImageGenerator-Script, indem Sie den folgenden Befehl ausführen: Import-Module .\NanoServerImageGenerator.psm1 -Verbose 7.
13–Windows Server 2016 Implementieren und Verwalten eines Nano-Servers INFO : Image 1 selected (ServerTuva)... INFO : Creating sparse disk... INFO : Attaching VHD... INFO : Initializing disk... INFO : Creating single partition... INFO : Formatting windows volume... INFO : Windows path (G:) has been assigned. INFO : System volume location: G: INFO : Applying image to VHD. This could take a while... INFO : Image was applied successfully. INFO : Making image bootable...
13–Windows Server 2016 Implementieren und Verwalten eines Nano-Servers Verwalten eines Nano-Servers über die Windows PowerShell-Remote-Verwaltung So verwalten Sie einen Nano-Server über die Windows PowerShell-Remote-Verwaltung: 1. Fügen Sie die IP-Adresse des Nano-Servers zur Liste der vertrauenswürdigen Hosts Ihres Verwaltungscomputers hinzu. ANMERKUNG Verwenden Sie die Wiederherstellungskonsole, um die Server-IP-Adresse zu ermitteln. 2.
13–Windows Server 2016 Implementieren und Verwalten eines Nano-Servers Sie können nun wie gewohnt Windows PowerShell-Befehle auf dem Nano-Server ausführen. Nicht alle Windows PowerShell-Befehle sind jedoch in dieser Version des Nano-Servers verfügbar. Um zu ermitteln, welche Befehle verfügbar sind, führen Sie den Befehl Get-Command -CommandType Cmdlet aus. Um die Remote-Sitzung zu beenden, führen Sie den Befehl Exit-PSSession aus. Weitere Details zum Nano-Server finden Sie hier: https://technet.microsoft.
13–Windows Server 2016 Implementieren und Verwalten eines Nano-Servers Abbildung 13-19 zeigt ein Beispiel für die Ausgabe. Abbildung 13-19. Windows PowerShell-Befehl: Get-NetAdapter 3. Führen Sie zum Überprüfen, ob RDMA auf dem Adapter aktiviert ist, den folgenden Windows PowerShell-Befehl aus: [172.28.41.152]: PS C:\Users\Administrator\Documents> Get-NetAdapterRdma Abbildung 13-20 zeigt ein Beispiel für die Ausgabe. Abbildung 13-20. Windows PowerShell-Befehl: Get-NetAdapterRdma 4.
13–Windows Server 2016 Implementieren und Verwalten eines Nano-Servers [172.28.41.152]: PS C:\> New-SMBShare -Name "smbshare" -Path c:\smbshare -FullAccess Everyone Abbildung 13-22 zeigt ein Beispiel für die Ausgabe. Abbildung 13-22. Windows PowerShell-Befehl: New-SMBShare 6. Um die SMB-Freigabe als Netzwerklaufwerk der Client-Maschine zuzuordnen, führen Sie den folgenden Windows PowerShell-Befehl aus: ANMERKUNG Die IP-Adresse einer Schnittstelle auf dem Nano-Server lautet 192.168.10.10. PS C:\Windows\
14 Fehlerbehebung In diesem Abschnitt finden Sie die folgenden Informationen zur Fehlerbehebung: Fehlerbehebung – Checkliste „Überprüfen der geladenen Treiber“ auf Seite 271 „Testen der Netzwerkanbindung“ auf Seite 272 „Microsoft Virtualization mit Hyper-V“ auf Seite 274 „Linux-spezifische Probleme“ auf Seite 274 „Sonstige Probleme“ auf Seite 274 „Erfassen von Fehlerbehebungsdaten“ auf Seite 274 Fehlerbehebung – Checkliste VORSICHT! Lesen Sie den Abschnitt „Sicherheitsvorkehrung
14–Fehlerbehebung Überprüfen der geladenen Treiber Versuchen Sie, den Adapter in einem anderen Steckplatz zu installieren. Wenn die neue Installationsposition funktioniert, ist unter Umständen der ursprüngliche Systemsteckplatz defekt. Tauschen Sie den nicht funktionierenden Adapter gegen einen Adapter aus, von dem Sie wissen, dass er korrekt funktioniert.
14–Fehlerbehebung Testen der Netzwerkanbindung Sie können auch den folgenden Befehl ausgeben: [root@test1]# ethtool -i eth2 driver: qede version: 8.4.7.0 firmware-version: mfw 8.4.7.0 storm 8.4.7.0 bus-info: 0000:04:00.2 Wenn Sie einen neuen Treiber geladen, das System aber noch nicht neu gestartet haben, zeigt Ihnen der Befehl modinfo nicht die aktualisierten Treiberinformationen an. Geben Sie den Befehl dmesg ein, um die Protokolle anzuzeigen.
14–Fehlerbehebung Testen der Netzwerkanbindung Testen der Netzwerkkonnektivität für Windows Testen Sie die Netzwerkkonnektivität über den Befehl ping. Gehen Sie wie folgt vor, um zu bestimmen, ob die Netzwerkkonnektivität betriebsbereit ist: 1. Klicken Sie auf Start und anschließend Run (Ausführen). 2. Geben Sie in das Feld Open (Öffnen) cmd ein und klicken Sie dann auf OK. 3. Geben Sie den folgen Befehl aus, um die zu testende Netzwerkverbindung anzuzeigen: ipconfig /all 4.
14–Fehlerbehebung Microsoft Virtualization mit Hyper-V Microsoft Virtualization mit Hyper-V Microsoft Virtualization ist ein Hypervisor-basiertes Virtualisierungssystem für Windows Server 2012 R2. Weitere Informationen zu Hyper-V finden Sie unter: https://technet.microsoft.com/en-us/library/Dn282278.aspx Linux-spezifische Probleme Problem: Beim Kompilieren von Treiberquellcode werden Fehlermeldungen ausgegeben.
14–Fehlerbehebung Erfassen von Fehlerbehebungsdaten Tabelle 14-1. Befehle zum Erfassen von Fehlerbehebungsdaten (fortgesetzt) Fehlerbehebungsdaten sys_info.
A Adapter-LEDS Tabelle A-1 führt die LED-Anzeigen für den Verbindungs- und Aktivitätsstatus des Adapter-Ports auf. Tabelle A-1.
B Kabel und optische Module In diesem Anhang finden Sie die folgenden Informationen zu den unterstützten Kabeln und optischen Modulen: Unterstützte Spezifikationen „Getestete Kabel und optische Module“ auf Seite 279 „Getestete Switches“ auf Seite 283 Unterstützte Spezifikationen Adapter der 41xxx-Serie unterstützt eine Vielzahl von Kabeln und optischen Modulen, die mit SFF8024 kompatibel sind.
B–Kabel und optische Module Unterstützte Spezifikationen 278 AH0054602-01 F
B–Kabel und optische Module Getestete Kabel und optische Module Getestete Kabel und optische Module QLogic übernimmt keine Garantie dafür, dass jedes Kabel oder optische Modul, das den Konformitätsanforderungen entspricht, mit den Adapter der 41xxx-Serie verwendet werden kann. Cavium hat die unter Tabelle B-1 aufgeführten Komponenten getestet und stellt Ihnen diese Liste zur Verfügung. Tabelle B-1.
B–Kabel und optische Module Getestete Kabel und optische Module Tabelle B-1.
B–Kabel und optische Module Getestete Kabel und optische Module Tabelle B-1. Getestete Kabel und optische Module (fortgesetzt) Geschwindigkeit/ Formfaktor Hersteller Teilenummer Typ Kabellänge a Breite Optische Lösungen Avago® Optischer 10GTransceiver Dell Finisar® Dell Optischer 25GTransceiver AFBR-703SMZ SFP+ SR k.A. k.A. AFBR-701SDZ SFP+ LR k.A. k.A. Y3KJN SFP+ SR 1G/10G k.A. WTRD1 SFP+ SR 10G k.A. 3G84K SFP+ SR 10G k.A. RN84N SFP+ SR 10G-LR k.A.
B–Kabel und optische Module Getestete Kabel und optische Module Tabelle B-1. Getestete Kabel und optische Module (fortgesetzt) Geschwindigkeit/ Formfaktor 10G AOC c Hersteller Dell Dell 25G AOC InnoLight® Teilenummer Typ Kabellänge a Breite 470-ABLV SFP+ AOC 2 k.A. 470-ABLZ SFP+ AOC 3 k.A. 470-ABLT SFP+ AOC 5 k.A. 470-ABML SFP+ AOC 7 k.A. 470-ABLU SFP+ AOC 10 k.A. 470-ABMD SFP+ AOC 15 k.A. 470-ABMJ SFP+ AOC 20 k.A. YJF03 SFP+ AOC 2 k.A. P9GND SFP+ AOC 3 k.A.
B–Kabel und optische Module Getestete Switches Getestete Switches In Tabelle B-2 sind die Switches aufgeführt, die bezüglich Interoperabilität mit den Adapter der 41xxx-Serien getestet wurden. Diese Liste basiert auf Switches, die zum Zeitpunkt der Produktveröffentlichung verfügbar waren, und unterliegt Änderungen, sollten neue Switches in den Markt eingeführt oder nicht mehr angeboten werden. Tabelle B-2.
C Dell Z9100-SwitchKonfiguration Der Adapter der 41xxx-Serie unterstützt Verbindungen mit dem Dell Z9100-Ethernet-Switch. Bis zur Standardisierung des automatischen Verhandlungsprozesses muss der Switch jedoch explizit für die Verbindung mit dem Adapter mit 25 GBit/s konfiguriert werden. So konfigurieren Sie einen Dell Z9100-Switch-Port für die Verbindung mit dem Adapter der 41xxx-Serie mit 25 GBit/s: 1. Stellen Sie eine serielle Portverbindung zwischen Ihrer Verwaltungs-Workstation und dem Switch her.
C–Dell Z9100-Switch- Konfiguration 25G Quad port mode with 25G speed Dell(conf)#stack-unit 1 port 5 portmode quad speed 25G Informationen zum Ändern der Verbindungsgeschwindigkeit des Adapters finden Sie unter „Testen der Netzwerkanbindung“ auf Seite 272. 5. Überprüfen Sie, ob der Port bei 25 GB/s arbeitet: Dell# Dell#show running-config | grep "port 5" stack-unit 1 port 5 portmode quad speed 25G 6. Gehen Sie folgendermaßen vor, um die automatische Verhandlung auf Switch-Port 5 zu deaktivieren: a.
D Einschränkungen bei Merkmalen und Funktionen Dieser Anhang bietet Informationen zu den in der aktuellen Version vorhandenen Einschränkungen bei den Merkmalen und Funktionen. Die folgenden Einschränkungen in Bezug auf nebeneinander existierende Merkmale werden möglicherweise mit einer künftigen Version gelöst.
D–Einschränkungen bei Merkmalen und Funktionen NIC und SAN Boot auf Basis werden nur auf ausgewählten PFs unterstützt Ethernet- und PXE-Start werden derzeit nur auf PF0 und PF1 unterstützt. In der NPAR-Konfiguration werden Ethernet und PXE-Start durch andere PFs nicht unterstützt.
Glossar Bandbreite Die Bandbreite ist eine Maßeinheit für das Datenvolumen, das bei einer bestimmten Übertragungsrate übertragen werden kann. Abhängig vom angeschlossenen Gerät kann ein Fibre-Channel-Port mit 1 GBit oder 2 GBit Daten mit nominalen Raten von 1 GBit/s oder 2 GBit/s senden und empfangen. Dies entspricht tatsächlichen Bandbreitenwerten von 106 MB und 212 MB.
Benutzerhandbuch—Converged Network Adapters 41xxx-Serie BIOS Basis-Eingabe/Ausgabe-System Programm (oder Dienstprogramm), das in der Regel im Flash PROM als Schnittstelle zwischen Hardware und Betriebssystem fungiert und das Starten über den Adapter ermöglicht. DCBX Data Center Bridging-Austausch. Protokoll, das von DCB-Geräten verwendet wird, um Konfigurationsinformationen mit direkt angeschlossenen Peers auszutauschen.
Benutzerhandbuch—Converged Network Adapters 41xxx-Serie EEE Energieeffizientes Ethernet. Eine Reihe von Verbesserungen an der Familie der Computer-Netzwerkstandards für Ethernet mit verdrillten Kabeln und Backplanes, die einen geringen Stromverbrauch in Zeiten geringer Datenaktivität ermöglichen. Es wurde das Ziel verfolgt, den Stromverbrauch um mindestens 50 Prozent bei unverändert umfassender Kompatibilität mit den vorhandenen Geräten zu reduzieren.
Benutzerhandbuch—Converged Network Adapters 41xxx-Serie Gerät Ziel, in der Regel ein Plattenlaufwerk. Hardware, wie z. B. Festplattenlaufwerke, Bandlaufwerk, Drucker oder Tastatur, die auf einem verbundenen System installiert ist. In Fibre Channel ein Zielgerät. IQN Qualifizierter iSCSI-Name. iSCSI-Knotenname auf Basis des Initiator-Herstellers und einem eindeutigen Gerätenamen-Abschnitt. iSCSI Internet Small Computer System-Schnittstelle.
Benutzerhandbuch—Converged Network Adapters 41xxx-Serie MSI, MSI-X Per Meldung angeforderte Interrupts Eine von zwei PCI-definierten Erweiterungen für die Unterstützung von per Meldung angeforderten Interrupts (Message Signaled Interrupts) mit PCI ab Version 2.2 und PCI Express. MSIs sind eine alternative Methode zum Generieren von Interrupts durch spezielle Meldungen, welche die Emulation einer Pin-Aktivierung oder -Deaktivierung ermöglichen. Mit MSI-X (definiert in PCI 3.
Benutzerhandbuch—Converged Network Adapters 41xxx-Serie PCI™ Peripheriekomponentenschnittstelle (PCI). Eine lokale 32-Bit-Busspezifikation, die von Intel® eingeführt wurde. NIC-Partitionierung Siehe NPAR. NPAR NIC Partitionierung. Die Aufteilung eines einzelnen NIC-Ports in mehrere physische Funktionen oder Partitionen, wobei jeder davon eine benutzerkonfigurierbare Bandbreite und Personalität (Schnittstellentyp) zugewiesen wird. Zu den Personalitäten gehören: NIC, FCoE und iSCSI.
Benutzerhandbuch—Converged Network Adapters 41xxx-Serie SCSI Small Computer System-Schnittstelle. Eine Hochgeschwindigkeitsschnittstelle, die zum Anschließen von Geräten an einen Computer verwendet wird, darunter Festplattenlaufwerke, CD-Laufwerk, Drucker und Scanner. Über SCSI können viele Geräte über einen Controller angeschlossen werden. Auf jedes Gerät wird über eine individuelle ID auf dem SCSI-Controller-Bus zugegriffen. RISC Computer mit reduziertem Befehlssatz.
Benutzerhandbuch—Converged Network Adapters 41xxx-Serie TCP Übertragungssteuerungsprotokoll. Ein Regelsatz zum Senden von Daten in Paketen über das Internetprotokoll. UDP User Datagram-Protokoll Ein verbindungsloses Übertragungsprotokoll ohne Garantie, dass das Paket in der gewünschten Reihenfolge oder überhaupt geliefert wird. Es arbeitet direkt oberhalb des IP. TCP/IP Übertragungssteuerungsprotokoll/Internet protokoll. Basiskommunikationssprache des Internets.
Benutzerhandbuch—Converged Network Adapters 41xxx-Serie Ziel Der Speichergeräteendpunkt einer SCSI-Sitzung. Die Initiatoren fordern Daten von Zielen an. Ziele sind in der Regel Festplattenlaufwerke, Bandlaufwerke oder sonstige Datenträgergeräte. In der Regel ist ein SCSI-Peripheriegerät das Ziel, jedoch kann in manchen Fällen auch der Adapter ein Ziel sein. Ein Ziel kann mehrere LUNs enthalten. Ein Ziel ist ein Gerät, das auf eine Anforderung durch einen Initiator (das Host-System) reagiert.
Firmenzentrale Cavium, Inc. 2315 N. First Street San Jose, CA 95131 408-943-7100 Internationale Niederlassungen Großbritannien | Irland | Deutschland | Frankreich | Indien | Japan | China | Hongkong | Singapur | Taiwan | Israel Copyright © 2017, 2018 Cavium, Inc. Weltweit alle Rechte vorbehalten. QLogic Corporation ist eine hundertprozentige Tochtergesellschaft im Eigentum von Cavium, Inc. Cavium, FastLinQ, QConvergeConsole, QLogic und SmartAN sind eingetragene Markenzeichen von Cavium, Inc.