Cubierta Guía del usuario Adaptadores de red convergente Serie 41xxx Información de terceros que se le ofrece por cortesía de Dell. AH0054602-09 M 16 de octubre de 2019 Marvell.
Guía del usuario Adaptadores de red convergente Si desea obtener más información, visite nuestra página web en: http://www.marvell.com Aviso: ESTE DOCUMENTO Y LA INFORMCIÓN PROVISTA EN ESTE DOCUMENTO SE SUMINISTRAN "TAL CUAL" SIN NINGUNA GARANTÍA.
Tabla de contenido Prefacio Productos compatibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Público previsto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Contenido de esta guía . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Convenciones de la documentación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Descarga de actualizaciones y documentación . . . . . . . . . . . . . . . .
Guía del usuario—Adaptadores de red convergente Serie 41xxx Instalación de controladores para Linux mediante el paquete RPM kmp/kmod . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Instalación de controladores para Linux mediante el archivo TAR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Instalación de los controladores para Linux con RDMA . . . . . . . . . . . Parámetros opcionales de los controladores para Linux. . . . . . . . . . .
Guía del usuario—Adaptadores de red convergente Serie 41xxx 5 Configuración de inicio previo del adaptador Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Visualización de las propiedades de imagen de firmware . . . . . . . . . . . . . . Configuración de parámetros del dispositivo . . . . . . . . . . . . . . . . . . . . . . . . Configuración de parámetros de NIC. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Guía del usuario—Adaptadores de red convergente Serie 41xxx Asignación del CD o DVD para la instalación del sistema operativo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Inicio FCoE desde SAN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Asistencia integrada y lista para usar FCoE . . . . . . . . . . . . . . . . . . . . Configuración de preinicio FCoE. . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Guía del usuario—Adaptadores de red convergente Serie 41xxx Identificación del índice GID de RoCE v2 o la dirección . . . . . . Comprobación del índice GID de RoCE v1 o v2, y de la dirección desde los parámetros sys y class . . . . . . . . . . . . . . . Comprobación de la función de RoCE v1 o RoCE v2 a través de aplicaciones perftest . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuración de RoCE para dispositivos VF SR-IOV (VF RDMA) . . . Enumeración de VF para L2 y RDMA . . . . . . . .
Guía del usuario—Adaptadores de red convergente Serie 41xxx 9 Configuración de iSER Antes de empezar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuración de iSER para RHEL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuración de iSER para SLES 12 y posterior . . . . . . . . . . . . . . . . . . . . Uso de iSER con iWARP en RHEL y SLES . . . . . . . . . . . . . . . . . . . . . . . . . Optimización del rendimiento de Linux . . . . . . . .
Guía del usuario—Adaptadores de red convergente Serie 41xxx 13 Configuración de NVMe-oF con RDMA Instalación de los controladores de dispositivo en los dos servidores . . . . . Configuración del servidor de destino . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuración del servidor iniciador . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Preacondicionamiento del servidor de destino. . . . . . . . . . . . . . . . . . . . . . . Prueba de los dispositivos NVMe-oF . . . . . . .
Guía del usuario—Adaptadores de red convergente Serie 41xxx Creación de una máquina virtual y activación de VMMQ en VMNetworkAdapters en la máquina virtual . . . . . . . . . . . . . . . . . . . . Activación y desactivación de VMMQ en un NIC de administración . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Supervisión de las estadísticas de tráfico . . . . . . . . . . . . . . . . . . . . . . Configuración de Storage Spaces Direct . . . . . . . . . . . . . . . . . . . . .
Guía del usuario—Adaptadores de red convergente Serie 41xxx A LED del adaptador B Módulos ópticos y cables Especificaciones compatibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Módulos ópticos y cables probados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Conmutadores probados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Guía del usuario—Adaptadores de red convergente Serie 41xxx Lista de ilustraciones Ilustración Página 3-1 Ventana Dell Update Package (Paquete de actualización de Dell) . . . . . . . . . . . . . 21 3-2 Asistente QLogic InstallShield: Ventana de bienvenida . . . . . . . . . . . . . . . . . . . . . . 21 3-3 Asistente QLogic InstallShield: Ventana License Agreement (Contrato de licencia) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Guía del usuario—Adaptadores de red convergente Serie 41xxx 5-15 5-16 5-17 5-18 5-19 5-20 6-1 6-2 6-3 6-4 6-5 6-6 6-7 6-8 6-9 6-10 6-11 6-12 6-13 6-14 6-15 6-16 6-17 6-18 6-19 6-20 6-21 NIC Partitioning Configuration, Global Bandwidth Allocation (Configuración del particionamiento NIC, Asignación global de ancho de banda) . . . . . . . . . . . . . . . . Página Global Bandwidth Allocation (Asignación del ancho de banda global) . . . . Partition 1 Configuration (Configuración de la partición 1). . . . . . .
Guía del usuario—Adaptadores de red convergente Serie 41xxx 6-22 6-23 6-24 6-25 6-26 6-27 6-28 6-29 6-30 6-31 6-32 6-33 6-34 7-1 7-2 7-3 7-4 7-5 7-6 7-7 7-8 7-9 7-10 7-11 7-12 7-13 7-14 7-15 7-16 7-17 7-18 8-1 8-2 8-3 8-4 9-1 9-2 NIC integrado: BIOS del sistema, Configuración de conexión 1 para VMware . . . . NIC integrado: BIOS del sistema, Configuración de conexión 1 (destino) para VMware . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Guía del usuario—Adaptadores de red convergente Serie 41xxx 9-3 9-4 9-5 10-1 10-2 10-3 10-4 10-5 10-6 10-7 12-1 12-2 12-3 12-4 12-5 12-6 12-7 12-8 12-9 12-10 12-11 12-12 12-13 12-14 12-15 13-1 13-2 13-3 13-4 14-1 15-1 15-2 15-3 15-4 15-5 15-6 15-7 15-8 15-9 Iface Transport Confirmado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Comprobación de nuevo dispositivo iSCSI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuración de destino LIO. . . . .
Guía del usuario—Adaptadores de red convergente Serie 41xxx 15-10 15-11 15-12 15-13 15-14 15-15 15-16 16-1 Propiedades avanzadas: Configuración del Id. de VLAN . . . . . . . . . . . . . . . . . . . . Propiedades avanzadas: Activación de QoS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Propiedades avanzadas: Configuración del Id. de VLAN . . . . . . . . . . . . . . . . . . . . Propiedades avanzadas: Activación de RSS del conmutador virtual . . . . . . . . . . .
Guía del usuario—Adaptadores de red convergente Serie 41xxx Lista de tablas Tabla 2-1 2-2 3-1 3-2 3-3 3-4 3-5 3-6 5-1 6-1 6-2 6-3 6-4 6-5 6-6 7-1 7-2 7-3 7-4 7-5 13-1 16-1 16-2 17-1 A-1 B-1 B-2 Página Requisitos del hardware del host . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 Requisitos mínimos del sistema operativo del host . . . . . . . . . . . . . . . . . . . . . . . . . 6 Controladores Linux de los Adaptadores de la serie 41xxx FastLinQ de Marvell . . .
Prefacio En este prefacio se enumeran los productos compatibles, se especifica el público previsto, se explican las convenciones tipográficas utilizadas en esta guía y se describen los avisos legales. Productos compatibles NOTA La GUI QConvergeConsole® (QCC) es la única herramienta de administración de la GUI en todos los adaptadores de FastLinQ® Marvell®.
Prefacio Público previsto Adaptador de red convergente de 10 Gb QL41162HFRJ-DE, soporte de altura completa Adaptador de red convergente de 10 Gb QL41162HLRJ-DE, soporte de perfil bajo Adaptador de red convergente de 10 Gb QL41162HMRJ-DE Adaptador de red convergente de 10 Gb QL41164HMCU-DE Adaptador de red convergente de 10 Gb QL41164HMRJ-DE Adaptador de red convergente de 10 Gb QL41164HFRJ-DE, soporte de altura completa Adaptador de red convergente de 10 Gb QL41164HFRJ-DE, soport
Prefacio Contenido de esta guía Contenido de esta guía Después del prefacio, el resto de la guía se organiza en los siguientes capítulos y apéndices: Capítulo 1 Visión general del producto proporciona una descripción funcional del producto, una lista de características y las especificaciones del adaptador. Capítulo 2 Instalación del hardware describe cómo instalar el adaptador e incluye la lista de requisitos del sistema y una lista de verificación de preinstalación.
Prefacio Convenciones de la documentación Capítulo 15 Windows Server 2016 describe las características de Windows Server 2016. Capítulo 16 Windows Server 2019 describe las características de Windows Server 2019. Capítulo 17 Solución de problemas describe una amplia variedad de métodos y recursos de solución de problemas. Apéndice A LED del adaptador enumera los LED del adaptador y su importancia.
Prefacio Convenciones de la documentación Consulte la “Lista de comprobación de la instalación” en la página 6. Para obtener más información, visite www.marvell.com. El texto en negrita indica elementos de la interfaz de usuario como, por ejemplo, elementos de menú, botones, casillas de verificación o encabezados de columna. Por ejemplo: Haga clic en el botón Inicio, señale Programas, señale Accesorios y, a continuación, haga clic en Símbolo del sistema.
Prefacio Convenciones de la documentación Estas son algunas de las convenciones de sintaxis de la interfaz de línea de comando (CLI): El texto sin formato indica elementos que debe escribir tal como se muestran. Por ejemplo: qaucli -pr nic -ei < > (paréntesis angulares) indican una variable cuyo valor debe especificar. Por ejemplo: NOTA Solo para comandos de CLI, los nombres de variable se indican siempre con paréntesis angulares en lugar de con cursiva.
Prefacio Convenciones de la documentación Descarga de actualizaciones y documentación El sitio web de Marvell ofrece actualizaciones periódicas a firmware, software, y documentación de los productos. Para descargar el firmware, el software y la documentación de Marvell: 1. Vaya a www.marvell.com. 2. Señale a Support (Soporte) y, a continuación, en Driver Downloads (Descargas de controladores), haga clic en Marvell QLogic/FastLinQ Drivers (Controladores QLogic/FastinQ). 3.
Prefacio Avisos legales Avisos legales Los avisos legales que se mencionan en esta sección incluyen seguridad del láser (aviso de la FDA), la certificación por agencia y el cumplimiento de seguridad del producto. Seguridad del láser, Aviso FDA El producto cumple con las reglas DHHS 21 CFR Capítulo 1, Subcapítulo J. Este producto se ha diseñado y fabricado según el IEC60825-1 en la etiqueta de seguridad del producto láser.
Prefacio Avisos legales Cumplimiento con la Directiva EMC 2014/30/EU, 2014/35/EU Marca CE: EN55032:2012/ CISPR 32:2015 Clase A EN55024: 2010 EN61000-3-2: Emisión de corriente armónica EN61000-3-3: Fluctuación de voltaje y parpadeo Estándares de inmunidad EN61000-4-2: ESD EN61000-4-3: Campo electromagnético RF EN61000-4-4: Prorrumpir/Transitorio Rápido EN61000-4-5: Sobretensión Rápida Común/Diferencial EN61000-4-6: Susceptibilidad Conducida RF EN61000-4-8: Campo magnético de frecuencia de potencia EN61000-4
Prefacio Avisos legales VCCI: Clase A Es un producto de Clase A basado en la normativa del Voluntary Control Council for Interference (Consejo de Control Voluntario de las Interferencias - VCCI). Este equipo se utiliza en un entorno doméstico, en caso de producirse interferencias de radio, el usuario podría necesitar tomar acciones correctivas. Cumplimiento de seguridad del producto Seguridad del producto cUL, UL: UL 60950-1 (Segunda edición) A1 + A2 2014-10-14 CSA C22.2 Nº.
1 Visión general del producto Este capítulo ofrece la siguiente información sobre los Adaptadores de la serie 41xxx: Descripción funcional Características “Especificaciones del adaptador” en la página 3 Descripción funcional Los adaptadores de la serie 41000 FastLinQ de Marvell incluyen adaptadores de red convergente de 10 y 25 Gb y adaptadores Ethernet inteligentes que están diseñados para realizar la conexión acelerada en red de datos para sistemas de servidor.
1–Visión general del producto Características 1 Características de rendimiento: Descargas de la suma de comprobación de TCP, IP, UDP Descarga de segmentación TCP (TSO) Descarga de segmentos grandes (LSO) Descarga de segmentos genéricos (GSO) Descarga de recepción grande (LRO) Aleación de segmentos de recepción (RSC) Cola de máquina virtual (VMQ) dinámica de Microsoft® y multicola Linux Interrupciones adaptativas: Ajuste de escala en lado de trasmisión/recepción (
1–Visión general del producto Especificaciones del adaptador Compatibilidad para E/S de VMDirectPath Compatibilidad para E/S de VMDirectPath para Adaptadores de la serie 41xxx FastLinQ en entornos Linux y ESX. La E/S de VMDirectPath no es compatible en entornos de Windows. Se pueden asignar los Adaptadores de la serie 41xxx FastLinQ a máquinas virtuales para la operación de paso a través de PCI.
1–Visión general del producto Especificaciones del adaptador 802.1q (VLAN) 802.3-2015 IEEE Standard for Ethernet (Estándar Ethernet IEEE 802.3-2015) (control de flujo) 802.
2 Instalación del hardware Este capítulo ofrece la siguiente información sobre la instalación de software: Requisitos del sistema “Precauciones de seguridad” en la página 6 “Lista de verificación de preinstalación” en la página 7 “Instalación del adaptador” en la página 7 Requisitos del sistema Antes de instalar un Adaptador de la serie 41xxx de Marvell, compruebe si su sistema cumple con los requisitos del hardware y del sistema operativo que se muestran en la Tabla 2-1 y la Tabla 2-2.
2–Instalación del hardware Precauciones de seguridad Tabla 2-2. Requisitos mínimos del sistema operativo del host Sistema operativo Windows Server Requisito 2012 R2, 2019 RHEL® 7.6, 7.7, 8.0, 8.1 Linux SLES® 12 SP4, SLES 15, SLES 15 SP1 CentOS 7.6 VMware vSphere® ESXi 6.5 U3 y vSphere ESXi 6.7 U3 XenServer Citrix Hypervisor 8.0 7.0, 7.1 NOTA En la Tabla 2-2 se indican los requisitos mínimos del sistema operativo del host.
2–Instalación del hardware Lista de verificación de preinstalación Lista de verificación de preinstalación Antes de instalar el adaptador, realice los siguientes pasos: 1. Asegúrese de que el sistema cumpla los requisitos de hardware y software enumerados en “Requisitos del sistema” en la página 5. 2. Asegúrese de que el sistema utilice el BIOS más reciente. NOTA Si ha adquirido el software del adaptador del sitio web de Marvell, compruebe la ruta de acceso a los archivos del controlador del adaptador.
2–Instalación del hardware Instalación del adaptador 4. Alinee el borde del conector del adaptador con la ranura del conector PCIe en el sistema. 5. Aplicando presión pareja en ambos extremos de la tarjeta, empuje la tarjeta del adaptador hasta que quede correctamente asentada. Cuando el adaptador esté correctamente colocado, los conectores del puerto del adaptador se alinean con la apertura de la ranura y la placa frontal del adaptador se desliza contra el chasis del sistema.
3 Instalación del controlador Este capítulo proporciona la siguiente información sobre la instalación del controlador: Instalación del software del controlador para Linux “Instalación del software del controlador de Windows” en la página 20 “Instalación del software del controlador de VMware” en la página 34 Instalación del software del controlador para Linux Esta sección describe cómo instalar los controladores para Linux con o sin acceso directo a memoria remota (RDMA).
3–Instalación del controlador Instalación del software del controlador para Linux En la Tabla 3-1 se describen los controladores para Linux del Adaptador de la serie 41xxx. Tabla 3-1. Controladores Linux de los Adaptadores de la serie 41xxx FastLinQ de Marvell Controlador Linux: Descripción qed El módulo de controlador principal qed controla directamente el firmware, maneja las interrupciones y proporciona la API de bajo nivel para el conjunto de controladores específicos del protocolo.
3–Instalación del controlador Instalación del software del controlador para Linux El siguiente módulo de kernel RPM (kmod) instala los controladores para Linux en los hosts SLES que ejecutan el hipervisor Xen: qlgc-fastlinq-kmp-xen-...rpm El siguiente RMP de origen instala el código de biblioteca RDMA en los hosts RHEL y SLES: qlgc-libqedr-...src.
3–Instalación del controlador Instalación del software del controlador para Linux Cómo eliminar los controladores para Linux Existen dos procedimientos para eliminar controladores para Linux: uno para un entorno que no sea RDMA y otro para un entorno RDMA. Seleccione el procedimiento que coincida con su entorno.
3–Instalación del controlador Instalación del software del controlador para Linux Si los controladores para Linux se instalaron con un archivo TAR, emita los siguientes comandos: modprobe -r qede depmod -a NOTA Si está presente qedr, emita en su lugar el comando modprobe -r qedr. 3. Elimine los archivos qed.ko, qede.ko y qedr.ko del directorio en el que residen. Por ejemplo, en SLES, emita los siguientes comandos: cd /lib/modules//updates/qlgc-fastlinq rm -rf qed.ko rm -rf qede.
3–Instalación del controlador Instalación del software del controlador para Linux Para SLES: cd /lib/modules//updates/qlgc-fastlinq rm -rf qed.ko qede.ko qedr.ko Instalación de controladores para Linux mediante el paquete RPM src Para instalar controladores para Linux mediante el paquete RPM src: 1. Escriba lo siguiente en el indicador de comandos: rpm -ivh RPMS//qlgc-fastlinq-.src.rpm 2. Cambie el directorio a la ruta de acceso del RPM y cree el RPM binario para el núcleo.
3–Instalación del controlador Instalación del software del controlador para Linux 4. Active todas las interfaces ethX como sigue: ifconfig up 5. Para SLES, utilice YaST para configurar las interfaces Ethernet de modo que se inicien automáticamente durante el inicio, configurando una dirección IP estática o activando DHCP en la interfaz. Instalación de controladores para Linux mediante el paquete RPM kmp/kmod Para instalar el paquete RPM kmod: 1.
3–Instalación del controlador Instalación del software del controlador para Linux Instalación de los controladores para Linux con RDMA Para obtener más información sobre iWARP, consulte el Capítulo 8 Configuración de iWARP. Para instalar los controladores para Linux en un entorno con OFED integrada: 1. Descargue los controladores para Linux del Adaptador de la serie 41xxx desde Dell: dell.support.com 2.
3–Instalación del controlador Instalación del software del controlador para Linux Parámetros opcionales de los controladores para Linux La Tabla 3-2 describe los parámetros opcionales de los controladores qede. Tabla 3-2. Parámetros opcionales de los controladores de qede Parámetro Descripción debug Controla que el nivel de detalle del controlador sea igual que ethtool -s msglvl. int_mode Controla que el modo de interrupción sea distinto a MSI-X.
3–Instalación del controlador Instalación del software del controlador para Linux Tabla 3-3.
3–Instalación del controlador Instalación del software del controlador para Linux 2. Para instalar la clave pública, emita el siguiente comando: # mokutil --root-pw --import cert.der Donde la opción --root-pw permite el uso directo del usuario raíz. 3. Reinicie el sistema. 4. Revise la lista de certificados que están preparados para su inscripción: # mokutil --list-new 5. Reinicie de nuevo el sistema. 6.
3–Instalación del controlador Instalación del software del controlador de Windows Instalación del software del controlador de Windows Para obtener más información sobre iWARP, consulte el Capítulo 8 Configuración de iWARP.
3–Instalación del controlador Instalación del software del controlador de Windows 2. En la ventana Dell Update Package (Paquete de actualización de Dell) (Ilustración 3-1), haga clic en Install (Instalar). Ilustración 3-1. Ventana Dell Update Package (Paquete de actualización de Dell) 3. En la ventana de bienvenida del superinstalador de QLogic: Asistente InstallShield® (Ilustración 3-2), haga clic en Next (Siguiente). Ilustración 3-2.
3–Instalación del controlador Instalación del software del controlador de Windows 4. Realice lo siguiente en la ventana de Contrato de licencia del asistente (Ilustración 3-3): a. Lea el contrato de licencia de software del usuario final. b. Para continuar, seleccione I accept the terms in the license agreement (Acepto los términos del contrato de licencia). c. Haga clic en Next (Siguiente). Ilustración 3-3. Asistente QLogic InstallShield: Ventana License Agreement (Contrato de licencia) 5.
3–Instalación del controlador Instalación del software del controlador de Windows Ilustración 3-4. Asistente InstallShield: Ventana Setup Type (Tipo de configuración) 6. Si ha seleccionado Custom (Personalizada) en el paso 5, complete la ventana Custom Setup (Configuración personalizada) (Ilustración 3-5) de la siguiente forma: a. b. Seleccione las características que vaya a instalar. De forma predeterminada, todas las funciones están seleccionadas.
3–Instalación del controlador Instalación del software del controlador de Windows Ilustración 3-5. Asistente InstallShield: Ventana Custom Setup (Configuración personalizada) 7. En la ventana Ready To Install (Listo para instalar) del asistente InstallShield (Ilustración 3-6), haga clic en Install (Instalar). El Asistente InstallShield instala los controladores del adaptador de QLogic y el instalador de software de administración. Ilustración 3-6.
3–Instalación del controlador Instalación del software del controlador de Windows 8. Cuando finalice la instalación, aparecerá la ventana InstallShield Wizard Completed (Asistente InstallShield completado) (Ilustración 3-7). Haga clic en Finish (Finalizar) para retirar el instalador. Ilustración 3-7. Asistente InstallShield: Ventana Completed (Completada) 9.
3–Instalación del controlador Instalación del software del controlador de Windows Ilustración 3-8. Ventana Dell Update Package (Paquete de actualización de Dell) Opciones de instalación del DUP Para personalizar el comportamiento de instalación del DUP, utilice las siguientes opciones de línea de comando. Para extraer solamente los componentes del controlador a un directorio: /drivers= NOTA Este comando requiere la opción /s.
3–Instalación del controlador Instalación del software del controlador de Windows NOTA Este comando requiere la opción /s. Ejemplos de instalación del DUP En los siguientes ejemplos se muestra cómo funcionan las opciones de instalación. Para actualizar el sistema en modo silencioso: .exe /s Para extraer el contenido de la actualización en el directorio C:\mydir\: .exe /s /e=C:\mydir Para extraer los componentes del controlador en el directorio C:\mydir\: .
3–Instalación del controlador Instalación del software del controlador de Windows 3. En la página Advanced (Avanzado) (Ilustración 3-9), seleccione un elemento en Property (Propiedad) y, a continuación, cambie el Value (Valor) de dicho elemento según sea necesario. Ilustración 3-9.
3–Instalación del controlador Instalación del software del controlador de Windows Configuración de las opciones de administración de energía Podrá configurar las opciones de administración de energía para permitir que el sistema operativo apague la controladora para ahorrar energía o para que la controladora active el equipo. Si el dispositivo está ocupado (por ejemplo, atendiendo una llamada), el sistema operativo no apagará el dispositivo.
3–Instalación del controlador Instalación del software del controlador de Windows Configuración del protocolo de comunicación a utilizar con QCCla GUIQCC PowerKity QCS CLI Las aplicaciones de administración de la GUI de QCC, el QCC PowerKit y la CLI de QCS tienen dos componentes principales: el agente RPC y el software cliente. Se ha instalado un agente RPC en un servidor o “host administrado” que contiene uno o más adaptadores de red convergente.
3–Instalación del controlador Instalación del software del controlador de Windows Modo Link Control (Control del enlace) Existen dos modos para controlar la configuración del enlace: Preboot Controlled (Preinicio controlado) es el modo predeterminado. En este modo, el controlador utiliza la configuración del enlace del dispositivo, que es configurable desde componentes de preinicio. Este modo ignora los parámetros de enlace de la pestaña Advanced (Avanzado).
3–Instalación del controlador Instalación del software del controlador de Windows Velocidad y dúplex del enlace La propiedad Speed & Duplex (Velocidad y dúplex) (en la pestaña Advanced [Avanzado] del Administrador de dispositivos) se puede configurar en cualquier selección del menú Value (Valor) (consulte la Ilustración 3-12). Ilustración 3-12.
3–Instalación del controlador Instalación del software del controlador de Windows 2. Establezca Speed & Duplex (Velocidad y Dúplex). En la pestaña Advanced (Avanzado) del Administrador de dispositivos: a. En el menú Property (Propiedad), seleccione Speed & Duplex (Velocidad y dúplex). b. En el menú Value (Valor), seleccione una velocidad fija. La configuración del modo FEC está activa solo si Speed & Duplex (Velocidad y dúplex) se ha establecido en una velocidad fija.
3–Instalación del controlador Instalación del software del controlador de VMware Instalación del software del controlador de VMware Esta sección describe el controlador qedentv de VMware ESXi para los Adaptadores de la serie 41xxx: Controladores y paquetes de controladores de VMware Instalación de controladores de VMware Parámetros opcionales del controlador NIC de VMware Valores predeterminados de los parámetros de los controladores de VMware Cómo eliminar los controladores de VMware
3–Instalación del controlador Instalación del software del controlador de VMware Los controladores ESXi se incluyen como paquetes de controladores individuales y no están empaquetados juntos, excepto los indicados. Los controladores de VMware están disponibles para descarga solo en el sitio web de VMware: https://www.vmware.com/resources/compatibility/search.
3–Instalación del controlador Instalación del software del controlador de VMware 4. Ponga el host en modo de mantenimiento emitiendo el siguiente comando: # esxcli --maintenance-mode NOTA El número máximo de interfaces Ethernet de qedentv admitidas en un host ESXi es 32 porque el vmkernel permite solo que se registren 32 interfaces para la devolución de llamada de administración. 5.
3–Instalación del controlador Instalación del software del controlador de VMware Parámetros opcionales del controlador NIC de VMware La Tabla 3-5 describe los parámetros opcionales que se pueden proporcionar como argumentos de línea de comando al comando esxcfg-module. Tabla 3-5. Parámetros opcionales del controlador NIC de VMware Parámetro Descripción hw_vlan Activa globalmente (1) o desactiva (0) la inserción y eliminación de la vLAN del hardware.
3–Instalación del controlador Instalación del software del controlador de VMware Tabla 3-5. Parámetros opcionales del controlador NIC de VMware (Continuación) Parámetro Descripción Especifica el nivel de datos que el controlador registra en el archivo de registro vmkernel. debug puede tener los siguientes valores, mostrados en cantidades en aumento de los datos: debug 0x80000000 indica el nivel de aviso. 0x40000000 indica el nivel de información (incluye el nivel de aviso).
3–Instalación del controlador Instalación del software del controlador de VMware Tabla 3-6.
3–Instalación del controlador Instalación del software del controlador de VMware Compatibilidad con FCoE El controlador qedf FCoE de VMware Marvell incluido en el paquete de software de VMware admite los controladores de interfaz de red convergente (C-NIC) FCoE de Marvell FastLinQ. El controlador es un controlador de modo kernel que proporciona una capa de traducción entre la pila SCSI de VMware y el firmware y hardware de FCoE de Marvell.
4 Actualización del firmware Este capítulo proporciona información sobre cómo actualizar el firmware con Dell Update Package (Paquete de actualización Dell [DUP]). El DUP del firmware es solo una utilidad de actualización de la memoria Flash; no se utiliza para la configuración del adaptador. Puede ejecutar el DUP del firmware haciendo doble clic en el archivo ejecutable. También puede ejecutar el DUP del firmware desde la línea de comando, que admite varias opciones de línea de comando.
4–Actualización del firmware Ejecución del DUP haciendo doble clic 2. Aparece la pantalla de presentación Dell Update Package (Paquete de actualización Dell), como se muestra en la Ilustración 4-1. Haga clic en Install (Instalar) para continuar. Ilustración 4-1. Dell Update Package (Paquete de actualización Dell): Ventana de presentación 3. Siga las instrucciones que aparecen en la pantalla. En el cuadro de diálogo de advertencia, haga clic en Yes (Sí) para continuar con la instalación.
4–Actualización del firmware Ejecución del DUP haciendo doble clic El instalador indica que está cargando el nuevo firmware, según se muestra en la Ilustración 4-2. Ilustración 4-2. Dell Update Package (Paquete de actualización Dell): Cargando nuevo firmware Cuando haya terminado, el instalador indica el resultado de la instalación, según se muestra en la Ilustración 4-3. Ilustración 4-3.
4–Actualización del firmware Ejecución de DUP desde la línea de comando 4. Haga clic en Yes (Sí) para reiniciar el sistema. 5. Haga clic en Finish (Finalizar) para completar la instalación, según se muestra en la Ilustración 4-4. Ilustración 4-4.
4–Actualización del firmware Ejecución del DUP mediante el archivo .bin La Ilustración 4-5 muestra las opciones que puede utilizar para personalizar la instalación del Dell Update Package (Paquete de actualización Dell). Ilustración 4-5. Opciones de línea de comando del DUP: Ejecución del DUP mediante el archivo .bin El siguiente procedimiento solo es admitido por el sistema operativo Linux. Para ejecutar el DUP mediante el archivo .bin: 1. Copie el archivo Network_Firmware_NJCX1_LN_X.Y.Z.
4–Actualización del firmware Ejecución del DUP mediante el archivo .bin Ejemplo de salida de SUT durante la actualización del DUP: ./Network_Firmware_NJCX1_LN_08.07.26.BIN Collecting inventory... Running validation... BCM57810 10 Gigabit Ethernet rev 10 (p2p1) The version of this Update Package is the same as the currently installed version. Software application name: BCM57810 10 Gigabit Ethernet rev 10 (p2p1) Package version: 08.07.26 Installed version: 08.07.
5 Configuración de inicio previo del adaptador Durante el proceso de inicio del host, tiene la oportunidad de hacer una pausa y realizar las tareas de administración del adaptador utilizando la aplicación de Interfaz de infraestructura humana (HI).
5–Configuración de inicio previo del adaptador Introducción Introducción Para iniciar la aplicación HII: 1. Abra la ventana de configuración del sistema de su plataforma. Para obtener información sobre cómo iniciar la configuración del sistema, consulte la guía del usuario de su sistema. 2. En la ventana de configuración del sistema (Ilustración 5-1), seleccione Device Settings (Configuración del dispositivo) y, a continuación, pulse INTRO. Ilustración 5-1. System Setup (Configuración del sistema) 3.
5–Configuración de inicio previo del adaptador Introducción En la Main Configuration Page (Página de configuración principal) (Ilustración 5-3) aparecen las opciones de administración del adaptador mediante las cuales puede definir el modo de particionamiento. Ilustración 5-3. Main Configuration Page (Página de configuración principal) 4.
5–Configuración de inicio previo del adaptador Introducción NOTA NPAR no está disponible en los puertos con una velocidad máxima de 1G. Ilustración 5-4.
5–Configuración de inicio previo del adaptador Introducción NIC Partitioning Configuration (Configuración del particionamiento NIC) (si se selecciona NPAR en la página de configuración de nivel del dispositivo) (consulte “Configuración de las particiones” en la página 68) Además, la Main Configuration Page (Página de configuración principal) ofrece las propiedades del adaptador mostradas en la Tabla 5-1. Tabla 5-1.
5–Configuración de inicio previo del adaptador Visualización de las propiedades de imagen de firmware Tabla 5-1.
5–Configuración de inicio previo del adaptador Configuración de parámetros del dispositivo EFI Driver Version (Versión del controlador EFI) es la versión del controlador de la interfaz del firmware extensible (EFI). L2B Firmware Version (Versión de firmware L2B) es la versión de firmware de descarga NIC para el inicio. Ilustración 5-5.
5–Configuración de inicio previo del adaptador Configuración de parámetros del dispositivo 2. En la página Device Level Configuration (Configuración de nivel de dispositivo), seleccione valores para los parámetros del dispositivo, tal como se muestra en la Ilustración 5-6. Ilustración 5-6.
5–Configuración de inicio previo del adaptador Configuración de parámetros de NIC Configuración de parámetros de NIC La configuración NIC incluye los parámetros siguientes: Velocidad de enlace NIC + Modo RDMA Compatibilidad con el protocolo RDMA Modo de inicio Modo FEC Ethernet eficiente en energía Modo LAN virtual Id. de LAN virtual Para configurar los parámetros de NIC: 1.
5–Configuración de inicio previo del adaptador Configuración de parámetros de NIC 25 Gbps activa un modo de velocidad fija de 25GbE en el puerto. Este modo no está disponible en todos los adaptadores. SmartAN (valor predeterminado) activa un modo de velocidad de enlace de FastLinQ SmartAN™ en el puerto. No está disponible la selección de ningún modo FEC para este modo de velocidad.
5–Configuración de inicio previo del adaptador Configuración de parámetros de NIC 6. 7. 8. Para el Boot Mode (Modo de inicio), seleccione uno de los valores siguientes: PXE activa el inicio PXE. FCoE activa el inicio FCoE desde SAN a través de la vía de descarga del hardware. El modo FCoE solo está disponible si se ha activado FCoE Offload (Descarga FCoE) en la segunda partición en modo NPAR (consulte “Configuración de las particiones” en la página 68).
5–Configuración de inicio previo del adaptador Configuración de parámetros de NIC 11. Si se le pregunta, haga clic en Yes (Sí) para guardar los cambios. Los cambios surten efecto tras restablecer el sistema. Para configurar el puerto para que utilice RDMA: NOTA Siga estos pasos para activar el RDMA en todas las particiones del puerto de modo de un NPAR. 1. Establezca NIC + RDMA Mode (NIC + Modo RDMA) en Enabled (Activado). 2. Haga clic en Back (Atrás). 3.
5–Configuración de inicio previo del adaptador Configuración del puente del centro de datos Configuración del puente del centro de datos La configuración del Puente de centros de datos (DCB) incluye el protocolo DCBX y la prioridad RoCE. Para configurar los valores de DCB: 1.
5–Configuración de inicio previo del adaptador Configuración de inicio FCoE 5. Si se le pregunta, haga clic en Yes (Sí) para guardar los cambios. Los cambios surten efecto tras restablecer el sistema. NOTA Cuando se activa DCBX, el adaptador envía periódicamente paquetes de Protocolo de detección de nivel de vínculo (LLDP) con una dirección unicast dedicada que sirve como dirección MAC de origen. La dirección MAC LLDP es distinta de la dirección MAC del adaptador Ethernet asignada en fábrica.
5–Configuración de inicio previo del adaptador Configuración de inicio FCoE 3. Elija los valores de los parámetros FCoE General (Parámetros generales FCoE) o FCoE Target Configuration (Configuración de destino FCoE). Ilustración 5-9. FCoE General Parameters (Parámetros generales FCoE) Ilustración 5-10. FCoE Target Configuration (Configuración de destino FCoE) 4. Haga clic en Back (Atrás). 5. Si se le pregunta, haga clic en Yes (Sí) para guardar los cambios.
5–Configuración de inicio previo del adaptador Configuración del inicio iSCSI Configuración del inicio iSCSI NOTA El menú iSCSI Boot Configuration (Configuración de inicio de iSCSI) solo es visible si iSCSI Offload Mode (Modo Descarga iSCSI) se ha activado en la tercera partición en modo NPAR (consulte la Ilustración 5-19 en la página 72). No es visible en un modo que no sea NPAR.
5–Configuración de inicio previo del adaptador Configuración del inicio iSCSI Parámetros de destino primario iSCSI (Ilustración 5-13 en la página 66) IPv4 Primary DNS (DNS primario de IPv4) IPv4 Secondary DNS (DNS secundario de IPv4) VLAN ID (Id. de VLAN) iSCSI Name (Nombre de iSCSI) CHAP ID (Id. de CHAP) CHAP Secret (Secreto CHAP) Connect (Conectar) IPv4 Address (Dirección IPv4) TCP Port (Puerto TCP) Boot LUN (LUN de inicio) iSCSI Name (Nombre de iSCSI) CHAP ID (Id.
5–Configuración de inicio previo del adaptador Configuración del inicio iSCSI Ilustración 5-11.
5–Configuración de inicio previo del adaptador Configuración del inicio iSCSI Ilustración 5-12.
5–Configuración de inicio previo del adaptador Configuración del inicio iSCSI Ilustración 5-13.
5–Configuración de inicio previo del adaptador Configuración del inicio iSCSI Ilustración 5-14.
5–Configuración de inicio previo del adaptador Configuración de las particiones Configuración de las particiones Puede configurar los rangos de ancho de banda para cada partición del adaptador. Para obtener información específica sobre la configuración de la partición en VMware ESXi 6.5, consulte Particionamiento para VMware ESXi 6.5 y ESXi 6.7. Para configurar las asignaciones de ancho de banda máximo y mínimo: 1.
5–Configuración de inicio previo del adaptador Configuración de las particiones 3. En la página Global Bandwidth Allocation (Asignación de ancho de banda global) (Ilustración 5-16), haga clic en el campo de ancho de banda TX mínimo y máximo de cada partición para la que desee asignar ancho de banda. En modo de dos puertos hay ocho particiones por puerto. Ilustración 5-16.
5–Configuración de inicio previo del adaptador Configuración de las particiones Partition n Maximum TX Bandwidth (Ancho de banda TX máximo de partición N) es el ancho de banda de transmisión máximo de la partición seleccionada expresado como porcentaje de la velocidad de enlace de puerto físico máxima. Los valores pueden ser 1–100. El valor de ancho de banda TX máximo por partición se aplica con independencia de a configuración de modo ETS de DCBX.
5–Configuración de inicio previo del adaptador Configuración de las particiones 3. Para configurar la segunda partición, seleccione Partition 2 Configuration (Configuración de la partición 2) para abrir la página de configuración de la partición 2. Si hay Descarga FCoE, la configuración de la partición 2 (Ilustración 5-18) muestra los parámetros siguientes: NIC Mode (Modo NIC) activa o desactiva la personalidad NIC de la Ethernet L2 de las particiones 2 o mayores.
5–Configuración de inicio previo del adaptador Configuración de las particiones Ilustración 5-18. Partition 2 Configuration: FCoE Offload (Configuración de la partición 2: Descarga FCOE) 4. Para configurar la tercera partición, seleccione Partition 3 Configuration (Configuración de la partición 3) para abrir la página de configuración de la partición 3 (Ilustración 5-19).
5–Configuración de inicio previo del adaptador Configuración de las particiones 5. Para configurar las particiones Ethernet restantes, incluidas las anteriores (si no se han activado para descarga), abra la página para una partición 2 o para una partición mayor (consulte Ilustración 5-20). NIC Mode (Enabled o Disabled) (Modo NIC, activado o desactivado).
5–Configuración de inicio previo del adaptador Configuración de las particiones Se requiere volver a instalar el controlador porque las funciones de almacenamiento pueden mantener la enumeración vmnicX en lugar de vmhbaX, como se muestra cuando se emite el comando siguiente en el sistema: # esxcfg-scsidevs -a vmnic4 qedf link-up fc.2000000e1ed6fa2a:2001000e1ed6fa2a (0000:19:00.2) QLogic Corp. QLogic FastLinQ QL41xxx Series 10/25 GbE Controller (FCoE) vmhba0 lsi_mr3 link-n/a sas.
6 Configuración del inicio desde SAN El inicio de SAN permite el despliegue de servidores sin disco en un entorno en el que el disco de inicio se encuentre en almacenamiento conectado a SAN. El servidor (iniciador) se comunica con el dispositivo de almacenamiento (destino) a través de SAN mediante el adaptador de bus de host (HBA) del adaptador de red convergente (CNA) de Marvell.
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN Asistencia integrada y lista para usar iSCSI La Tabla 6-1 muestra la asistencia integrada y lista para usar de los sistemas operativos para el inicio iSCSI desde SAN (BFS). Tabla 6-1.
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN Para los sistemas operativos Windows y Linux, el inicio iSCSI puede configurarse con dos métodos específicos: iSCSI SW (también conocida como ruta de acceso de no descarga con el iniciador de Microsoft/Open-iSCSI) Siga la guía Dell BIOS para la instalación de software iSCSI. iSCSI HW (ruta de acceso de descarga con el controlador iSCSI de descarga de Marvell FastLinQ). Esta opción se puede establecer mediante Boot Mode (Modo de inicio).
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN Ilustración 6-1.
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN Activación de NPAR y del iSCSI HBA Para activar NPAR y el iSCSI HBA: 1. En System Setup (Configuración del sistema), en Device Settings (Configuración del dispositivo), seleccione el dispositivo QLogic (Ilustración 6-2). Consulte la guía del usuario de OEM para saber cómo se accede al menú de configuración del dispositivo PCI. Ilustración 6-2. System Setup: Device Settings (Configuración del sistema: Configuración del dispositivo) 2.
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN Configuración del destino de almacenamiento La configuración del destino de almacenamiento varía según los proveedores de destino. Para obtener más información sobre la configuración del destino de almacenamiento, consulte la documentación proporcionada por el proveedor. Para configurar el destino de almacenamiento: 1. 2.
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN Ilustración 6-3. System Setup: NIC Configuration (Configuración del sistema: Configuración NIC) NOTA El inicio desde SAN solo se admite en el modo NPAR y se configura en UEFI y no en el BIOS heredado.
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN 1. En la página NIC Configuration (Configuración de NIC) (Ilustración 6-4), para la opción Boot Protocol (Protocolo de inicio), seleccione UEFI iSCSI HBA (requiere el modo NPAR). Ilustración 6-4. System Setup: NIC Configuration, Boot Protocol (Configuración NIC, Protocolo de inicio) NOTA Utilice las opciones Virtual LAN Mode (Modo LAN virtual) y Virtual LAN ID (Id. de LAN virtual) en esta página solo para el inicio PXE.
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN Configuración estática de inicio iSCSI En una configuración estática, debe introducir los datos correspondientes a: Dirección IP del iniciador IQN de iniciador Los parámetros de destino (obtenidos en “Configuración del destino de almacenamiento” en la página 80) Para obtener más información sobre las opciones de configuración, consulte la Tabla 6-2 en la página 85.
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN 2. En la página iSCSI Configuration (Configuración iSCSI), seleccione iSCSI General Parameters (Parámetros generales iSCSI) (Ilustración 6-6) y, a continuación, pulse INTRO. Ilustración 6-6. System Setup: Selecting General Parameters (Configuración del sistema: Selección de parámetros generales) 3.
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN Ilustración 6-7. System Setup: iSCSI General Parameters (Configuración del sistema: Parámetros generales iSCSI) Tabla 6-2. iSCSI General Parameters (Parámetros generales iSCSI) Opción Descripción TCP/IP Parameters via DHCP (Parámetros TCP/IP mediante DHCP) Esta opción es específica para IPv4.
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN Tabla 6-2. iSCSI General Parameters (Parámetros generales iSCSI) (Continuación) Opción Descripción IP Version (Versión IP) Esta opción es específica para IPv6. Alterna entre IPv4 e IPv6. Todos los valores IP se pierden si pasa de una versión de protocolo a la otra.
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN 5. Seleccione iSCSI Initiator Parameters (Parámetros del iniciador iSCSI) (Ilustración 6-8) y, a continuación, pulse INTRO. Ilustración 6-8. System Setup: Selecting iSCSI Initiator Parameters (Configuración del sistema: Selección de los parámetros del iniciador iSCSI) 6.
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN NOTA Para los elementos precedentes con asteriscos (*), tenga en cuenta lo siguiente: La etiqueta cambiará a IPv6 o IPv4 (predeterminado) según la versión IP que se haya definido en la página iSCSI General Parameters (Parámetros generales iSCSI) (Ilustración 6-7 en la página 85). Introduzca con cuidado la dirección IP.
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN 8. Seleccione iSCSI First Target Parameters (Parámetros de destino primario iSCSI) (Ilustración 6-10) y, a continuación, pulse INTRO. Ilustración 6-10. System Setup: Selecting iSCSI First Target Parameters (Configuración del sistema: Selección de Parámetros de destino primario iSCSI) 9.
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN Ilustración 6-11. System Setup: iSCSI First Target Parameters (Parámetros de destino primario iSCSI) 11. Vuelva a la página iSCSI Boot Configuration (Configuración de inicio de iSCSI) y pulse ESC.
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN 12. Si quiere configurar un segundo dispositivo de destino iSCSI, seleccione iSCSI Second Target Parameters (Parámetros de destino secundario iSCSI) (Ilustración 6-12) e introduzca los valores del parámetro como hizo en el paso 10. Este segundo destino se utiliza si no se puede conectar con el primer destino. De lo contrario, continúe con el paso 13. Ilustración 6-12.
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN Ilustración 6-13. System Setup: Saving iSCSI Changes (Configuración del sistema: Guardar cambios de iSCSI) 15. Una vez que se hayan realizado todos los cambios, reinicie el sistema para aplicarlos a la configuración en ejecución del adaptador.
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN NOTA Al utilizar un servidor DHCP, los valores proporcionados por este servidor sobrescriben las entradas del servidor DNS. Esta anulación sucede incluso cuando los valores proporcionados localmente son válidos y el servidor DHCP no proporciona información sobre el servidor DNS. Cuando el servidor DHCP no proporciona información sobre el servidor DNS, tanto los valores primarios como los secundarios del servidor DNS están configurados en 0.0.0.0.
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN DHCP Vendor ID (Id. de proveedor de DHCP): Lo que corresponda HBA Boot Mode (Modo de inicio de HBA): Lo que corresponda Virtual LAN ID (Id. de LAN virtual): Lo que corresponda Virtual LAN Mode (Modo LAN virtual): Lo que corresponda1 Ilustración 6-14.
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN 4. Pulse ESC para volver a la página iSCSI Boot Configuration (Configuración de inicio de iSCSI). 5. En iSCSI Boot Configuration Menu (Menú de configuración de iSCSI), seleccione iSCSI First Target Parameters (Parámetros de destino primario iSCSI). 6. En la ventana iSCSI First Target Parameters (Parámetros de destino primario iSCSI), escriba los valores que utilizó al configurar el destino iSCSI: CHAP ID (Id.
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN En la Tabla 6-3 se muestran los parámetros de la Opción 17 de DHCP. Tabla 6-3. Definiciones de los parámetros de la Opción 17 de DHCP Parámetro Definición "iscsi:" Una cadena literal Dirección IP o el nombre de dominio completo (FQDN) de iSCSI destino ":" Separador Protocolo IP utilizado para acceder al destino iSCSI. Como actualmente solo se admite TCP, el protocolo es 6.
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN En la Tabla 6-4 se muestran las subopciones de la opción 43 de DHCP. Tabla 6-4.
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN NOTA La opción DHCPv6 standard Root Path (Ruta de raíz estándar de DHCPv6) aún no está disponible. Marvell sugiere que se utilice la Opción 16 o la Opción 17 para el inicio dinámico de iSCSI IPv6. Opción 16 de DHCPv6, opción de clase de proveedor La Opción 16 de DHCPv6 (opción de clase de proveedor) debe estar presente y debe contener una cadena que coincida con su parámetro DHCP Vendor ID (Id. de proveedor de DHCP) configurado.
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN Configuración de vLAN para el inicio iSCSI El tráfico iSCSI en la red se puede aislar en una red vLAN Capa 2 para separarlo del tráfico general. Si es el caso, haga que la interfaz iSCSI del adaptador sea miembro de dicha red vLAN. Para configurar vLAN para el inicio iSCSI: 1. Vaya a la página iSCSI Configuration (Configuración de iSCSI) del puerto. 2. Seleccione iSCSI General Parameters (Parámetros generales iSCSI). 3.
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN La información del inicio iSCSI desde SAN para Windows incluye lo siguiente: Antes de empezar Selección del modo de inicio iSCSI preferido Configuración de los parámetros generales iSCSI Configuración del iniciador iSCSI Configuración de los destinos iSCSI Detección del LUN de iSCSI e inyección de controladores Marvell Antes de empezar Antes de iniciar la configuración del inicio iSCSI desde SAN en una máquina Windows, teng
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN Para establecer los parámetros generales iSCSI en Windows: 1. En la página Main Configuration (Configuración principal), seleccione iSCSI Configuration (Configuración iSCSI) y, a continuación, seleccione iSCSI General Parameters (Parámetros generales de iSCSI). 2.
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN iSCSI Name (Nombre de iSCSI). Se corresponde con el nombre del iniciador iSCSI que utilizará el sistema del cliente. CHAP ID (Id.
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN NOTA En los parámetros arriba enumerados que tienen un asterisco (*), la etiqueta cambiará a IPv6 o IPv4 (predeterminado) según la versión IP que se haya definido en la página iSCSI General Parameters (Parámetros generales iSCSI), tal como se muestra en la Ilustración 6-7 en la página 85. 4.
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN 3. En la ventana de configuración de Windows (Ilustración 6-17), seleccione el nombre de la unidad en el que instalar el controlador. Ilustración 6-17. Configuración de Windows: Selección de destino de instalación 4. Inyecte los últimos controladores Marvell montando controladores en los soportes virtuales: a. Haga clic en Load driver (Controlador de carga) y, a continuación, haga clic en Browse (Examinar) (consulte la Ilustración 6-18).
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN 5. Repita el paso 4 para cargar el controlador qeios (controlador iSCSI L4 de Marvell). 6. Después de inyectar los controladores qevbd y qeios, haga clic en Next (Siguiente) para iniciar la instalación en el LUN de iSCSI. A continuación, siga las instrucciones que aparecen en la pantalla. El servidor se reiniciará varias veces como parte del proceso de instalación y, a continuación, arrancará desde el LUN del inicio iSCSI desde SAN. 7.
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN 5. Si es necesario para su configuración, cargue el disco de actualización del controlador FastLinQ cuando se solicite para discos de controlador adicionales. En caso contrario, si no tiene otros discos de actualización de controlador que instalar, pulse la tecla C. 6. Continúe con la instalación. Puede omitir la prueba de los soportes. Haga clic en Next (Siguiente) para continuar con la instalación. 7.
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN 14. Cree un nuevo archivo grub.cfg emitiendo el siguiente comando: # grub2-mkconfig -o /boot/efi/EFI/redhat/grub.cfg 15. Vuelva a generar ramdisk emitiendo el comando dracut -f y reinicie. NOTA Cuando se instale BFS iSCSI en Linux con una configuración de E/S de múltiples rutas (MPIO) y una ruta única activa, utilice los siguientes valores en el archivo multipath.
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN 3. Complete los pasos de instalación especificados por el sistema operativo SLES 12 SP3. Problema conocido en la configuración DHCP En la configuración DHCP para SLES 12 SP3 y posteriores, el primer inicio tras la instalación del SO puede fallar si la dirección IP del iniciador adquirida del servidor DHCP está en un rango diferente a la dirección IP de destino.
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN Inicio desde SAN con un iniciador de software Para iniciar desde SAN utilizando un iniciador de software con Dell OEM Solutions: NOTA El paso anterior es necesario porque los DUD contienen qedi, que enlaza con la PF de iSCSI. Una vez que está enlazada, la infraestructura Open-iSCSI da error debido a que el controlador de transporte es desconocido. 1. Acceda a la configuración del BIOS del sistema EMC de Dell. 2.
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN Migración a iSCSI de descarga para RHEL 6.9/6.10 Para migrar de una instalación iSCSI de software a iSCSI de descarga para RHEL 6.9 o 6.10: 1. Inicie en el sistema operativo iSCSI de no descarga/inicio desde SAN L2. Emita los comandos siguientes para instalar los RPM iscsiuio y Open-iSCSI: # rpm -ivh --force qlgc-open-iscsi-2.0_873.111-1.x86_64.rpm # rpm -ivh --force iscsiuio-2.11.5.2-1.rhel6u9.x86_64.
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN initrd /initramfs-2.6.32-696.el6.x86_64.img kernel /vmlinuz-2.6.32-696.el6.x86_64 ro root=/dev/mapper/vg_prebooteit-lv_root rd_NO_LUKS iscsi_firmware LANG=en_US.UTF-8 rd_NO_MD SYSFONT=latarcyrheb-sun16 crashkernel=auto rd_NO_DM rd_LVM_LV=vg_prebooteit/lv_swap KEYBOARDTYPE=pc KEYTABLE=us rd_LVM_LV=vg_prebooteit/lv_root selinux=0 initrd /initramfs-2.6.32-696.el6.x86_64.img 4.
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN Migración a iSCSI de descarga para SLES 11 SP4 Para migrar de una instalación iSCSI de software a iSCSI de descarga para SLES 11 SP4: 1. Actualice las herramientas Open-iSCSI e iscsiuio a las versiones más recientes disponibles emitiendo los comandos siguientes: # rpm -ivh qlgc-open-iscsi-2.0_873.111.sles11sp4-3.x86_64.rpm --force # rpm -ivh iscsiuio-2.11.5.3-2.sles11sp4.x86_64.
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN 5. Ubique y elimine los archivos siguientes: 6. /etc/init.d/boot.d/K01boot.open-iscsi /etc/init.d/boot.open-iscsi Cree una copia de seguridad de initrd y genere un nuevo initrd emitiendo los comandos siguientes. # cd /boot/ # mkinitrd 7. Reinicie el servidor y, a continuación, abra UEFI HII. 8.
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN NOTA Para conservar el contenido original del RPM integrado durante la instalación, debe utilizar la opción -ivh (en lugar de la opción -Uvh), seguida de la opción --force. 2. Recargue todos los servicios de daemon emitiendo el siguiente comando: # systemctl daemon-reload 3. Active los servicios iscsid e iscsiuio (si no están activados) emitiendo los comandos siguientes: # systemctl enable iscsid # systemctl enable iscsiuio 4.
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN 10. Reemplace el archivo original grub.cfg por el nuevo archivo grub.cfg. 11. Compile el archivo initramfs emitiendo el siguiente comando: # dracut -f 12. Reinicie el servidor y, a continuación, abra UEFI HII. 13. En UEFI HII, desactive el inicio iSCSI desde BIOS y, a continuación, active iSCSI HBA o el inicio para los adaptadores de la siguiente forma: 14. a.
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN Migración y configuración de MPIO a la interfaz descargada para RHEL 6.9/6.10 Para migrar de L2 a L4 y configurar MPIO para iniciar el sistema operativo a través de la interfaz descargada para RHEL 6.9/6.10: 1. Configure la configuración de inicio iSCSI para BFS L2 en ambos puertos del adaptador. El inicio iniciará sesión a través únicamente de un puerto, pero creará una interfaz de Tabla de firmware de inicio iSCSI (iBFT) para ambos puertos. 2.
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN 11. Vuelva a generar initramfs con soporte de múltiples rutas. # dracut --force --add multipath --include /etc/multipath 12. Reinicie el servidor e inicie en SO con múltiples rutas. NOTA \ Para que surtan efecto los cambios adicionales en el archivo /etc/multipath.conf, debe volver a generar la imagen initrd y reiniciar el servidor.
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN 4. Inicie los servicios de múltiples rutas de la siguiente forma: # /etc/init.d/boot.multipath start # /etc/init.d/multipathd start 5. Ejecute multipath –v2 –d para mostrar la configuración de múltiples rutas con un simulacro. 6. Localice el archivo multipath.conf en /etc/multipath.conf. NOTA \ Si el archivo no está presente, copie multipath.
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN 4. Inicie en el sistema operativo con L2. 5. Actualice las herramientas Open-iSCSI emitiendo los comandos siguientes: # rpm -ivh qlgc-open-iscsi-2.0_873.111.sles12sp1-3.x86_64.rpm --force # rpm -ivh iscsiuio-2.11.5.5-6.sles12sp1.x86_64.rpm --force 6. Edite el archivo /etc/default/grub cambiando el parámetro rd.iscsi.ibft a rd.iscsi.firmware y, a continuación, guarde el archivo. 7.
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN 14. Reinicie el sistema. Ahora el sistema operativo se iniciará a través de la interfaz de descarga. NOTA \ Para que surtan efecto los cambios adicionales en el archivo /etc/multipath.conf, debe volver a generar la imagen initrd y reiniciar el servidor.
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN 6. Complete la página Device Level Configuration (Configuración de nivel de dispositivo) (consulte la Ilustración 6-19) de la siguiente forma: a. Para Virtualization Mode (Modo de virtualización), seleccione None (Ninguno), NPar o NPar_EP para la instalación de IBFT a través de la interfaz NIC. b. Para NParEP Mode (Modo NParEP), seleccione Disabled (Desactivado). c.
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN 11. Complete la página de configuración de la partición 2 (consulte la Ilustración 6-20) de la siguiente forma: a. Para FCoE Mode (Modo FCoE), seleccione Disabled (Desactivado). b. Para iSCSI Offload Mode (Modo de descarga iSCSI), seleccione Disabled (Desactivado). Ilustración 6-20.
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN Configuración del BIOS del sistema para inicio iSCSI (L2) Para configurar el BIOS del sistema en VMware: 1. En la página System BIOS Settings (Configuración del BIOS del sistema), seleccione Boot Settings (Configuración del BIOS). 2. Complete la página Boot Settings (Configuración de inicio) según aparecen en la Ilustración 6-21. Ilustración 6-21. NIC integrado: BIOS del sistema, Configuración de inicio para VMware 3.
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN c. Para VLAN, seleccione Disabled (Desactivado) (el valor predeterminado) o Enabled (Activado) (si desea probar IBFT con una vLAN). d. Para DHCP, seleccione Enabled (Activado) (si la dirección IP es del servidor DHCP) o Disabled (Desactivado) (para usar la configuración IP estática). e. Para Target info via DHCP (Información de destino a través de DHCP), seleccione Disabled (Desactivado). Ilustración 6-22.
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN Ilustración 6-23. NIC integrado: BIOS del sistema, Configuración de conexión 1 (destino) para VMware 8. Guarde todos los cambios de configuración y reinicie el servidor. 9. Durante el arranque del sistema, pulse la tecla F11 para iniciar el Administrador de arranque. 10.
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN 5. En la ventana Select a Disk To Install Or Upgrade (Seleccionar un disco para instalar o actualizar), en Storage Device (Dispositivo de almacenamiento), seleccione el disco 3PARdata W y, a continuación, pulse la tecla INTRO. La Ilustración 6-24 muestra un ejemplo. Ilustración 6-24. VMware iSCSI BFS: Selección de un disco que instalar 6. Inicie la instalación del sistema operativo ESXi OS en el LUN de iSCSI remoto.
6–Configuración del inicio desde SAN Inicio FCoE desde SAN 7. Una vez finalizada correctamente la instalación del sistema operativo ESXi, el sistema se reinicia en el sistema operativo, tal como se muestra en la Ilustración 6-25. Ilustración 6-25. Inicio iSCSI de WMware desde SAN correcto Inicio FCoE desde SAN Marvell Adaptadores de la serie 41xxx admiten el inicio FCoE, lo que permite el arranque de redes de sistemas operativos en sistemas sin disco.
6–Configuración del inicio desde SAN Inicio FCoE desde SAN Asistencia integrada y lista para usar FCoE La Tabla 6-6 muestra la asistencia integrada y lista para usar de los sistemas operativos para el inicio FCoE desde SAN (BFS). Tabla 6-6.
6–Configuración del inicio desde SAN Inicio FCoE desde SAN Especificación del protocolo de inicio del BIOS El inicio FCoE desde SAN solo se admite en modo UEFI. Establezca la plataforma en modo de inicio (protocolo) utilizando la configuración BIOS del sistema en UEFI. NOTA FCoE BFS no se admite en modo BIOS heredado. Configuración del modo de inicio del adaptador UEFI Para configurar el modo de inicio en FCOE: 1. Reinicie el sistema. 2.
6–Configuración del inicio desde SAN Inicio FCoE desde SAN 3. En la página Device Settings (Configuración del dispositivo), seleccione el adaptador FastLinQ de Marvell (Ilustración 6-27). Ilustración 6-27.
6–Configuración del inicio desde SAN Inicio FCoE desde SAN 4. En la Main Configuration Page (Página de configuración principal), seleccione NIC Configuration (Configuración NIC) (Ilustración 6-28) y, a continuación, pulse INTRO. Ilustración 6-28. System Setup: NIC Configuration (Configuración del sistema: Configuración NIC) 5. En la página NIC Configuration (Configuración NIC), seleccione Boot Mode (Modo de inicio) y, a continuación, pulse INTRO para seleccionar FCoE como modo de inicio preferido.
6–Configuración del inicio desde SAN Inicio FCoE desde SAN Ilustración 6-29. System Setup: FCoE Mode Enabled (Configuración del sistema: Modo FCoE activado) Para configurar los parámetros de inicio FCoE: 1. En la Device UEFI HII Main Configuration Page (Página de configuración principal de la HII del dispositivo), seleccione FCoE Configuration (Configuración FCoE) y, a continuación, pulse INTRO. 2.
6–Configuración del inicio desde SAN Inicio FCoE desde SAN Ilustración 6-30. System Setup: FCoE General Parameters (Configuración del sistema: Parámetros generales FCoE) 4. Vuelva a la página FCoE Configuration (configuración FCoE). 5. Pulse ESC y, a continuación,seleccione FCoE Target Parameters (Parámetros de destino FCoE). 6. Pulse INTRO. 7. En el FCoE General Parameters Menu (Menú Parámetros generales FCoE), active Connect (Conectar) en el destino FCoE preferido. 8.
6–Configuración del inicio desde SAN Inicio FCoE desde SAN Ilustración 6-31.
6–Configuración del inicio desde SAN Inicio FCoE desde SAN Para configurar el inicio FCoE en Windows Server 2012 R2/2016: 1. Retire los discos duros locales en el sistema que se iniciará (sistema remoto). 2. Prepare el soporte de instalación del sistema operativo Windows siguiendo los pasos de integración de la solución que se describen en “Inyección (Integración de la solución) de los controladores del adaptador en los archivos de imagen de Windows” en la página 136. 3.
6–Configuración del inicio desde SAN Inicio FCoE desde SAN Volcado para caída del sistema FCoE en Windows Actualmente, la función de volcado de memoria solo está admitida para el inicio FCoE con los Adaptadores de la serie 41xxx FastLinQ. No es necesario configurar nada más para configurar la generación del volcado de memoria FCoE cuando se utiliza el modo de inicio FCoE.
6–Configuración del inicio desde SAN Inicio FCoE desde SAN Requisitos previos para el inicio FCoE desde SAN de Linux Lo siguiente es necesario para que el inicio FCoE desde SAN de Linux funcione correctamente con la controladora 41xxx Marvell FastLinQ de 10/25GbE. General Ya no es necesario utilizar las pestañas de disco FCoE en los instaladores Red Hat y SUSE porque las interfaces FCoE no se exponen desde la interfaz de red y se activan automáticamente con el controlador qedf.
6–Configuración del inicio desde SAN Inicio FCoE desde SAN Configuración del inicio FCoE desde SAN en VMware Para la instalación del inicio desde SAN de VMware ESXi 6.5/6.7, Marvell requiere que se utilice una imagen ISO ESXi personalizada que se crea con el último paquete del adaptador de red convergente Marvell inyectado. Esta sección cubre los siguientes procedimientos de inicio FCoE desde SAN de VMware.
6–Configuración del inicio desde SAN Inicio FCoE desde SAN La Ilustración 6-32 muestra un ejemplo. Ilustración 6-32. Cuadro de diálogo ESXi-Customizer (Personalizador ESXi) 5. Grabe un DVD que contenga el archivo de imagen ISO personalizado ubicado en el directorio de trabajo especificado en el paso 4c. 6. Utilice un nuevo DVD para instalar el sistema operativo ESXi. Instalación del ISO ESXi personalizado 1. Cargue las imágenes de inicio FCoE de Marvell más recientes en NVRAM del adaptador. 2.
6–Configuración del inicio desde SAN Inicio FCoE desde SAN En la ventana que muestra la lista de discos disponibles para la instalación, el disco de destino FCOE debería estar visible porque el paquete del adaptador de red convergente inyectado está dentro del ISO ESXi personalizado. La Ilustración 6-33 muestra un ejemplo. Ilustración 6-33. Seleccione un disco de VMware que instalar 7. Seleccione el LUN en el que ESXi puede instalarse y, a continuación, pulse INTRO. 8.
6–Configuración del inicio desde SAN Inicio FCoE desde SAN La Ilustración 6-34 ofrece dos ejemplos. Ilustración 6-34.
7 Configuración de RoCE En este capítulo se describe la configuración de RDMA sobre Ethernet convergente (RoCE v1 y v2) en el Adaptador de la serie 41xxx, el conmutador Ethernet y el host de Windows, Linux o VMware, lo que incluye: Sistemas operativos admitidos y OFED “Planificación para RoCE” en la página 143 “Prepación de un adaptador” en la página 144 “Preparación del conmutador Ethernet” en la página 144 “Configuración de RoCE en el adaptador para Windows Server” en la página 149
7–Configuración de RoCE Planificación para RoCE Tabla 7-1. Compatibilidad del SO con RoCE v1, RoCE v2, iWARP, iSER y OFED (Continuación) Sistema operativo Incluido OFED-4.17-1 GA Windows Server 2016 No N/A Windows Server 2019 RoCE v1, RoCE v2, iWARP N/A RHEL 7.6 RoCE v1, RoCE v2, iWARP, iSER RoCE v1, RoCE v2, iWARP RHEL 7.7 RoCE v1, RoCE v2, iWARP, iSER No RHEL 8.0 RoCE v1, RoCE v2, iWARP, iSER No RHEL 8.
7–Configuración de RoCE Prepación de un adaptador Las aplicaciones OFED y RDMA que dependan de libibverbs, también requieren la biblioteca de espacio de usuario RDMA de Marvell, libqedr. Instale libqedr mediante libqedr RPM o paquetes de origen. RoCE solo admite little endian. Prepación de un adaptador Siga los siguientes pasos para activar DCBX y especificar la prioridad de RoCE mediante la aplicación de administración HII.
7–Configuración de RoCE Preparación del conmutador Ethernet Configuración del conmutador Ethernet Cisco Nexus 6000 Los pasos para la configuración del conmutador Ethernet Cisco Nexus 6000 para RoCE incluyen la configuración de mapas de clase, la configuración de mapas de políticas, la aplicación de la política, y la asignación de un Id. de vLAN al puerto de conmutador. Para configurar el conmutador Cisco: 1.
7–Configuración de RoCE Preparación del conmutador Ethernet 8. Aplique la nueva política en el nivel del sistema de la siguiente manera: switch(config)# system qos switch(config)# service-policy type qos input roce switch(config)# service-policy type queuing output roce switch(config)# service-policy type queuing input roce switch(config)# service-policy type network-qos roce 9. Asigne un Id. de VLAN al puerto de conmutador para que coincida con el Id. de vLAN asignado al adaptador (5).
7–Configuración de RoCE Preparación del conmutador Ethernet 3. Configure la prioridad de PFC para que coincida con el número de prioridad de clase de tráfico del adaptador (5). Dell(conf-dcbmap-roce)# priority-pgid 0 0 0 0 0 1 0 0 4. Compruebe el grupo de prioridad de configuración de mapa DCB.
7–Configuración de RoCE Preparación del conmutador Ethernet Interface twentyFiveGigE 1/8/1 Admin mode is on Admin is enabled, Priority list is 5 Remote is enabled, Priority list is 5 Remote Willing Status is enabled Local is enabled, Priority list is 5 Oper status is init PFC DCBX Oper status is Up State Machine Type is Feature TLV Tx Status is enabled PFC Link Delay 65535 pause quntams Application Priority TLV Parameters : -------------------------------------FCOE TLV Tx Status is disabled ISCSI TLV Tx
7–Configuración de RoCE Configuración de RoCE en el adaptador para Windows Server Configuración de RoCE en el adaptador para Windows Server La configuración de RoCE en el adaptador para el host de Windows Server incluye la activación de RoCE en el adaptador y la comprobación del tamaño de MTU directa de red. Para configurar RoCE en un host de Windows Server: 1. Active RoCE en el adaptador. a.
7–Configuración de RoCE Configuración de RoCE en el adaptador para Windows Server La Ilustración 7-1 muestra un ejemplo de cómo configurar un valor de propiedad. Ilustración 7-1. Configuración de las propiedades de RoCE 2. Al utilizar Windows PowerShell, compruebe si RDMA está activado en el adaptador. El comando Get-NetAdapterRdma muestra los adaptadores que admiten RDMA: ambos puertos están activados. NOTA Si está configurando RoCE sobre Hiper-V, no asigne un Id. de vLAN a la interfaz física. PS C:\Us
7–Configuración de RoCE Configuración de RoCE en el adaptador para Windows Server 3. Al utilizar Windows PowerShell, compruebe si NetworkDirect está activado en el sistema operativo host. El comando Get-NetOffloadGlobalSetting muestra que NetworkDirect está activado. PS C:\Users\Administrators> Get-NetOffloadGlobalSetting ReceiveSideScaling : Activado 4.
7–Configuración de RoCE Configuración de RoCE en el adaptador para Windows Server Visualización de Contadores RDMA El procedimiento siguiente también se aplica a iWARP. Para visualizar contadores RDMA para RoCE: 1. Inicie el Supervisor de rendimiento. 2. Abra el cuadro de diálogo Add Counters (Agregar contadores). La Ilustración 7-2 muestra un ejemplo. Ilustración 7-2.
7–Configuración de RoCE Configuración de RoCE en el adaptador para Windows Server NOTA Si los contadores RDMA de Marvell no aparecen en el cuadro de diálogo del Monitor de rendimiento de Agregar contadores, agréguelos manualmente emitiendo el siguiente comando desde la ubicación del controlador: Lodctr /M:qend.man 3. Seleccione uno de los siguientes tipos de contadores: 4.
7–Configuración de RoCE Configuración de RoCE en el adaptador para Windows Server La Ilustración 7-3 muestra tres ejemplos del resultado de supervisión del contador. Ilustración 7-3. Monitorización de rendimiento: Contadores FastLinQ de Marvell La Tabla 7-3 proporciona información acerca de los contadores de errores. Tabla 7-3.
7–Configuración de RoCE Configuración de RoCE en el adaptador para Windows Server Tabla 7-3. Contadores de errores RDMA de FastLinQ de Marvell (Continuación) Contadores de errores RDMA Descripción ¿Se ¿Se aplica aplica a a iWARP? RoCE? Solución de problemas Requestor Bad response (Respuesta errónea del solicitante) El respondedor ha devuelto una respuesta mal formulada.
7–Configuración de RoCE Configuración de RoCE en el adaptador para Windows Server Tabla 7-3.
7–Configuración de RoCE Configuración de RoCE en el adaptador para Windows Server Tabla 7-3.
7–Configuración de RoCE Configuración de RoCE en el adaptador para Windows Server Tabla 7-3. Contadores de errores RDMA de FastLinQ de Marvell (Continuación) Contadores de errores RDMA Responder remote invalid request (Solicitud remota del respondedor no válida) Descripción ¿Se ¿Se aplica aplica a a iWARP? RoCE? El respondedor ha detectado un mensaje entrante no válido en el canal. Sí Sí Solución de problemas Indica un posible comportamiento incorrecto de un equipo remoto.
7–Configuración de RoCE Configuración de RoCE en el adaptador para Windows Server 3. Configure Windows Hyper-V para VF RDMA: a. Active SR-IOV en HII y en la pestaña Advanced (Avanzado) del Administrador de dispositivos de Windows. b. Abra el Windows Hyper-V Manager (Administrador de Hyper-V de Windows) en el host. c. Abra el Virtual Switch Manager (Administrador de conmutadores virtuales) en el panel derecho. d.
7–Configuración de RoCE Configuración de RoCE en el adaptador para Windows Server e. Haga clic en el botón External network (Red externa) y, a continuación, seleccione el adaptador adecuado. Haga clic en Enable single-root I/O virtualization (SR-IOV) (Activar virtualización de E/S de raíz única [SR-IOV]). La Ilustración 7-5 muestra un ejemplo. Ilustración 7-5.
7–Configuración de RoCE Configuración de RoCE en el adaptador para Windows Server f. Cree una VM y abra la configuración de VM. La Ilustración 7-6 muestra un ejemplo. Ilustración 7-6. Configuración de VM g. Seleccione Add Hardware (Agregar hardware) y, a continuación, seleccione Network Adapter (Adaptador de red) para asignar los adaptadores de red virtual (VMNIC) a la VM. h. Seleccione el conmutador virtual recién creado.
7–Configuración de RoCE Configuración de RoCE en el adaptador para Windows Server i. Active VLAN en el adaptador de red. La Ilustración 7-7 muestra un ejemplo. Ilustración 7-7.
7–Configuración de RoCE Configuración de RoCE en el adaptador para Windows Server j. Expanda la configuración del adaptador de red. En Single-root I/O Virtualization (Virtualización de E/S de raíz única), seleccione Enable SR-IOV (Activar SR-IOV) para activar las capacidades SR-IOV para VMNIC. La Ilustración 7-8 muestra un ejemplo. Ilustración 7-8. Activación de SR-IOV para el adaptador de red 4.
7–Configuración de RoCE Configuración de RoCE en el adaptador para Windows Server 5. Actualice los controladores de Marvell en la VM iniciando la VM e instalando los últimos controladores que utiliza el superinstalador de Windows en el CD de Marvell. La Ilustración 7-9 muestra un ejemplo. Ilustración 7-9.
7–Configuración de RoCE Configuración de RoCE en el adaptador para Windows Server 6. Active RMDA en el dispositivo de red de Microsoft asociado con VF dentro de la VM. La Ilustración 7-10 muestra un ejemplo. Ilustración 7-10. Activación de RDMA en VMNIC 7. Inicie el tráfico RMDA de VM. a. Conecte una unidad de bloque de mensajes del servidor (SMB), ejecute el tráfico de RoCE y compruebe los resultados. b.
7–Configuración de RoCE Configuración de RoCE en el adaptador para Windows Server c. Compruebe que el tráfico RDMA se esté ejecutando. La Ilustración 7-11 ofrece un ejemplo. Ilustración 7-11. Tráfico de RDMA Limitaciones La RDMA de VF tiene las siguientes limitaciones: VF RDMA solo es compatible con dispositivos basados en 41xxx. En el momento de la publicación, solo RoCEv2 es compatible con VF RDMA.
7–Configuración de RoCE Configuración de RoCE en el adaptador para Linux En algunas plataformas de servidor más antiguas, los dispositivos VF podrían no estar enumerados para una de las funciones PCI de NIC (PF). Esta limitación se debe al aumento de los requisitos del registro de dirección base (BAR) de PCI para admitir VF RDMA, lo que implica que el SO/BIOS no puede asignar el BAR necesario para cada VF.
7–Configuración de RoCE Configuración de RoCE en el adaptador para Linux yum install tcl tcl-devel tk zlib-devel libibverbs libibverbs-devel NOTA Durante la instalación, si ya ha seleccionado los paquetes previamente mencionados, no necesitará volver a instalarlos. La OFED integrada y los paquetes de compatibilidad pueden variar en función de la versión del sistema operativo. 3.
7–Configuración de RoCE Configuración de RoCE en el adaptador para Linux Comprobación de la configuración de RoCE en Linux Después de instalar OFED, instalar el controlador para Linux y cargar los controladores de RoCE, compruebe que los dispositivos RoCE hayan sido detectados en todos los sistemas operativos Linux. Para comprobar la configuración de RoCE en Linux: 1. Detenga las tablas de firewall mediante los comandos service/systemctl. 2.
7–Configuración de RoCE Configuración de RoCE en el adaptador para Linux 5. Configure la dirección IP y active el puerto mediante un método de configuración como, por ejemplo, ifconfig. Por ejemplo: # ifconfig ethX 192.168.10.10/24 up 6. Emita el comando ibv_devinfo. Por cada función PCI, debería ver un hca_id independiente, como se muestra en el siguiente ejemplo: root@captain:~# ibv_devinfo hca_id: qedr0 transport: InfiniBand (0) fw_ver: 8.3.9.
7–Configuración de RoCE Configuración de RoCE en el adaptador para Linux A continuación se muestran ejemplos de pruebas de ping pong correctas en el servidor y el cliente. Ping del servidor: root@captain:~# ibv_rc_pingpong -d qedr0 -g 0 local address: LID 0x0000, QPN 0xff0000, PSN 0xb3e07e, GID fe80::20e:1eff:fe50:c7c0 remote address: LID 0x0000, QPN 0xff0000, PSN 0x934d28, GID fe80::20e:1eff:fe50:c570 8192000 bytes in 0.05 seconds = 1436.97 Mbit/sec 1000 iters in 0.05 seconds = 45.
7–Configuración de RoCE Configuración de RoCE en el adaptador para Linux NOTA El valor de GID predeterminado es cero (0) para la configuración fondo con fondo o de pausa. Para configuraciones de servidor y conmutador, debe identificar el valor de GID correcto. Si utiliza un conmutador, consulte los documentos de configuración del conmutador correspondiente para obtener la configuración correcta.
7–Configuración de RoCE Configuración de RoCE en el adaptador para Linux GID[ 1]: fe80:0000:0000:0000:020e:1eff:fec4:1b20 GID[ 2]: 0000:0000:0000:0000:0000:ffff:1e01:010a GID[ 3]: 0000:0000:0000:0000:0000:ffff:1e01:010a GID[ 4]: 3ffe:ffff:0000:0f21:0000:0000:0000:0004 GID[ 5]: 3ffe:ffff:0000:0f21:0000:0000:0000:0004 GID[ 6]: 0000:0000:0000:0000:0000:ffff:c0a8:6403 GID[ 7]: 0000:0000:0000:0000:0000:ffff:c0a8:6403 Comprobación del índice GID de RoCE v1 o v2, y de la dirección desde los p
7–Configuración de RoCE Configuración de RoCE en el adaptador para Linux NOTA Debe especificar los valores de índice GID para RoCE v1 o RoCE v2 en función de la configuración del servidor o el conmutador (Pause/PFC). Utilice el índice GID para la dirección local IPv6 de enlace, direcciones IPv4, o IPv6 Para utilizar tramas etiquetadas vLAN para el tráfico RoCE, debe especificar los valores de índice GID derivados de la dirección IPv4 o IPv6 de vLAN.
7–Configuración de RoCE Configuración de RoCE en el adaptador para Linux Para comprobar RoCE v2 a través de diferentes subredes: 1. Establezca la configuración de ruta para el servidor y el cliente mediante la configuración de DCBX-PFC. Parámetros del sistema: Server VLAN IP (IP de VLAN del servidor): 192.168.100.3 y Gateway (Puerta de acceso): 192.168.100.1 Client VLAN IP (IP de VLAN de cliente): 192.168.101.3 y Gateway (Puerta de acceso): 192.168.101.
7–Configuración de RoCE Configuración de RoCE en el adaptador para Linux Configuración del conmutador del servidor: Ilustración 7-12. Configuración del conmutador, Servidor Configuración del conmutador del cliente: Ilustración 7-13.
7–Configuración de RoCE Configuración de RoCE en el adaptador para Linux Configuración de los parámetros de RoCE v1 o RoCE v2 para las aplicaciones RDMA_CM Para configurar RoCE, utilice los siguientes scripts del paquete de origen FastLinQ. # ./show_rdma_cm_roce_ver.sh qedr0 is configured to IB/RoCE v1 qedr1 is configured to IB/RoCE v1 # ./config_rdma_cm_roce_ver.sh v2 configured rdma_cm for qedr0 to RoCE v2 configured rdma_cm for qedr1 to RoCE v2 Configuración del servidor: Ilustración 7-14.
7–Configuración de RoCE Configuración de RoCE en el adaptador para Linux La Tabla 7-4 enumera las combinaciones SO de Linux compatibles. Tabla 7-4. SO de Linux compatible para VF RDMA SO invitado RHEL 7.6 RHEL 7.7 RHEL 8.0 SLES12 SP4 SLES15 SP0 SLES15 SP1 Sí Sí Sí Sí Sí Sí RHEL 7.7 Sí Sí Sí Sí Sí Sí RHEL 8.
7–Configuración de RoCE Configuración de RoCE en el adaptador para Linux vf 1 MAC 00:00:00:00:00:00, spoof checking off, link-state auto 2.
7–Configuración de RoCE Configuración de RoCE en el adaptador para Linux # ibv_devices device node GUID ------ ---------------- qedr0 1602ecfffececfa0 qedr1 1602ecfffececfa1 qedr_vf0 b81aadfffe088900 qedr_vf1 944061fffe49cd68 Número de VF compatibles con RDMA Para Adaptadores de la serie 41xxx, se comparte el número de VF para L2 y RDMA según la disponibilidad de recursos. Adaptadores de puerto doble Cada puerto PF admite un máximo de 40 VF para RDMA.
7–Configuración de RoCE Configuración de RoCE en el adaptador para VMware ESX Limitaciones La RDMA de VF tiene las siguientes limitaciones: No hay compatibilidad iWARP No hay compatibilidad NPAR El SO Cross no es compatible; por ejemplo, un hipervisor Linux no puede usar un SO invitado de Windows (VM) La prueba de latencia Perftest en las interfaces VF solo se puede ejecutar con la opción -I 0 alineada talla cero. No funciona ni la predeterminada ni más de una talla alineada.
7–Configuración de RoCE Configuración de RoCE en el adaptador para VMware ESX NOTA Asignar velocidades de Ethernet a velocidades de RDMA no es siempre correcto, porque los valores que se pueden especificar mediante el controlador RoCE están alineados con Infiniband®. Por ejemplo, si RoCE está configurado en una interfaz Ethernet que funciona a 1 Gbps, la velocidad de RDMA se muestra como 2,5 Gbps.
7–Configuración de RoCE Configuración de RoCE en el adaptador para VMware ESX Por ejemplo: # esxcli network vswitch standard add -v roce_vs Esto crea un nuevo conmutador virtual llamado roce_vs. 6. Para asociar el puerto NIC de Marvell a vSwitch, emita el siguiente comando: # esxcli network vswitch standard uplink add -u -v Por ejemplo: # esxcli network vswitch standard uplink add -u vmnic0 -v roce_vs 7.
7–Configuración de RoCE Configuración de RoCE en el adaptador para VMware ESX Por ejemplo: # esxcfg-vswitch -m 4000 roce_vs # esxcli rdma device list Name Driver State MTU ------- ------- ------ vmrdma0 qedrntv Active 2048 25 Gbps vmnic0 QLogic FastLinQ QL45xxx RDMA Interface vmrdma1 qedrntv Active 1024 25 Gbps vmnic1 QLogic FastLinQ QL45xxx RDMA Interface ---- Speed Paired Uplink ------- ------------- Description ------------------------------- Modo RoCE y estadísticas Para el m
7–Configuración de RoCE Configuración de RoCE en el adaptador para VMware ESX Completion queues allocated: 1 Completion queue events: 0 Shared receive queues allocated: 0 Shared receive queue events: 0 Protection domains allocated: 1 Memory regions allocated: 3 Address handles allocated: 0 Memory windows allocated: 0 Configuración de un dispositivo RDMA paravirtual (PVRDMA) Consulte la documentación de VMware (por ejemplo, https://kb.vmware.
7–Configuración de RoCE Configuración de RoCE en el adaptador para VMware ESX La Ilustración 7-16 muestra un ejemplo. Ilustración 7-16. Configuring a New Distributed Switch (Configurar un nuevo conmutador distribuido) 2. 3. Configurar un nuevo conmutador virtual distribuido como sigue: a. En el cliente VMware vSphere Web Client, expanda el nodo RoCE en el panel izquierdo de la ventana del navegador. b.
7–Configuración de RoCE Configuración de RoCE en el adaptador para VMware ESX La Ilustración 7-17 muestra un ejemplo. Ilustración 7-17. Asignación de un vmknic en PVRDMA 4. Establezca la regla del firewall para el PVRDMA: a. Haga clic con el botón derecho en un host, y después haga clic en Settings (Configuración). b. En la página de Configuración, expanda el nodo de System (Sistema), y después haga clic en Security Profile (Perfil de seguridad). c.
7–Configuración de RoCE Configuración de RoCE en el adaptador para VMware ESX La Ilustración 7-18 muestra un ejemplo. Ilustración 7-18. Cómo establecer las reglas del Firewall 5. Configure la VM para PVRDMA como sigue: a. Instale los siguientes sistemas operativos invitados compatibles: RHEL 7.5, 7.6 y 8.0 b. Instale OFED4.17-1. c. Compile e instale la biblioteca y el controlador invitado de PVRDMA. d. Agregue un nuevo adaptador de red PVRDMA a la VM como sigue: e.
7–Configuración de RoCE Configuración de DCQCN Configuración de DCQCN Data Center Quantized Congestion Notification (DCQCN) es una característica que determina cómo el receptor RoCE notifica a un transmisor que un conmutador entre ellos ha proporcionado una notificación de congestión explícita (punto de notificación) y cómo un transmisor reacciona a dicha notificación (punto de reacción).
7–Configuración de RoCE Configuración de DCQCN VLAN Priority (Prioridad de vLAN) es un campo en la cabecera de vLAN L2. El campo son los tres MSB de la etiqueta de vLAN. PFC (control de flujo basado en la prioridad) es un mecanismo de control de flujo que se aplica al tráfico que lleva una prioridad de vLAN específica.
7–Configuración de RoCE Configuración de DCQCN DCQCN soluciona todos estos inconvenientes. La ECN ofrece indicación de congestión al punto de reacción. El punto de reacción envía un paquete CNP al transmisor, que reacciona reduciendo su velocidad de transmisión y evitando la congestión. DCQCN también especifica cómo el transmisor intenta aumentar su velocidad de transmisión y utilizar el ancho de banda de forma eficaz después de que se detenga la congestión.
7–Configuración de RoCE Configuración de DCQCN Establecer DSCP en el tráfico RDMA Utilice el nodo rdma_glob_dscp para controlar DSCP. Por ejemplo, para establecer DSCP en el tráfico RoCE con prioridad 5, emita el siguiente comando: ./debugfs.sh -n eth0 -t rdma_glob_dscp 6 Este comando es necesario normalmente si está activado DCQCN. Configuración de DSCP-PFC Utilice los nodos dscp_pfc para configurar la asociación dscp->priority para PFC. Debe activar la característica antes de agregar entradas al mapa.
7–Configuración de RoCE Configuración de DCQCN Tabla 7-5. Parámetros de algoritmo de DCQCN (Continuación) Parámetro Descripción y valores dcqcn_cnp_vlan_priority Prioridad de vLAN que se utilizará en CNP. El rango de valores está entre 0..7. La descarga FCoE utiliza 3 y la TLV de descarga iSCSI normalmente utiliza 4. Marvell recomienda especificar un número de 1–2 o 5-7. Utilice el mismo valor en toda la red. dcqcn_notification_point 0 – Desactivar punto de notificación de DCQCN.
7–Configuración de RoCE Configuración de DCQCN # This example is using two DCBX traffic class priorities to better demonstrate DCQCN in operation debugfs.sh -n ens6f0 -t dscp_pfc_enable 1 debugfs.sh -n ens6f0 -t dscp_pfc_set 20 5 debugfs.sh -n ens6f0 -t dscp_pfc_set 22 6 # static DCB configurations. 0x10 is static mode. Mark priorities 5 and 6 as # subject to pfc debugfs.sh -n ens6f0 -t dcbx_set_mode 0x10 debugfs.sh -n ens6f0 -t dcbx_set_pfc 5 1 debugfs.
8 Configuración de iWARP El protocolo RDMA de área amplia de Internet (iWARP) es un protocolo para redes de equipos que implementa RDMA para transferir datos de forma eficiente a través de redes IP. El iWARP está diseñado para diversos entornos, incluidas redes LAN, redes de almacenamiento, redes de centros de datos y redes de áreas amplias (WAN).
8–Configuración de iWARP Configuración de iWARP en Windows 4. En la página NIC Configuration (Configuración NIC): a. Establezca NIC + RDMA Mode (NIC + Modo RDMA) en Enabled (Activado). b. Establezca RDMA Protocol Support (Compatibilidad de protocolo RDMA) RoCE/iWARP o iWARP. c. Haga clic en Back (Atrás). 5. En la Main Configuration Page (Página de configuración principal), haga clic en Finish (Finalizar). 6.
8–Configuración de iWARP Configuración de iWARP en Windows d. 2. Seleccione Network Direct Functionality (Funcionalidad directa de red) y, a continuación, seleccione Enabled (Activado) en el Value (Valor). Seleccione NetworkDirect Technology (Tecnología NetworkDirect) y, a continuación, seleccione iWARP para Value (Valor). Haga clic en OK (Aceptar) para guardar los cambios y cerrar las propiedades del adaptador. Al utilizar Windows PowerShell, compruebe si RDMA está activado.
8–Configuración de iWARP Configuración de iWARP en Windows La Ilustración 8-3 muestra un ejemplo. Ilustración 8-3.
8–Configuración de iWARP Configuración de iWARP en Windows Si se está ejecutando el tráfico iWARP, los contadores tendrán el aspecto que se muestra en el ejemplo de la Ilustración 8-4. Ilustración 8-4. Perfmon: Comprobación del tráfico iWARP NOTA . Para obtener más información sobre cómo visualizar los contadores del RDMA de Marvell en Windows, consulte “Visualización de Contadores RDMA” en la página 152. 4. Para comprobar la conexión de SMB: a.
8–Configuración de iWARP Configuración de iWARP en Linux Kernel 56 Connection 192.168.11.20:15903 192.168.11.10:445 0 Kernel 56 Connection 192.168.11.20:16159 192.168.11.10:445 0 Kernel 56 Connection 192.168.11.20:15903 192.168.11.10:445 0 Kernel 60 Listener [fe80::e11d:9ab5:a47d:4f0a%56]:445 NA 0 Kernel 60 Listener 192.168.11.20:445 0 Kernel 60 Listener [fe80::71ea:bdd2:ae41:b95f%60]:445 NA 0 Kernel 60 Listener 192.168.11.20:16159 192.168.11.
8–Configuración de iWARP Configuración de iWARP en Linux 2. Utilice la sintaxis de comandos siguiente para cambiar el protocolo RDMA mediante la carga del controlador qed con una Id. PCI de interfaz de puerto (xx:xx.x) y un valor de protocolo RDMA (p). # modprobe -v qed rdma_protocol_map=
8–Configuración de iWARP Configuración de iWARP en Linux 2. Emita el comando ibv_devinfo y, a continuación, compruebe el tipo de transporte. Si el comando se realiza correctamente, cada función PCI mostrará un hca_id distinto. Por ejemplo (si comprueba el segundo puerto del adaptador de dos puertos anterior): [root@localhost ~]# ibv_devinfo -d qedr1 hca_id: qedr1 transport: iWARP (1) fw_ver: 8.14.7.
8–Configuración de iWARP Configuración de iWARP en Linux NVMe-oF (para obtener más información, consulte el Capítulo 13 Configuración de NVMe-oF con RDMA) Ejecución de Perftest para iWARP Todas las herramientas perftest se admiten en el tipo de transporte iWARP. Debe ejecutar las herramientas utilizando el administrador de conexiones RDMA (con la opción -R). Ejemplo: 1. En un servidor, emita el comando siguiente (en este ejemplo, se utiliza el segundo puerto): # ib_send_bw -d qedr1 -F -R 2.
8–Configuración de iWARP Configuración de iWARP en Linux NOTA Para aplicaciones de latencia (enviar/escribir), si la versión de perftest es la última (por ejemplo, perftest-3.0-0.21.g21dc344.x86_64.rpm), utilice el valor de tamaño de línea admitido: 0-128. Configuración de NFS-RDMA NFS-RDMA para iWARP incluye pasos de configuración tanto para el servidor como para el cliente. Para configurar el servidor NFS: 1.
8–Configuración de iWARP Configuración de iWARP en Linux Para configurar el cliente NFS: NOTA Este procedimiento para la configuración del cliente NFS también se aplica a RoCE. 1. Cree un directorio nfs-client y otorgue permiso emitiendo los siguientes comandos: # mkdir /tmp/nfs-client # chmod 777 /tmp/nfs-client 2. Cargue el módulo xprtrdma del siguiente modo: # modprobe xprtrdma 3.
9 Configuración de iSER En este capítulo se describen los procedimientos para configurar extensiones de iSCSI para RDMA (iSER) para Linux (RHEL y SLES) y VMware ESXi 6.7, lo que incluye: Antes de empezar “Configuración de iSER para RHEL” en la página 207 “Configuración de iSER para SLES 12 y posterior” en la página 210 “Uso de iSER con iWARP en RHEL y SLES” en la página 211 “Optimización del rendimiento de Linux” en la página 213 “Configuración de iSER para ESXi 6.
9–Configuración de iSER Configuración de iSER para RHEL Configuración de iSER para RHEL Para configurar iSER para RHEL: 1. Instale OFED integrada tal como se explica en “Configuración de RoCE para RHEL” en la página 167. NOTA Las OFED listas para utilizar no son compatibles con iSER porque el módulo ib_isert no está disponible en las versiones de OFED 3.18-2 GA/3.18-3 GA lista para utilizar. El módulo ib_isert todo en uno no funciona con ninguna de las versiones de OFED lista para utilizar. 2.
9–Configuración de iSER Configuración de iSER para RHEL La Ilustración 9-1 muestra un ejemplo de un ping RDMA correcto. Ilustración 9-1. Ping RDMA correcto 8. Puede utilizar un destino TCM-LIO de Linux para probar iSER. La configuración es la misma para cualquier destino iSCSI, salvo que emita el comando enable_iser Boolean=true en los portales correspondientes. Las instancias del portal se identifican como iser en la Ilustración 9-2. Ilustración 9-2. Instancias del portal iSER 9.
9–Configuración de iSER Configuración de iSER para RHEL b. Para cambiar el modo de transporte a iSER, emita el comando iscsiadm. Por ejemplo: iscsiadm -m node -T iqn.2015-06.test.target1 -o update -n iface.transport_name -v iser c. Para iniciar sesión o conectar con el destino iSER, emita el comando iscsiadm. Por ejemplo: iscsiadm -m node -l -p 192.168.100.99:3260 -T iqn.2015-06.test.target1 d. Confirme si el Iface Transport es iser en la conexión de destino, tal como se muestra en la Ilustración 9-3.
9–Configuración de iSER Configuración de iSER para SLES 12 y posterior Ilustración 9-4. Comprobación de nuevo dispositivo iSCSI Configuración de iSER para SLES 12 y posterior Puesto que targetcli no está integrado en SLES 12 y posterior, que debe seguir el siguiente procedimiento. Para configurar iSER para SLES 12 y posterior: 1. Instale targetcli. Para SLES 12: Localice, copie e instale los siguientes RPM desde la imagen ISO (x86_64 y ubicación de noarch): lio-utils-4.1-14.6.x86_64.
9–Configuración de iSER Uso de iSER con iWARP en RHEL y SLES 3. Antes de configurar los destinos de iSER, configure las interfaces NIC y ejecute el tráfico de L2 y RoCE tal como se describe en el paso 7 de la página 170. 4. Para SLES 15 y SLES 15 SP1, inserte el DVD del paquete SLES e instale la utilidad targetcli. Este comando también instala todos los paquetes de dependencia. # zypper install python3-targetcli-fb 5. Inicie la utilidad targetcli y configure sus destinos en el sistema de destino iSER.
9–Configuración de iSER Uso de iSER con iWARP en RHEL y SLES La Ilustración 9-5 muestra la configuración de destino para LIO. Ilustración 9-5. Configuración de destino LIO Para configurar un iniciador para iWARP: 1. Para detectar el destino LIO de iSER utilizando el puerto 3261, emita el comando iscsiadm como se muestra a continuación: # iscsiadm -m discovery -t st -p 192.168.21.4:3261 -I iser 192.168.21.4:3261,1 iqn.2017-04.com.org.iserport1.target1 2.
9–Configuración de iSER Optimización del rendimiento de Linux Optimización del rendimiento de Linux Tenga en cuenta las siguientes mejoras en la configuración del rendimiento de Linux descritas en esta sección.
9–Configuración de iSER Configuración de iSER para ESXi 6.7 Configuración de los parámetros de afinidad de IRQ En el siguiente ejemplo se establecen los núcleos de CPU 0, 1, 2 y 3 para interrumpir la solicitud (IRQ) XX, YY, ZZ y XYZ respectivamente.
9–Configuración de iSER Configuración de iSER para ESXi 6.7 Interface Port Group/DVPort/Opaque Network Netmask Broadcast MAC Address IP Family IP Address MTU TSO MSS Enabled Type NetStack vmk0 Management Network 255.255.240.0 172.28.15.255 IPv4 e0:db:55:0c:5f:94 1500 172.28.12.
9–Configuración de iSER Configuración de iSER para ESXi 6.7 esxcli network vswitch standard uplink add -u vmnic5 -v vSwitch_iser1 esxcli network vswitch standard portgroup add -p "rdma_group1" -v vSwitch_iser1 esxcli network ip interface add -i vmk1 -p "rdma_group1" esxcli network ip interface ipv4 set -i vmk1 -I 192.168.10.100 -N 255.255.255.
9–Configuración de iSER Configuración de iSER para ESXi 6.7 5. Indique el destino adjunto del siguiente modo: esxcfg-scsidevs -l mpx.vmhba0:C0:T4:L0 Device Type: CD-ROM Size: 0 MB Display Name: Local TSSTcorp CD-ROM (mpx.vmhba0:C0:T4:L0) Multipath Plugin: NMP Console Device: /vmfs/devices/cdrom/mpx.vmhba0:C0:T4:L0 Devfs Path: /vmfs/devices/cdrom/mpx.
10 Configuración iSCSI Este capítulo ofrece la siguiente información sobre la configuración iSCSI: Inicio iSCSI “Descarga de iSCSI en Windows Server” en la página 219 “Descarga de iSCSI en entornos Linux” en la página 229 NOTA Es posible que algunas características de iSCSI no se puedan activar completamente en esta versión. Para obtener información detallada, consulte Apéndice D Limitaciones de las características.
10–Configuración iSCSI Descarga de iSCSI en Windows Server Descarga de iSCSI en Windows Server La descarga iSCSI es una tecnología que permite descargar la sobrecarga de procesamiento del protocolo iSCSI de los procesadores host al iSCSI HBA. La descarga iSCSI aumenta el rendimiento de la red ayudando a optimizar la utilización del procesador del servidor. En esta sección se explica cómo configurar la característica de descarga iSCSI de Windows para los Adaptadores de la serie 41xxx de Marvell.
10–Configuración iSCSI Descarga de iSCSI en Windows Server Configuración de Microsoft Initiator para utilizar la descarga iSCSI de Marvell Una vez que haya configurado la dirección IP para el adaptador iSCSI, debe utilizar Microsoft Initiator para configurar y agregar una conexión al destino iSCSI utilizando el adaptador iSCSI de Marvell FastLinQ. Para obtener más detalles sobre Microsoft Initiator, consulte la guía del usuario de Microsoft. Para configurar Microsoft Initiator: 1.
10–Configuración iSCSI Descarga de iSCSI en Windows Server c. En el cuadro de diálogo iSCSI Initiator Name (Nombre del iniciador iSCSI) escriba el nuevo nombre IQN del iniciador y, a continuación, haga clic en OK (Aceptar). (Ilustración 10-2) Ilustración 10-2. Cambio del nombre del nodo del iniciador iSCSI 3. En iSCSI Initiator Properties (Propiedades del iniciador iSCSI), haga clic en la pestaña Discovery (Detección).
10–Configuración iSCSI Descarga de iSCSI en Windows Server 4. En la página Discovery (Detección) (Ilustración 10-3), en Target portals (Portales de destino), haga clic en Discover Portal (Portal de detección). Ilustración 10-3. Iniciador iSCSI: Detección del portal de destino 5. En el cuadro de diálogo Discover Target Portal (Detectar portal de destino) (Ilustración 10-4): a. En el cuadro IP address or DNS name (Dirección IP o nombre del DNS), escriba la dirección IP del destino. b.
10–Configuración iSCSI Descarga de iSCSI en Windows Server Ilustración 10-4. Dirección IP del portal de destino 6. En el cuadro de diálogo Advanced Settings (Configuración avanzada) (Ilustración 10-5), complete los siguientes valores en Connect using (Conectar mediante): a. En Local adapter (Adaptador local), seleccione QLogic Adapter (Adaptador QLogic. b. En Initiator IP (IP del iniciador), seleccione la dirección IP del adaptador. c. Haga clic en OK (Aceptar).
10–Configuración iSCSI Descarga de iSCSI en Windows Server Ilustración 10-5. Selección de la dirección IP del iniciador 7. En la página iSCSI Initiator Properties, Discovery (Propiedades del iniciador iSCSI, Detectar), haga clic en OK (Aceptar).
10–Configuración iSCSI Descarga de iSCSI en Windows Server 8. Haga clic en la pestaña Targets (Destinos) y, a continuación, en la página Targets (Destinos) (Ilustración 10-6), haga clic en Connect (Conectar). Ilustración 10-6.
10–Configuración iSCSI Descarga de iSCSI en Windows Server 9. En el cuadro de diálogo Connect To Target (Conectar al destino) (Ilustración 10-7), haga clic en Advanced (Avanzado). Ilustración 10-7. Cuadro de diálogo Connect To Target (Conectar al destino) 10. En el cuadro de diálogo Local Adapter (Adaptador local), seleccione QLogic Adapter (Adaptador QLogic) y, a continuación, haga clic en OK (Aceptar). 11.
10–Configuración iSCSI Descarga de iSCSI en Windows Server 12. Para formatear la partición de iSCSI, utilice el administrador de discos. NOTA Estas son algunas de las limitaciones de la funcionalidad de equipos: Los equipos no son compatibles con adaptadores iSCSI. Los equipos no son compatibles con adaptadores NDIS que se encuentran en la ruta de inicio.
10–Configuración iSCSI Descarga de iSCSI en Windows Server Pregunta: ¿Qué configuraciones deben evitarse? Respuesta: La dirección IP no debe ser igual a la de LAN. Instalación de inicio iSCSI para Windows 2012 R2, 2016 y 2019 Es posible iniciar o instalar Windows Server 2012 R2, Windows Server 2016 y Windows Server 2019 tanto en las rutas de acceso de descarga como en las de no descarga. Marvell requiere que utilice un DVD integrado que tenga inyectados los controladores de Marvell más recientes.
10–Configuración iSCSI Descarga de iSCSI en entornos Linux 9. Para realizar la instalación de Windows Server 2012 R2/2016, haga clic en Next (Siguiente), y siga las instrucciones en pantalla. El servidor se reiniciará varias veces como parte del proceso de instalación. 10. Después de que el servidor se inicie en el sistema operativo, se recomienda ejecutar el instalador del controlador para completar la instalación de la aplicación y los controladores Marvell.
10–Configuración iSCSI Descarga de iSCSI en entornos Linux Diferencias con bnx2i Hay algunas diferencias fundamentales entre qedi, el controlador del Adaptador de la serie 41xxx Marvell FastLinQ (iSCSI), y bnx2i, el anterior controlador de descarga iSCSI de Marvell para los adaptadores de la serie 8400 de Marvell. Estas son algunas de las diferencias: qedi enlaza directamente con una función PCI expuesta por el CNA. qedi no se emplaza sobre el net_device.
10–Configuración iSCSI Descarga de iSCSI en entornos Linux iscsi_boot_sysfs 2. 16000 1 qedi Para comprobar si las interfaces iSCSI se han detectado correctamente, emita el siguiente comando. En este ejemplo, se detectan dos dispositivos CNA iSCSI con los números de host SCSI 4 y 5. # dmesg | grep qedi [0000:00:00.0]:[qedi_init:3696]: QLogic iSCSI Offload Driver v8.15.6.0. .... [0000:42:00.4]:[__qedi_probe:3563]:59: QLogic FastLinQ iSCSI Module qedi 8.15.6.0, FW 8.15.3.0 .... [0000:42:00.
10–Configuración iSCSI Descarga de iSCSI en entornos Linux 192.168.25.100:3260,1 iqn.2003-04.com.sanblaze:virtualun.virtualun.target-05000012 192.168.25.100:3260,1 iqn.2003-04.com.sanblaze:virtualun.virtualun.target-0500000c 192.168.25.100:3260,1 iqn.200304.com.sanblaze:virtualun.virtualun.target-05000001 192.168.25.100:3260,1 iqn.2003-04.com.sanblaze:virtualun.virtualun.target-05000002 6. Inicie sesión en el destino iSCSI mediante the IQN obtenido en el paso 5.
11 Configuración FCoE Este capítulo ofrece la siguiente información sobre la configuración de Fibre Channel a través de Ethernet (FCoE): “Configuración de la descarga FCoE de Linux” en la página 233 NOTA La descarga FCoE se admite en todos los Adaptadores de la serie 41xxx. Es posible que algunas características de FCoE no se puedan activar completamente en esta versión. Para obtener información detallada, consulte Apéndice D Limitaciones de las características.
11–Configuración FCoE Configuración de la descarga FCoE de Linux scsi_transport_fc.ko es la biblioteca de transporte para FC SCSI de Linux que se utiliza para administrar el puerto remoto y el destino SCSI. Para que qedf sea funcional, es necesario cargar antes dichos módulos, de lo contrario es posible que se obtengan errores como “unresolved symbol” (símbolo sin resolver).
11–Configuración FCoE Configuración de la descarga FCoE de Linux Configuración de qedf.ko No es necesario realizar una configuración explícitamente para qedf.ko. El controlador enlaza automáticamente con las funciones FCoE expuestas del CNA y empieza a detectar. Esta funcionalidad se parece a la funcionalidad y al funcionamiento del controlador FC de Marvell, qla2xx, al contrario de lo que sucedía con el antiguo controlador bnx2fc.
11–Configuración FCoE Configuración de la descarga FCoE de Linux [ 235.322253] [0000:21:00.2]: [__qedf_probe:3142]:4: QLogic FastLinQ FCoE Module qedf 8.18.8.0, FW 8.18.10.0 [ 235.606443] scsi host4: qedf .... [ 235.624337] [0000:21:00.3]: [__qedf_probe:3142]:5: QLogic FastLinQ FCoE Module qedf 8.18.8.0, FW 8.18.10.0 [ 235.886681] scsi host5: qedf .... [ 243.991851] [0000:21:00.3]: [qedf_link_update:489]:5: LINK UP (40 GB/s). 3.
12 Configuración de SR-IOV La virtualización de entrada/salida de raíz única (SR-IOV) es una especificación de PCI SIG que permite que un único dispositivo PCI Express (PCIe) aparezca como varios dispositivos PCI físicos distintos. La SR-IOV permite aislar los recursos de PCI para obtener rendimiento, interoperabilidad y capacidad de administración. NOTA Es posible que algunas características de SR-IOV no se puedan activar completamente en esta versión.
12–Configuración de SR-IOV Configuración de SR-IOV en Windows Ilustración 12-1. System Setup for SR-IOV: Integrated Devices (Configuración del sistema para SR-IOV: Dispositivos integrados) 4. En la Main Configuration Page (Página de configuración principal) del adaptador seleccionado, haga clic en Device Level Configuration (Configuración de nivel de dispositivo). 5.
12–Configuración de SR-IOV Configuración de SR-IOV en Windows 6. En la Main Configuration Page (Página de configuración principal), haga clic en Finish (Finalizar). 7. En el cuadro de mensaje Warning - Saving Changes (Advertencia - Guardar cambios) haga clic en Yes (Sí) para guardar la configuración. 8. En el cuadro de mensaje Success - Saving Changes (Correcto - Guardar cambios) haga clic en OK (Aceptar). 9. Para activar SR-IOV en el adaptador del minipuerto: a.
12–Configuración de SR-IOV Configuración de SR-IOV en Windows 10. Para crear un conmutador de máquina virtual (vSwitch) con SR-IOV (Ilustración 12-4 en la página 241): a. Inicie el Hyper-V Manager. b. Seleccione Virtual Switch Manager (Administrador de conmutadores virtuales). c. En el cuadro Name (Nombre) escriba un nombre para el conmutador virtual. d. En Connection type (Tipo de conexión), seleccione External network (Red externa). e.
12–Configuración de SR-IOV Configuración de SR-IOV en Windows Ilustración 12-4. Administrador de conmutadores virtuales: Activar SR-IOV f. El cuadro de mensaje Apply Networking Changes (Aplicar cambios red) le advierte de que Pending changes may disrupt network connectivity (Los cambios pendientes pueden interrumpir la conectividad de la red). Para guardar los cambios y continuar, haga clic en Yes (Sí).
12–Configuración de SR-IOV Configuración de SR-IOV en Windows 11. Para obtener la capacidad de conmutador de la máquina virtual, emita el siguiente comando en Windows PowerShell: PS C:\Users\Administrator> Get-VMSwitch -Name SR-IOV_vSwitch | fl La salida del comando Get-VMSwitch incluye las siguientes capacidades SR-IOV: 12. IovVirtualFunctionCount : 80 IovVirtualFunctionsInUse : 1 Para crear una máquina virtual (VM) y exportar la función virtual (VF) a la VM: a. Cree una máquina virtual. b.
12–Configuración de SR-IOV Configuración de SR-IOV en Windows Ilustración 12-5. Configuración de VM: Activar SR-IOV 13. Instale los controladores Marvell para los adaptadores detectados en la VM. Utilice los controladores más actualizados disponibles de su vendedor para el SO del host (no utilice controladores integrados). NOTA Asegúrese de utilizar el mismo paquete de controladores en ambas VM y en el sistema host.
12–Configuración de SR-IOV Configuración de SR-IOV en Windows Una vez que se han instalado los controladores, el adaptador aparece en la VM. La Ilustración 12-6 muestra un ejemplo. Ilustración 12-6. Administrador de dispositivos: Máquina virtual con adaptador QLogic 14. Para ver los detalles de la función virtual (VF) de SR-IOV, emita el siguiente comando en Windows PowerShell: PS C:\Users\Administrator> Get-NetadapterSriovVf La Ilustración 12-7 muestra una salida de ejemplo. Ilustración 12-7.
12–Configuración de SR-IOV Configuración de SR-IOV en Linux Configuración de SR-IOV en Linux Para configurar SR-IOV en Linux: 1. Acceda a BIOS System Setup (Configuración del sistema BIOS) del servidor y haga clic en System BIOS Settings (Configuración del BIOS del sistema). 2. En la página System BIOS Settings (Configuración del BIOS del sistema), haga clic en Integrated Devices (Dispositivos integrados). 3.
12–Configuración de SR-IOV Configuración de SR-IOV en Linux Ilustración 12-8. System Setup: processor Settings for SR-IOV (Configuración del sistema: Configuración del procesador para SR-IOV) 6. En la página System Setup (Configuración del sistema), seleccione Device Settings (Configuración del dispositivo). 7. En la página Device Settings (Configuración del dispositivo), seleccione Port 1 (Puerto 1) para el adaptador Marvell.
12–Configuración de SR-IOV Configuración de SR-IOV en Linux 8. En la página Device Level Configuration (Configuración de nivel de dispositivo) (Ilustración 12-9): a. Establezca Virtualization Mode (Modo de virtualización) en SR-IOV. b. Haga clic en Back (Atrás). Ilustración 12-9. System Setup for SR-IOV: Integrated Devices (Configuración del sistema para SR-IOV: Dispositivos integrados) 9.
12–Configuración de SR-IOV Configuración de SR-IOV en Linux Ilustración 12-10. Edición del archivo grub.conf para SR-IOV b. Guarde el archivo grub.conf y reinicie el sistema. c. Para comprobar si los cambios se han aplicado, emita el siguiente comando: dmesg | grep -i iommu Un ejemplo de salida de comando correcta de la unidad de administración de memoria de E/S (IOMMU) sería: Intel-IOMMU: enabled d.
12–Configuración de SR-IOV Configuración de SR-IOV en Linux b. Revise la salida del comando (Ilustración 12-11) para confirmar que el VF actual se creó en bus 4, dispositivo 2 (del parámetro 0000:00:02.0), funciones 0 a través de 7. Tenga en cuenta que la Id. de dispositivo actual es diferente en los PF (8070 en este ejemplo) y las VF (8090 en este ejemplo). Ilustración 12-11. Salida de comando de sriov_numvfs 12.
12–Configuración de SR-IOV Configuración de SR-IOV en Linux 13. Asigne y compruebe las direcciones MAC: a. Para asignar una dirección MAC a VF, emita el siguiente comando: ip link set vf mac b. 14. Asegúrese de que la interfaz VF esté activa y en funcionamiento con la dirección MAC asignada. Apague la VM y conecte la VF. (Algunos sistemas operativos admiten la conexión directa de funciones virtuales en la máquina virtual.) a.
12–Configuración de SR-IOV Configuración de SR-IOV en Linux Ilustración 12-14. Add New Virtual Hardware (Agregar nuevo hardware virtual) 15. Encienda la VM y emita el siguiente comando: check lspci -vv|grep -I ether 16. Instale los controladores para los adaptadores detectados en la VM. Utilice los controladores más actualizados disponibles de su vendedor para el SO del host (no utilice controladores integrados). La misma versión del controlador debe estar instalada en el host y el VM. 17.
12–Configuración de SR-IOV Configuración de SR-IOV en VMware Para activar IOMMU para SR-IOV en RHEL 6.x: En el archivo /boot/efi/EFI/redhat/grub.conf, localice la línea de kernel y, a continuación, anexe el parámetro de inicio intel_iommu=on. Para activar IOMMU para SR-IOV en RHEL 7.x y posteriores: 1. En el archivo /etc/default/grub, localice GRUB_CMDLINE_LINUX y, a continuación, anexe el parámetro de inicio intel_iommu=on. 2.
12–Configuración de SR-IOV Configuración de SR-IOV en VMware 3. En la página Integrated Devices (Dispositivos integrados) (consulte la Ilustración 12-1 en la página 238): a. Establezca la opción SR-IOV Global Enable (Activación global de SR-IOV) en Enabled (Activado). b. Haga clic en Back (Atrás). 4. En la ventana System Setup (Configuración del sistema), haga clic en Device Settings (Configuración del dispositivo). 5.
12–Configuración de SR-IOV Configuración de SR-IOV en VMware 0000:05:02.0 Network controller: QLogic Corp. QLogic FastLinQ QL41xxx Series 10/25 GbE Controller (SR-IOV VF) [PF_0.5.0_VF_0] 0000:05:02.1 Network controller: QLogic Corp. QLogic FastLinQ QL41xxx Series 10/25 GbE Controller (SR-IOV VF) [PF_0.5.0_VF_1] 0000:05:02.2 Network controller: QLogic Corp. QLogic FastLinQ QL41xxx Series 10/25 GbE Controller (SR-IOV VF) [PF_0.5.0_VF_2] 0000:05:02.3 Network controller: QLogic Corp.
12–Configuración de SR-IOV Configuración de SR-IOV en VMware d. Para guardar los cambios realizados en la configuración y cerrar este cuadro de diálogo, haga clic en OK (Aceptar). Ilustración 12-15.
12–Configuración de SR-IOV Configuración de SR-IOV en VMware 15. Para validar las VF por puerto, emita el comando esxcli tal como se muestra a continuación: [root@localhost:~] esxcli network sriovnic vf list -n vmnic6 VF ID Active PCI Address Owner World ID ----- ------ ----------- -------------- 0 true 005:02.0 60591 1 true 005:02.1 60591 2 false 005:02.2 - 3 false 005:02.3 - 4 false 005:02.4 - 5 false 005:02.5 - 6 false 005:02.6 - 7 false 005:02.
13 Configuración de NVMe-oF con RDMA La Non-Volatile Memory Express over Fabrics (Memoria no volátil rápida a través de la estructura - NVMe-oF) permite utilizar transportes alternativos a PCIe para extender la distancia a través de la cual pueda conectar un dispositivo host NVMe y una unidad de almacenamiento NVMe o un subsistema.
13–Configuración de NVMe-oF con RDMA En la Ilustración 13-1 se muestra una red de ejemplo. Adaptador de la serie 41xxx Adaptador de la serie 41xxx Ilustración 13-1.
13–Configuración de NVMe-oF con RDMA Instalación de los controladores de dispositivo en los dos servidores Instalación de los controladores de dispositivo en los dos servidores Tras la instalación del sistema operativo (SLES 12 SP3), instale los controladores de dispositivo en los dos servidores. Para actualizar el kernel al kernel ascendente de Linux más reciente, vaya a: https://www.kernel.org/pub/linux/kernel/v4.x/ 1.
13–Configuración de NVMe-oF con RDMA Configuración del servidor de destino f. Si se han realizado cambios en el kernel, reinicie en el nuevo kernel de sistema operativo. Para obtener instrucciones sobre cómo establecer el kernel de inicio predeterminado, vaya a: https://wiki.centos.org/HowTos/Grub2 3. Active e inicie el servicio RDMA del modo siguiente. # systemctl enable rdma.service # systemctl start rdma.service Ignore el error RDMA Service Failed.
13–Configuración de NVMe-oF con RDMA Configuración del servidor de destino Tabla 13-1. Parámetros de destino (Continuación) Comando Descripción # echo -n /dev/nvme0n1 >namespaces/ 1/device_path Establece la ruta de acceso al dispositivo NVMe. La ruta de acceso al dispositivo NVMe puede diferir entre sistemas. Compruebe la ruta de acceso al dispositivo mediante el comando lsblk. Este sistema tiene dos dispositivos NVMe: nvme0n1 y nvme1n1. # echo 1 > namespaces/1/enable Activa el espacio de nombres.
13–Configuración de NVMe-oF con RDMA Configuración del servidor iniciador Configuración del servidor iniciador Debe configurar el servidor iniciador después del proceso de reinicio. Cuando el servidor está en funcionamiento, no puede cambiar la configuración sin reiniciar. Si está utilizando un script de inicio para configurar el servidor iniciador, considere pausar el script (utilizando el comando wait o alguno similar) según proceda para asegurar que cada comando finaliza antes de ejecutar el siguiente.
13–Configuración de NVMe-oF con RDMA Configuración del servidor iniciador Anote el NQN del subsistema (subnqn) del destino detectado (Ilustración 13-2) para utilizarlo en el paso 5. Ilustración 13-2. NQN del subsistema 5. Conecte con el destino NVMe-oF detectado (nvme-qlogic-tgt1) mediante NQN. Emita el comando siguiente después de cada reinicio de servidor. Por ejemplo: # nvme connect -t rdma -n nvme-qlogic-tgt1 -a 1.1.1.1 -s 1023 6.
13–Configuración de NVMe-oF con RDMA Preacondicionamiento del servidor de destino Preacondicionamiento del servidor de destino Los servidores de destino NVMe que se prueban de fábrica muestran un rendimiento mayor de lo previsto. Antes de ejecutar una prueba comparativa, el servidor de destino tiene que estar prellenado o preacondicionado. Para preacondicionar el servidor de destino: 1.
13–Configuración de NVMe-oF con RDMA Prueba de los dispositivos NVMe-oF 2. Ejecute la utilidad FIO para medir la latencia del dispositivo NVMe-oF iniciador. Emita el siguiente comando: # fio --filename=/dev/nvme0n1 --direct=1 --time_based --rw=randread --refill_buffers --norandommap --randrepeat=0 --ioengine=libaio --bs=4k --iodepth=1 --numjobs=1 --runtime=60 --group_reporting --name=temp.out FIO informa sobre dos tipos de latencia: envío y finalización.
13–Configuración de NVMe-oF con RDMA Optimización del rendimiento Optimización del rendimiento Para optimizar el rendimiento tanto en el servidor iniciador como en el servidor de destino: 1. Configure los siguientes parámetros de BIOS del sistema: 2. Perfiles de alimentación = “Maximum Performance” (Rendimiento máximo) o equivalente TODOS los C-States = desactivados Hyperthreading = desactivado Para configurar los parámetros del kernel de Linux, edite el archivo grub (/etc/default/grub). a.
13–Configuración de NVMe-oF con RDMA Optimización del rendimiento 4. Configure la frecuencia de la CPU. El archivo cpufreq.sh es un script que aparece en “Frecuencia de la CPU (cpufreq.sh)” en la página 268. # ./cpufreq.sh En las secciones siguientes se muestran los scripts que se utilizan en el paso 3 y 4. Afinidad de IRQ (multi_rss-affin.sh) El script siguiente establece la afinidad de IRQ.
13–Configuración de NVMe-oF con RDMA Optimización del rendimiento done done Frecuencia de la CPU (cpufreq.sh) El script siguiente establece la frecuencia de la CPU. #Usage "./nameofscript.
14 Configuración de VXLAN En este capítulo se proporcionan instrucciones para: Configuración de VXLAN en Linux “Configuración de VXLAN en VMware” en la página 271 “Configuración de VXLAN en Windows Server 2016” en la página 272 Configuración de VXLAN en Linux Para configurar VXLAN en Linux: 1. Descargue, extraiga, y configure el tar ball de openvswitch (OVS). a. Descargue la versión de openvswitch adecuada de la siguiente ubicación: http://www.openvswitch.org/download/ b.
14–Configuración de VXLAN Configuración de VXLAN en Linux 2. Cree el puente. a. Para configurar el host 1, emita los siguientes comandos: ovs-vsctl add-br br0 ovs-vsctl add-br br1 ovs-vsctl add-port br0 eth0 ifconfig eth0 0 && ifconfig br0 192.168.1.10 netmask 255.255.255.0 route add default gw 192.168.1.1 br0 ifconfig br1 10.1.2.10 netmask 255.255.255.0 ovs-vsctl add-port br1 vx1 -- set interface vx1 type=vxlan options:remote_ip=192.168.1.11 (dirección IP del equipo) b.
14–Configuración de VXLAN Configuración de VXLAN en VMware 4. Configure el puente como acceso directo a las máquinas virtuales (VM) y, a continuación, compruebe la conectividad de la VM al equipo. a. Cree una VM a través de virt-manager. b.
14–Configuración de VXLAN Configuración de VXLAN en Windows Server 2016 https://www.vmware.com/content/dam/digitalmarketing/vmware/en/pdf/products/n sx/vmw-nsx-network-virtualization-design-guide.pdf https://pubs.vmware.com/nsx-63/topic/com.vmware.nsx.troubleshooting.doc/GUI D-EA1DB524-DD2E-4157-956E-F36BDD20CDB2.html https://communities.vmware.
14–Configuración de VXLAN Configuración de VXLAN en Windows Server 2016 3. Establezca el Value (Valor) en Enabled (Activado). 4. Haga clic en OK (Aceptar). Implementación de una red definida por software Para beneficiarse de la descarga de tareas de encapsulación VXLAN en las máquinas virtuales, debe implementar una pila de Software Defined Networking (SDN) que utilice la controladora de red de Microsoft.
15 Windows Server 2016 Este capítulo ofrece la siguiente información sobre Windows Server 2016: Configuración de interfaces RoCE con Hyper-V “RoCE sobre Switch Embedded Teaming (SET)” en la página 280 “Configuración de QoS para RoCE” en la página 281 “Configuración de VMMQ” en la página 290 “Configuración de Storage Spaces Direct” en la página 295 Configuración de interfaces RoCE con Hyper-V En Windows Server 2016, Hyper-V con Network Direct Kernel Provider Interface (NDKPI) Mode-2, ada
15–Windows Server 2016 Configuración de interfaces RoCE con Hyper-V Creación de un conmutador virtual Hyper-V con un NIC virtual RDMA Siga los procedimientos que se explican en esta sección para crear un conmutador virtual Hyper-V y después activar RDMA en el NIC virtual del host. Para crear un conmutador virtual Hyper-V con un NIC virtual RDMA: 1. En todas las interfaces físicas, establezca el valor del parámetro NetworkDirect Functionality (Funcionalidad directa de red) en Enabled (Activada). 2.
15–Windows Server 2016 Configuración de interfaces RoCE con Hyper-V Para activar RDMA en NIC virtual de host: 1. Abra la ventana Virtual Ethernet Adapter Properties (Propiedades del adaptador Ethernet Virtual) de Hyper-V. 2. Haga clic en Advanced (Avanzado). 3. En la página Advanced (Avanzado) (Ilustración 15-2): a. En Property (Propiedad), seleccione Network Direct (RDMA). b. En Value (Valor), seleccione Enabled (Activado). c. Haga clic en OK (Aceptar). Ilustración 15-2.
15–Windows Server 2016 Configuración de interfaces RoCE con Hyper-V Cómo agregar un Id. de vLAN al NIC virtual del host Para agregar un Id. de vLAN al NIC virtual de host: 1. Para encontrar el nombre del NIC virtual de host, emita el siguiente comando en Windows PowerShell: PS C:\Users\Administrator> Get-VMNetworkAdapter -ManagementOS La Ilustración 15-3 muestra la salida del comando. Ilustración 15-3. Comando Windows PowerShell: Get-VMNetworkAdapter 2. Para establecer el Id.
15–Windows Server 2016 Configuración de interfaces RoCE con Hyper-V La salida del comando muestra los adaptadores compatibles con RDMA, tal y como se muestra en la Ilustración 15-4. Ilustración 15-4. Comando Windows PowerShell: Get-NetAdapterRdma Cómo agregar NIC virtuales de host (puertos virtuales) Para agregar NIC virtuales de host: 1. Para agregar un NIC virtual de host, emita el siguiente comando: Add-VMNetworkAdapter -SwitchName "New Virtual Switch" -Name SMB - ManagementOS 2.
15–Windows Server 2016 Configuración de interfaces RoCE con Hyper-V Ilustración 15-5. Cuadro de diálogo Add Counters (Agregar contadores) Si se está ejecutando el tráfico de RoCE, los contadores tendrán el aspecto que se muestra en la Ilustración 15-6. Ilustración 15-6.
15–Windows Server 2016 RoCE sobre Switch Embedded Teaming (SET) RoCE sobre Switch Embedded Teaming (SET) Switch Embedded Teaming (SET) es una solución de equipos NIC alternativa de Microsoft que se puede utilizar en entornos que tienen Hyper-V y la pila de Software Defined Networking (SDN) en una vista previa técnica de Windows Server 2016. SET incorpora una funcionalidad de equipos NIC limitada en el conmutador virtual Hyper-V.
15–Windows Server 2016 Configuración de QoS para RoCE La Ilustración 15-8 muestra la salida del comando. Ilustración 15-8. Comando Windows PowerShell: Get-NetAdapter 2. Para activar RDMA en SET, emita el siguiente comando en Windows PowerShell: PS C:\Users\Administrator> Enable-NetAdapterRdma "vEthernet (SET)" Asignación de un Id. de vLAN en SET Para asignar un Id. de vLAN en SET: Para asignar un Id. de vLAN en SET, emita el siguiente comando en Windows PowerShell: PS C:\Users\Administrator> Set-VMNe
15–Windows Server 2016 Configuración de QoS para RoCE Configuración de QoS desactivando DCBX en el adaptador Es necesario realizar la configuración de todos los sistemas en uso antes de configurar la calidad de servicio (QoS) desactivando DCBX en el adaptador. La configuración del control de flujo basado en prioridades (PFC), los servicios de transición mejorada (ETS) y las clases de tráfico debe ser la misma en el conmutador y en el servidor. Para configurar QoS desactivando DCBX: 1.
15–Windows Server 2016 Configuración de QoS para RoCE Ilustración 15-9. Propiedades avanzadas: Activación de la QoS 6. Asigne el Id. de vLAN a la interfaz del siguiente modo: a. Abra las propiedades del minipuerto y haga clic en la pestaña Advanced (Avanzado). b. En la página Advanced (Avanzado) de las propiedades del adaptador (Ilustración 15-10) en Property (Propiedad), seleccione VLAN ID (Id. de VLAN) y después establezca el valor. c. Haga clic en OK (Aceptar).
15–Windows Server 2016 Configuración de QoS para RoCE Ilustración 15-10. Propiedades avanzadas: Configuración del Id. de VLAN 7. Para activar PFC para RoCE en una prioridad específica, emita el siguiente comando: PS C:\Users\Administrators> Enable-NetQoSFlowControl -Priority 5 NOTA Si está configurando RoCE sobre Hyper-V, no asigne un Id. de vLAN a la interfaz física. 8. Para desactivar el control de flujo de prioridades en cualquier otra prioridad, emita los siguientes comandos: PS C:\Users\Administra
15–Windows Server 2016 Configuración de QoS para RoCE 4 False 5 True Global 6 False Global 7 False Global 9. Global Para configurar QoS y asignar la prioridad correspondiente a cada tipo de tráfico, emita los siguientes comandos (en los que la Prioridad 5 está etiquetada para RoCE y Prioridad 0 está etiquetada para TCP): PS C:\Users\Administrators> New-NetQosPolicy "SMB" -NetDirectPortMatchCondition 445 -PriorityValue8021Action 5 -PolicyStore ActiveStore PS C:\Users\Administrators> New-NetQos
15–Windows Server 2016 Configuración de QoS para RoCE Name Algorithm Bandwidth(%) Priority ---- --------- ------------ -------- PolicySet --------- [Default] ETS 20 1-4,6-7 Global RDMA class ETS 50 5 Global TCP class ETS 30 0 Global 11. IfIndex IfAlias ------- ------- Para ver el adaptador de red QoS desde la configuración anterior, emita el siguiente comando en Windows PowerShell: PS C:\Users\Administrator> Get-NetAdapterQos Name : SLOT 4 Port 1 Enabled : True Capabilities : H
15–Windows Server 2016 Configuración de QoS para RoCE Configuración de QoS activando DCBX en el adaptador Es necesario realizar la configuración de todos los sistemas en uso. La configuración de PFC, ETS y las clases de tráfico debe ser la misma en el conmutador y en el servidor. Para configurar QoS activando DCBX: 1. Active DCBX (IEEE, CEE, o Dinámico). 2. Con HII, establezca la RoCE Priority (Prioridad RoCE) en 0.
15–Windows Server 2016 Configuración de QoS para RoCE Ilustración 15-11. Propiedades avanzadas: Activación de QoS 6. Asigne el Id. de vLAN a la interfaz (necesario para PFC) del siguiente modo: a. Abra las propiedades del minipuerto y haga clic en la pestaña Advanced (Avanzado). b. En la página Advanced (Avanzado) de las propiedades del adaptador (Ilustración 15-12) en Property (Propiedad), seleccione VLAN ID (Id. de VLAN) y después establezca el valor. c. Haga clic en OK (Aceptar).
15–Windows Server 2016 Configuración de QoS para RoCE Ilustración 15-12. Propiedades avanzadas: Configuración del Id. de VLAN 7. Para configurar el conmutador, emita el siguiente comando en Windows PowerShell: PS C:\Users\Administrators> Get-NetAdapterQoS Name : Ethernet 5 Enabled : True Capabilities : Hardware Current -------- ------- MacSecBypass : NotSupported NotSupported DcbxSupport : CEE NumTCs(Max/ETS/PFC) : 4/4/4 OperationalTrafficClasses OperationalFlowControl : TC TSA Bandwidth
15–Windows Server 2016 Configuración de VMMQ OperationalClassifications : Protocol Port/Type Priority -------- --------- -------- NetDirect 445 RemoteTrafficClasses 5 : TC TSA Bandwidth Priorities -- --- --------- ---------- 0 ETS 5% 0-4,6-7 1 ETS 95% 5 RemoteFlowControl : Priority 5 Enabled RemoteClassifications : Protocol Port/Type Priority -------- --------- -------- NetDirect 445 5 NOTA El ejemplo anterior corresponde a una situación en la que el puerto del adaptador está conec
15–Windows Server 2016 Configuración de VMMQ Activación de VMMQ en el adaptador Para activar VMMQ en el adaptador: 1. Abra las propiedades del minipuerto y haga clic en la pestaña Advanced (Avanzado). 2. En la página Advanced (Avanzado) de las propiedades del adaptador (Ilustración 15-13), en Property (Propiedad), seleccione Virtual Switch RSS (RSS conmutador virtual) y después establezca el valor en Enabled (Activado). 3. Haga clic en OK (Aceptar). Ilustración 15-13.
15–Windows Server 2016 Configuración de VMMQ 4. En Connection type (Tipo de conexión): a. Haga clic en External network (Red externa). b. Seleccione la casilla de verificación Allow management operating system to share this network adapter (Permitir que el sistema operativo comparta este adaptador de red). Ilustración 15-14. Administrador de conmutadores virtuales 5. Haga clic en OK (Aceptar).
15–Windows Server 2016 Configuración de VMMQ Activación de VMMQ en el conmutador de máquina virtual Para activar VMMQ en el conmutador de máquina virtual: Emita el siguiente comando en Windows PowerShell: PS C:\Users\Administrators> Set-VMSwitch -name q1 -defaultqueuevmmqenabled $true -defaultqueuevmmqqueuepairs 4 Cómo obtener la capacidad del conmutador de máquina virtual Para obtener la capacidad del conmutador de máquina virtual: Emita el siguiente comando en Windows PowerShell: PS C:\Users\Admin
15–Windows Server 2016 Configuración de VMMQ Creación de una máquina virtual y activación de VMMQ en VMNetworkAdapters en la máquina virtual Para crear una máquina virtual (VM) y activar VMMQ en VMNetworksadapters en la VM: 1. Cree una VM. 2. Agregue el VMNetworkadapter a la VM. 3. Asigne un conmutador virtual al VMNetworkadapter. 4. Para activar VMMQ en la VM, emita el siguiente comando en Windows PowerShell: PS C:\Users\Administrators> set-vmnetworkadapter -vmname vm1 -VMNetworkAdapterName "networ
15–Windows Server 2016 Configuración de Storage Spaces Direct Supervisión de las estadísticas de tráfico Para supervisar el tráfico de la función virtual de una máquina virtual, emita el siguiente comando en Windows PowerShell: PS C:\Users\Administrator> Get-NetAdapterStatistics | fl NOTA Marvell admite el parámetro nuevo agregado a Windows Server 2016 y Windows Server 2019 para configurar la cantidad máxima de pares de colas en un puerto virtual.
15–Windows Server 2016 Configuración de Storage Spaces Direct Configuración del hardware La Ilustración 15-16 muestra un ejemplo de configuración de hardware. Ilustración 15-16. Ejemplo de configuración de hardware NOTA Los discos que se utilizan en este ejemplo son discos 4 × 400 G NVMe™ y 12 × 200 G SSD. Implementación de un sistema hiperconvergente Esta sección incluye instrucciones para instalar y configurar los componentes de un sistema hiperconvergente utilizando Windows Server 2016.
15–Windows Server 2016 Configuración de Storage Spaces Direct Implementación del sistema operativo Para implementar sistemas operativos: 1. Instale el sistema operativo. 2. Instale los roles de Windows Server (Hyper-V). 3. Instale las siguientes características: 4. Tolerancia a errores Clúster Puente del centro de datos (DCB) Conecte los nodos a un dominio y agregue cuentas de dominio.
15–Windows Server 2016 Configuración de Storage Spaces Direct dcbx version cee no shutdown 2. Activación de Network Quality of Service (Calidad de servicio de la red). NOTA La calidad de servicio de la red se utiliza para garantizar que el sistema de almacenamiento definido por software tenga suficiente ancho de banda para permitir la comunicación entre los nodos y garantizar la resiliencia y el rendimiento.
15–Windows Server 2016 Configuración de Storage Spaces Direct Set-VMNetworkAdapterVlan -VMNetworkAdapterName "SMB_2" -VlanId 5 -Access -ManagementOS NOTA Dichos comandos pueden estar en la misma VLAN o en varias vLAN. e. Para comprobar si se ha establecido el Id. de vLAN, emita el siguiente comando: Get-VMNetworkAdapterVlan -ManagementOS f.
15–Windows Server 2016 Configuración de Storage Spaces Direct Paso 1. Ejecución de una herramienta de validación de clústeres Ejecute la herramienta de validación de clústeres para asegurarse de que los nodos del servidor están configurados correctamente para crear un clúster utilizando Storage Spaces Direct.
15–Windows Server 2016 Configuración de Storage Spaces Direct El siguiente comando de Windows PowerShell puede ponerse en un archivo de script de Windows PowerShell (.PS1) y ejecutarse desde el sistema de administración de una consola abierta de Windows PowerShell (o Windows PowerShell ISE) que tenga privilegios de Administrador. NOTA Ejecutar este script ayuda a identificar los discos de cada nodo que pueden utilizarse para Storage Spaces Direct.
15–Windows Server 2016 Configuración de Storage Spaces Direct Paso 5. Activación de Storage Spaces Direct Una vez que haya creado el clúster, emita el comando cmdlet de Enable-ClusterS2D de Windows PowerShell. Dicho comando cmdlet hace que el sistema de almacenamiento se ponga en modo Storage Spaces Direct y realiza las siguientes operaciones automáticamente: Crea una agrupación única con un nombre como S2D en Cluster1. Configura una caché de Storage Spaces Direct.
16 Windows Server 2019 Este capítulo ofrece la siguiente información sobre Windows Server 2019: RSSv2 para Hyper-V “Comportamientos de Windows Server 2019” en la página 304 “Nuevas propiedades del adaptador” en la página 305 RSSv2 para Hyper-V En Windows Server 2019, Microsoft ha agregado compatibilidad para Receive Side Scaling (Escala en lado de recepción) versión 2 (RSSv2) con Hyper-V (RSSv2 por vPort).
16–Windows Server 2019 Comportamientos de Windows Server 2019 Errores de registro de eventos conocidos En condiciones de funcionamiento normales, el algoritmo dinámico de RSSv2 puede iniciar una actualización de tabla de indirección que sea incompatible con el controlador y devolver un código de estado inadecuado. En tales casos, se produce un error del registro de eventos, aunque no exista ningún problema de funcionamiento. La Ilustración 16-1 muestra un ejemplo. Ilustración 16-1.
16–Windows Server 2019 Nuevas propiedades del adaptador Inbox Driver Network Direct (RDMA) está desactivado de forma predeterminada En el controlador integrado de Windows Server 2019, la opción Network Direct (RDMA) está desactivada de forma predeterminada en las propiedades de NIC. No obstante, al actualizar el controlador a un controlador listo para usar, Network Direct se activa de forma predeterminada.
16–Windows Server 2019 Nuevas propiedades del adaptador Max Queue Pairs for Non-Default vPort (Pares de colas máx para vPort no predeterminado) = valor Si selecciona un valor superior a 8, entonces: Max Queue Pairs for Default vPort (Pares de colas máx para vPort predeterminado) = valor Max Queue Pairs for Non-Default vPort (Pares de colas máx para vPort no predeterminado) = valor Network Direct Technology (Tecnología directa de red) Marvell admite el nuevo parámetro Network Direct Technology (Te
16–Windows Server 2019 Nuevas propiedades del adaptador Aceleraciones predeterminadas de VMQ y VMMQ La Tabla 16-2 muestra el valor predeterminado de VMQ y VMMQ y otros valores para aceleraciones en Windows Server 2019 para adaptador de la serie 41xxx. Tabla 16-2. Aceleraciones de Windows 2019 VMQ y VMMQ a NIC de dos puertos-solo función única no CNA Valor predeterminado Maximum Queue Pairs (L2) per VPort (Pares de colas máx.
16–Windows Server 2019 Nuevas propiedades del adaptador Agrupación de VPort única El Adaptador de la serie 41xxx admite el parámetro Single VPort Pool (Agrupación de VPort única), que permite al administrador del sistema asignar cualquier IOVQueuePair disponible a VPort predeterminado, VPort no predeterminado de PF o VPort no predeterminado de VF.
17 Solución de problemas Este capítulo proporciona la siguiente información de solución de problemas: Lista de comprobación de solución de problemas “Cómo asegurarse de que los controladores actuales estén cargados” en la página 310 “Prueba de conectividad de red” en la página 311 “Microsoft Virtualization con Hyper-V” en la página 312 “Problemas específicos de Linux” en la página 312 “Problemas varios” en la página 313 “Recopilación de datos de depuración” en la página 313 List
17–Solución de problemas Cómo asegurarse de que los controladores actuales estén cargados Intente introducir el adaptador en otra ranura. Si la nueva posición funciona, la ranura original de su sistema puede estar defectuosa. Reemplace el adaptador dañado por uno que sepa que funciona correctamente. Si el segundo adaptador funciona en la ranura en que falló el primero, el adaptador original probablemente esté dañado.
17–Solución de problemas Prueba de conectividad de red version: 8.4.7.0 firmware-version: mfw 8.4.7.0 storm 8.4.7.0 bus-info: 0000:04:00.2 Si cargó un controlador nuevo, pero todavía no lo ha reiniciado, el comando modinfo no mostrará la información del controlador actualizado. En su lugar, emita el siguiente comando dmesg para ver los registros. En este ejemplo, la última entrada identifica el controlador que estará activo tras el reinicio. # dmesg | grep -i "Cavium" | grep -i "qede" [ 10.
17–Solución de problemas Microsoft Virtualization con Hyper-V 4. Emita el siguiente comando y, a continuación, pulse INTRO. ping Las estadísticas de ping que se muestran indican si la conexión de red está funcionando o no. Cómo probar la conectividad de red en Linux Para comprobar si la interfaz Ethernet esté activa y en funcionamiento: 1. Para comprobar el estado de la interfaz Ethernet, emita el comando ifconfig. 2.
17–Solución de problemas Problemas varios Problemas varios Problema: El Adaptador de la serie 41xxx se ha apagado y aparece un mensaje de error que indica que ha fallado el ventilador del adaptador. Solución: El Adaptador de la serie 41xxx puede apagarse de forma intencionada para evitar daños permanentes. Póngase en contacto con el soporte técnico de Marvell para obtener ayuda. Problema: En un entorno ESXi, con el controlador iSCSI (qedil) instalado, a veces, el cliente VI no puede acceder al host.
A LED del adaptador En la Tabla A-1 se muestran los indicadores LED que informan sobre el estado de la actividad y del enlace del puerto del adaptador. Tabla A-1.
B Módulos ópticos y cables Este apéndice proporciona la siguiente información sobre los módulos ópticos y los cables compatibles: Especificaciones compatibles “Módulos ópticos y cables probados” en la página 316 “Conmutadores probados” en la página 320 Especificaciones compatibles Los Adaptadores de la serie 41xxx son compatibles con una serie de módulos ópticos y cables que cumplen con SFF8024.
B–Módulos ópticos y cables Módulos ópticos y cables probados Módulos ópticos y cables probados Marvell no garantiza que todos los cables o módulos ópticos que satisfagan los requisitos de cumplimiento funcionen con los Adaptadores de la serie 41xxx. Marvell ha probado los componentes que se enumeran en la Tabla B-1 y ofrece esta lista para su comodidad. Tabla B-1.
B–Módulos ópticos y cables Módulos ópticos y cables probados Tabla B-1.
B–Módulos ópticos y cables Módulos ópticos y cables probados Tabla B-1.
B–Módulos ópticos y cables Módulos ópticos y cables probados Tabla B-1.
B–Módulos ópticos y cables Conmutadores probados Conmutadores probados La Tabla B-2 muestra una lista de los conmutadores que se han sometido a pruebas de interoperabilidad con los Adaptadores de la serie 41xxx. La lista incluye conmutadores que están disponibles en el momento en el que el producto sale al mercado y está sujeta a cambios a medida que, con el paso del tiempo, nuevos conmutadores empiecen a comercializarse y otros dejen de hacerlo. Tabla B-2.
C Configuración del conmutador Dell Z9100 Los Adaptadores de la serie 41xxx admiten conexiones con el conmutador Ethernet Dell Z9100. No obstante, hasta que se estandarice el proceso de negociación automática, el conmutador debe configurarse explícitamente para que se conecte al adaptador a 25 Gbps. Para configurar un puerto de conmutador Dell Z9100 para que se conecte al Adaptador de la serie 41xxx a 25 Gbps: 1.
C–Configuración del conmutador Dell Z9100 25G Quad port mode with 25G speed Dell(conf)#stack-unit 1 port 5 portmode quad speed 25G Para obtener información sobre cómo cambiar la velocidad de enlace del adaptador, consulte “Prueba de conectividad de red” en la página 311. 5. Asegúrese de que el puerto funcione a 25 Gbps: Dell# Dell#show running-config | grep "port 5" stack-unit 1 port 5 portmode quad speed 25G 6.
D Limitaciones de las características Este apéndice proporciona información sobre las limitaciones de las características implementadas en esta versión. Estas limitaciones de coexistencia con las características pueden eliminarse en una futura versión. En ese momento, podrá utilizar varias características a la vez sin necesidad de realizar ningún paso de configuración adicional que no sean los que normalmente hay que llevar a cabo para activar las características.
D–Limitaciones de las características El inicio en base de SAN y NIC solo está admitido en algunas funciones físicas (PF) concretas Ethernet (por ejemplo, el inicio remoto iSCSI de software) y el inicio PXE solo son compatibles con la primera PF Ethernet de un puerto físico. En la configuración del modo NPAR, la primera PF Ethernet (es decir, no las otras PF Ethernet) admite Ethernet (por ejemplo, el inicio remoto iSCSI del software) e inicio PXE.
E Historial de revisiones Historial de revisión de documentos Revisión A, 28 de abril de 2017 Revisión B, 24 de agosto de 2017 Revisión C, 1 de octubre de 2017 Revisión D, 24 de enero de 2018 Revisión E, 15 de marzo de 2018 Revisión F, 19 de abril de 2018 Revisión G, 22 de mayo de 2018 Revisión H, 23 de agosto de 2018 Revisión J, 23 de enero de 2019 Revisión K, 2 de julio de 2019 Revisión L, 3 de julio de 2019 Revisión M, 16 de octubre de 2019 Cambios Secciones afectadas Se han agregado los siguientes a
E–Historial de revisiones En la Tabla 2-2, se han actualizado los SO compatibles para Windows Server, RHEL, SLES, XenServer. “Requisitos del sistema” en la página 5 En los apartados tras el segundo párrafo, se ha agregado texto para describir con más detalle la instalación de Dell iSCSI HW y SW. “Configuración de preinicio iSCSI” en la página 76 Se ha movido la sección para que esté más cerca de otras secciones relevantes.
E–Historial de revisiones En la Tabla 7-1, Se ha eliminado RHEL 7.5; se ha agregado RHEL 7.7. Para RHEL7.6, se ha agregado compatibilidad para OFED-4.17-1 GA. Se ha eliminado SLES 12 SP3; se ha agregado SLES 12 SP4. Se ha separado SLES 15 (SP0) y SLES 15 SP1; en SLES 15 SP1, se ha agregado compatibilidad para OFED-4.17-1 GA. CentOS 7.6: se ha agregado compatibilidad para OFED-4.17-1 GA.
E–Historial de revisiones Se han cambiado los comandos en el paso 1, parte c. Se ha agregado un ejemplo de ovsdb-server y ovs-vswitchd en ejecución con pid. En el paso 4, parte c, se ha cambiado la segunda frase del segundo párrafo a “La interfaz br1 se “Configuración de VXLAN en Linux” en la página 269 Se ha cambiado el comando de PowerShell para monitorizar el tráfico de la función virtual en una máquina virtual.
Glosario ACPI La especificación de la Interfaz avanzada de configuración y energía (ACPI) proporciona un estándar abierto para realizar la configuración y administración de la energía de dispositivos basados en el sistema operativo de forma unificada. La ACPI define unas interfaces independientes de la plataforma para la detección, configuración, administración de energía y supervisión de hardware.
Guía del usuario—Adaptadores de red convergente Serie 41xxx DCB Puente del centro de datos. Proporciona mejoras a las especificaciones de puente 802.1 existentes para satisfacer los requisitos de protocolos y aplicaciones en el centro de datos.
Guía del usuario—Adaptadores de red convergente Serie 41xxx EEE Ethernet de eficacia energética Un conjunto de mejoras del par trenzado y de la familia del plano posterior de Ethernet de los estándares de las funciones de red de equipos que permiten un menor consumo de energía durante periodos de una actividad menor de datos. La intención era reducir el consumo de energía a un 50 por ciento o más, mientras se retiene la compatibilidad completa con el equipo existente.
Guía del usuario—Adaptadores de red convergente Serie 41xxx FTP Protocolo de transferencia de archivos. Un protocolo de red estándar utilizado para transferir archivos de un host a otro host sobre una red basada en TCP, como Internet. FTP resulta necesario para cargas de firmware fuera de banda que se completarán con mayor rapidez que las cargas de firmware en banda. ETS Selección de transmisión mejorada.
Guía del usuario—Adaptadores de red convergente Serie 41xxx interfaz de firmware extensible (EFI) Consulte EFI. LLDP Un protocolo de proveedor neutral Layer 2 que permite que un dispositivo de red publique su identidad y capacidad en la red local. Este protocolo remplaza protocolos de propietario como Cisco Discovery Protocol, Extreme Discovery Protocol, y Nortel Discovery Protocol (también llamado SONMP). La información reunida con LLDP se almacena en el dispositivo y puede consultarse mediante SNMP.
Guía del usuario—Adaptadores de red convergente Serie 41xxx MSI, MSI-X Interrupciones señalizadas por mensajes MSI. Una de las dos extensiones definidas por PCI para permitir interrupciones señalizadas por mensajes (MSI), en PCI 2.2 y posteriores y PCI Express. Las MSI representan una forma alternativa para generar una interrupción a través de mensajes especiales que permiten emular una confirmación o negación de pin. MSI-X (definido en PCI 3.
Guía del usuario—Adaptadores de red convergente Serie 41xxx protocolo de configuración dinámica de host Consulte DHCP. QoS Calidad de servicio Hace referencia a los métodos utilizados para evitar cuellos de botella y garantizar la continuidad de negocio cuando se transmiten datos a través de puertos virtuales mediante el establecimiento de prioridades y la asignación de ancho de banda. protocolo de control de transmisión Consulte TCP.
Guía del usuario—Adaptadores de red convergente Serie 41xxx SR-IOV Virtualización de entrada/salida de raíz única. Una especificación de PCI SIG que permite que un único dispositivo PCI aparezca como varios dispositivos PCI físicos distintos. La SR-IOV permite aislar los recursos de PCI para obtener rendimiento, interoperabilidad y capacidad de administración. RoCE RDMA sobre Ethernet convergente.
Guía del usuario—Adaptadores de red convergente Serie 41xxx tramas gigantes Tramas de IP grandes que se utilizan en redes de alto rendimiento para aumentar el rendimiento en las distancias grandes. Las tramas gigantes suelen equivaler a 9.000 bytes por Gigabit Ethernet, pero pueden referirse a cualquier cosa que se transmita a través del MTU del IP, lo que significa 1.500 bytes en una red Ethernet. VI Interfaz virtual.
Guía del usuario—Adaptadores de red convergente Serie 41xxx WoL Reactivar en LAN. Un estándar para redes de equipos Ethernet que permite encender o activar un sistema que se encontraba inactivo de forma remota mediante un mensaje de red que normalmente suele enviar un programa sencillo que se ejecuta en otro equipo de la red.
Contact Information Marvell Technology Group http://www.marvell.com Marvell.