Guia do usuário Adaptador Ethernet Inteligente QL45212 BC0154503-08 F Informações de terceiros fornecidas a você como cortesia da Dell EMC.
Guia do usuário—Adaptador Ethernet Inteligente QL45212 Histórico de revisões do documento Revisão A, 11 de janeiro de 2015 Revisão B, 19 de abril de 2016 Revisão C, 27 de janeiro de 2017 Revisão D, 24 de agosto de 2017 Revisão E, 31 de janeiro de 2018 Revisão F, 19 de abril de 2018 Alterações Seções afetadas Atualizados os exemplos de convenções de documento. “Convenções de documentação” na página xiv Removidas as seções obsoletas de Acordos de licença e Garantia da QLogic.
Guia do usuário—Adaptador Ethernet Inteligente QL45212 “Configurar a SR-IOV no VMware” na página 112 No procedimento Para configurar a SR-IOV no VMware:, algumas etapas foram reorganizadas: Movida a etapa “Para validar as VFs por porta, use o comando esxcli...” para aparecer após a etapa “Preencha a caixa de diálogo Edit Settings (Editar configurações)...”. Movida a etapa “Ligue a VM...” para aparecer após a etapa “Instale os drivers QLogic para os adaptadores detectados...”.
Índice Prefácio Produtos suportados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Público-alvo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Conteúdo deste guia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Convenções de documentação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Avisos legais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Guia do usuário—Adaptador Ethernet Inteligente QL45212 Instalar drivers para Linux usando o pacote RPM kmp/kmod . . . Instalar drivers para Linux usando o arquivo TAR . . . . . . . . . . . Instalar os drivers para Linux com RDMA . . . . . . . . . . . . . . . . . . . . . . Parâmetros opcionais do driver para Linux . . . . . . . . . . . . . . . . . . . . . Padrões de operação do driver para Linux . . . . . . . . . . . . . . . . . . . . . Mensagens de driver para Linux . . . . . . . . . . . . . . . . . . . .
Guia do usuário—Adaptador Ethernet Inteligente QL45212 Preparar o comutador Ethernet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configurar o comutador Ethernet Cisco Nexus 6000 . . . . . . . . . . . . . Configurar o comutador Ethernet Dell Z9100 . . . . . . . . . . . . . . . . . . . Configurar o RoCE no adaptador para Windows Server . . . . . . . . . . . . . . . Visualizar contadores RDMA. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Guia do usuário—Adaptador Ethernet Inteligente QL45212 9 Windows Server 2016 Configurando as interfaces do RoCE com Hyper-V. . . . . . . . . . . . . . . . . . . Criar um comutador virtual Hyper-V com uma NIC virtual RDMA. . . . Adicionar um ID da VLAN a uma NIC virtual do host . . . . . . . . . . . . . Verificar se o RoCE está habilitado . . . . . . . . . . . . . . . . . . . . . . . . . . . Adicionar NICs virtuais do host (portas virtuais) . . . . . . . . . . . . . . . . .
Guia do usuário—Adaptador Ethernet Inteligente QL45212 Implantar um Nano Server em uma máquina virtual . . . . . . . . . . . . . . Gerenciar um Nano Server remotamente . . . . . . . . . . . . . . . . . . . . . . Gerenciar um Nano Server com a comunicação remota do Windows PowerShell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Adicionar o Nano Server a uma lista de hosts confiáveis. . . . . . Iniciar a Windows PowerShell sessão remota . . . . . . . . . . . . . .
Guia do usuário—Adaptador Ethernet Inteligente QL45212 Lista de figuras Figura Página 3-1 Janela Dell Update Package . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 3-2 Janela QLogic InstallShield Wizard: Welcome (Assistente do InstallShield da QLogic: Bem-vindo) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Guia do usuário—Adaptador Ethernet Inteligente QL45212 6-4 6-5 6-6 6-7 6-8 6-9 6-10 7-1 7-2 7-3 7-4 8-1 8-2 8-3 8-4 8-5 8-6 8-7 8-8 8-9 8-10 8-11 8-12 8-13 8-14 8-15 9-1 9-2 9-3 9-4 9-5 9-6 9-7 9-8 9-9 9-10 9-11 9-12 9-13 9-14 9-15 9-16 9-17 9-18 9-19 9-20 Configurações do comutador, Servidor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configurações do comutador, Cliente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Guia do usuário—Adaptador Ethernet Inteligente QL45212 9-21 9-22 Comando do Windows PowerShell: New-SMBShare . . . . . . . . . . . . . . . . . . . . . . . Comando do Windows PowerShell: Get-NetAdapterStatistics . . . . . . . . . . . . . . . .
Guia do usuário—Adaptador Ethernet Inteligente QL45212 Lista de tabelas Tabela Página 2-1 Requisitos de hardware de host. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 2-2 Requisitos mínimos do sistema operacional de host . . . . . . . . . . . . . . . . . . . . . . . . 6 3-1 Drivers do Adaptadores QL45212 da QLogic para Linux . . . . . . . . . . . . . . . . . . . . 9 3-2 Parâmetros opcionais do driver qede . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Prefácio Este prefácio apresenta uma lista dos produtos suportados, especifica o público-alvo, explica as convenções tipográficas usadas neste guia e descreve os avisos legais. Produtos suportados Este guia do usuário descreve a instalação, a configuração e o gerenciamento do adaptador Cavium™ QL45212 Ethernet inteligente de 25 GB (QL45212HLCU-DE, suporte de altura padrão).
Prefácio Convenções de documentação O Capítulo 7 Configuração da iSER descreve como configurar as extensões iSCSI para RDMA (iSER) para RHEL e SLES. O Capítulo 8 Configuração da SR-IOV contém os procedimentos para a configuração da virtualização de entrada/saída de raiz única (SR-IOV) em sistemas Windows, Linux e VMware. O Capítulo 9 Windows Server 2016 descreve os recursos do Windows Server 2016.
Prefácio Convenções de documentação Textos em negrito indicam elementos da interface do usuário, como itens de menu, botões, caixas de verificação ou cabeçalhos de coluna. Por exemplo: Clique no botão Iniciar, Aponte para Programas, aponte para Acessórios e depois clique em Prompt de comando. Em Opções de notificação, marque a caixa de seleção Alarmes de aviso. Textos na fonte Courier indicam um nome de arquivo, um caminho de diretório ou um texto de linha de comando.
Prefácio Convenções de documentação NOTA Para os comandos da interface de linha de comando apenas, os nomes das variáveis são sempre indicados usando os sinais de maior e menor em vez de itálico. [ ] (colchetes) indicam um parâmetro opcional. Por exemplo: [] significa especificar um nome de arquivo ou omiti-lo para selecionar o nome de arquivo padrão. | (barra vertical) indica opções mutuamente exclusivas; selecione apenas uma opção. Por exemplo: on|off 1|2|3|4 ...
Prefácio Avisos legais Avisos legais Os avisos legais abordados nesta seção incluem segurança do dispositivo de laser (aviso da FDA), certificação de agência e conformidade com segurança de produto. Segurança de equipamentos a laser, Aviso da FDA Este produto está em conformidade com as Regras do DHHS, 21CFR, Capítulo I, Subcapítulo J e foi projetado e fabricado de acordo com a norma IEC60825-1 sobre a etiqueta de segurança de produtos a laser.
Prefácio Avisos legais Conformidade com a Diretiva de compatibilidade eletromagnética CE Mark 2014/30/EU, 2014/35/EU: EN55032:2012/ CISPR 32:2015 Classe A EN55024:2010 EN61000-3-2: Harmonic Current Emission (Emissão de correntes harmônicas) EN61000-3-3: Voltage Fluctuation and Flicker (Flutuações e oscilações de tensão) Normas de imunidade EN61000-4-2 : ESD (Descarga eletrostática) EN61000-4-3 : RF Electro Magnetic Field (Campo eletromagnético de RF) EN61000-4-4 : Fast Transient/Burst (Transientes rápidos)
Prefácio Avisos legais Formato para o idioma coreano — Classe A VCCI: Classe A Este é um produto Classe A baseado na norma do Voluntary Control Council for Interference (VCCI). Se esse equipamento for usado em um ambiente doméstico, poderão ocorrer interferências de rádio, caso em que o usuário pode ser obrigado a tomar medidas corretivas. Conformidade com a segurança do produto Segurança UL e cUL do produto: UL 60950-1 (2ª edição) A1 + A2 2014-10-14 CSA C22.2 Nº.
1 Visão geral do produto Este capítulo contém as seguintes informações a respeito dos Adaptadores QL45212: Descrição Funcional Recursos “Especificações do adaptador” na página 3 Descrição Funcional O adaptador Cavium QL45212 é um adaptador Ethernet inteligente de 25 Gb projetado para operar em redes de dados aceleradas de sistemas Dell PowerEdge. O adaptador QL45212 inclui um MAC Ethernet de 25 GB com capacidade full-duplex.
1–Visão geral do produto Recursos 1 Descarregamento de segmento genérico (GSO - Generic Segment Offload) Descarregamento de recebimento grande (LRO - Large Receive Offload) União de segmentos de recebimento (RSC - Receive Segment Coalescing) Fila de máquina virtual dinâmica Microsoft® (VMQ), multifilas de máquina virtual (VMMQ) e Multifila Linux Interrupções adaptativas: TSS/RSS (Transmit/Receive Side Scaling) Descarregamentos sem estado para Virtualização de Rede usando En
1–Visão geral do produto Especificações do adaptador Memória NVRAM flash serial Interface de gerenciamento de alimentação PCI (v1.1) Suporte a BAR (Base Address Register - Registo de endereço base) de 64 bits Suporte a processador EM64T Suporte a inicialização iSCSI e FCoE2 Recursos específicos do Dell QL45212 Os recursos específicos do Adaptador de Ethernet Inteligente Dell QL45212 incluem frequência de interrupção adaptativa e ASIC com processador RISC incorporado.
1–Visão geral do produto Especificações do adaptador Especificações de normas As especificações de normas suportadas são: Especificação de base PCI Express, rev. 3.1 Especificação eletromecânica da placa PCI Express, rev. 3.0 Especificação da interface de gerenciamento de energia do barramento PCI, rev. 1.2 Especificações IEEE: 802.3-2015 IEEE Standard for Ethernet (controle de fluxo) 802.1q (VLAN) 802.1AX (Agregação de links) 802.1ad (QinQ) 802.
2 Instalação do hardware Este capítulo contém as seguintes informações de instalação de hardware: Requisitos do sistema “Precauções de segurança” na página 6 “Lista de verificação antes da instalação” na página 6 “Instalação do adaptador” na página 7 Requisitos do sistema Antes de instalar um Adaptador QL45212 Cavium, verifique se o seu sistema atende aos requisitos de hardware e de sistema operacional mostrados na Tabela 2-1 e na Tabela 2-2.
2–Instalação do hardware Precauções de segurança Tabela 2-2. Requisitos mínimos do sistema operacional de host Sistema operacional Requisitos Windows Server 2012, 2012 R2, 2016 (incluindo Nano) Linux RHEL® 6.8, 6.9, 7.2, 7.3, 7.4 SLES® 11 SP4, SLES 12 SP2, SLES 12 SP3 VMware ESXi 6.0 u3 e posteriores para adaptadores 25G NOTA A Tabela 2-2 estipula os requisitos mínimos do SO de host. Para obter uma lista completa dos sistemas operacionais suportados, visite o site da Cavium.
2–Instalação do hardware Instalação do adaptador NOTA Se você tiver adquirido o software do adaptador no site da Cavium, verifique o caminho para os arquivos de driver do adaptador. 3. Se o seu sistema estiver ativo, desligue-o. 4. Depois de concluir o desligamento, desligue a alimentação e desconecte o cabo de energia. 5. Remova o adaptador da embalagem de envio e coloque-o sobre uma superfície antiestática. 6.
2–Instalação do hardware Instalação do adaptador CUIDADO Não use força excessiva ao instalar a placa, uma vez que isso pode danificar o sistema ou o adaptador. Caso tenha dificuldade para encaixar o adaptador, remova-o, realinhe e tente novamente. 6. Prenda o adaptador com o grampo ou parafuso do adaptador. 7. Feche a caixa do sistema e desconecte quaisquer dispositivos antiestáticos de proteção pessoal.
3 Instalação de drivers Este capítulo contém as seguintes informações sobre a instalação de drivers: Instalar o software de drivers para Linux “Instalar o software de drivers para Windows” na página 17 “Instalar o software de drivers para VMware” na página 27 Instalar o software de drivers para Linux Esta seção descreve como instalar drivers para Linux com ou sem acesso remoto direto à memória (RDMA).
3–Instalação de drivers Instalar o software de drivers para Linux Tabela 3-1. Drivers do Adaptadores QL45212 da QLogic para Linux (Continuação) Driver Linux Descrição qede Driver Ethernet do Adaptador QL45212 para Linux. Esse driver controla diretamente o hardware e é responsável por enviar e receber pacotes Ethernet em nome da pilha de rede de host Linux. Esse driver também recebe e processa interrupções de dispositivo em nome dele mesmo (para redes L2).
3–Instalação de drivers Instalar o software de drivers para Linux NOTA Para instalações de rede através de NFS, FTP ou HTTP (usando um disco de inicialização de rede), pode ser necessário um disco de rede que contenha o driver qede. Os drivers de inicialização para Linux podem ser compilados modificando o makefile e o ambiente do make. Instalar os drivers para Linux sem RDMA Para instalar os drivers para Linux sem RDMA: 1. Faça download dos drivers do Adaptador QL45212 para Linux no site da Dell: dell.
3–Instalação de drivers Instalar o software de drivers para Linux Se os drivers para Linux foram instalados usando um arquivo TAR, use os seguintes comandos: rmmod qede rmmod qed depmod -a Para RHEL: cd /lib/modules//extra/qlgc-fastlinq rm -rf qed.ko qede.ko qedr.ko Para SLES: cd /lib/modules//updates/qlgc-fastlinq rm -rf qed.ko qede.ko qedr.ko Para remover os drivers para Linux em um ambiente não RDMA: 1.
3–Instalação de drivers Instalar o software de drivers para Linux depmod -a Para remover os drivers para Linux em um ambiente RDMA: 1. Para obter o caminho para os drivers instalados atualmente, use o seguinte comando: modinfo 2. Descarregue e remova os drivers para Linux. modprobe -r qedr modprobe -r qede modprobe -r qed depmod -a 3.
3–Instalação de drivers Instalar o software de drivers para Linux Para SLES: cd /usr/src/packages rpmbuild -bb SPECS/fastlinq-.spec 3. Instale o RPM recém-compilado: rpm -ivh RPMS//qlgc-fastlinq-..rpm NOTA A opção --force pode ser necessária para algumas distribuições Linux se forem observados conflitos. Os drivers serão instalados nos caminhos a seguir. Para SLES: /lib/modules//updates/qlgc-fastlinq Para RHEL: /lib/modules//extra/qlgc-fastlinq 4.
3–Instalação de drivers Instalar o software de drivers para Linux 2. Mude para o diretório criado recentemente e instale os drivers: cd fastlinq- make clean; make install Os drivers qed e qede serão instalados nos caminhos a seguir. Para SLES: /lib/modules//updates/qlgc-fastlinq Para RHEL: /lib/modules//extra/qlgc-fastlinq 3.
3–Instalação de drivers Instalar o software de drivers para Linux 7. Teste os drivers carregando-os da seguinte forma: modprobe qedr make install_libeqdr Parâmetros opcionais do driver para Linux A Tabela 3-2 descreve os parâmetros opcionais para o driver qede. Tabela 3-2. Parâmetros opcionais do driver qede Parâmetro Descrição debug Controla o nível de verbosidade do driver similar a ethtool -s msglvl. int_mode Controla o modo de interrupção diferente de MSI-X.
3–Instalação de drivers Instalar o software de drivers para Windows Tabela 3-3. Padrões de operação do driver para Linux (Continuação) Operação Padrão do driver qed Padrão do driver qede Rx Ring Size — 1.000 Tx Ring Size — 4.078 (intervalo de 128 a 8.
3–Instalação de drivers Instalar o software de drivers para Windows Executar o DUP na interface gráfica Para executar o DUP na interface gráfica: 1. Clique duas vezes no ícone que representa o arquivo do Dell Update Package. NOTA O nome de arquivo real do Dell Update Package varia. 2. Na janela Dell Update Package (Figura 3-1), clique em Install (Instalar). Figura 3-1.
3–Instalação de drivers Instalar o software de drivers para Windows 3. Na janela QLogic Super Installer—InstallShield® Wizard’s Welcome (QLogic Super Installer — Bem-vindo ao Assistente do InstallShield®) (Figura 3-2), clique em Next (Avançar). Figura 3-2. Janela QLogic InstallShield Wizard: Welcome (Assistente do InstallShield da QLogic: Bem-vindo) 4. Realize o seguinte na janela de Contrato de licença do assistente (Figura 3-3): a. Leia o Contrato de licença de software do usuário final da QLogic.
3–Instalação de drivers Instalar o software de drivers para Windows c. Clique em Next (Avançar). Figura 3-3. Janela QLogic InstallShield Wizard: License Agreement (Assistente do InstallShield da QLogic: Contrato de licença) 5. Preencha a janela Setup Type (Tipo de configuração) (Figura 3-4) do assistente da seguinte forma: a. b. Selecione um dos seguintes tipos de configuração: Clique em Complete (Completa) para instalar todos os recursos do programa.
3–Instalação de drivers Instalar o software de drivers para Windows Se você tiver clicado em Complete (Completa), vá diretamente para a Etapa 6b. Figura 3-4. Janela InstallShield Wizard: Setup Type (Assistente do InstallShield: Tipo de configuração) 6. Se você tiver selecionado Custom (Personalizada) na Etapa 5, preencha a janela Custom Setup (Configuração personalizada) (Figura 3-5) da seguinte forma: a. Selecione os recursos a serem instalados. Por padrão, todos os recursos são selecionados.
3–Instalação de drivers Instalar o software de drivers para Windows b. Clique em Next (Avançar) para continuar. Figura 3-5. Janela InstallShield Wizard: Custom Setup (Assistente do InstallShield: Configuração personalizada) 7. Na janela Ready To Install (Pronto para instalar) (Figura 3-6) do Assistente do InstallShield, clique em Install (Instalar). O Assistente do InstallShield instala os drivers do Adaptador QLogic e o Instalador do software de gerenciamento. Figura 3-6.
3–Instalação de drivers Instalar o software de drivers para Windows 8. Quando a instalação estiver concluída, aparecerá a janela InstallShield Wizard Completed (Assistente do InstallShield Concluído) (Figura 3-7). Clique em Finish (Concluir) para sair do instalador. Figura 3-7. Janela InstallShield Wizard: Completed (Assistente do InstallShield: Concluído) 9.
3–Instalação de drivers Instalar o software de drivers para Windows Figura 3-8. Janela Dell Update Package Opções de instalação do DUP Para personalizar o comportamento de instalação do DUP, use as seguintes opções de linha de comando. Para extrair apenas os componentes do driver para um diretório: /drivers= NOTA Este comando precisa da opção /s. Para instalar ou atualizar apenas os componentes do driver: /driveronly NOTA Este comando precisa da opção /s.
3–Instalação de drivers Instalar o software de drivers para Windows NOTA Este comando precisa da opção /s. Exemplos de instalação do DUP Os exemplos a seguir mostram como usar as opções de instalação. Para atualizar o sistema em modo silencioso: .exe /s Para extrair o índice de atualização para o diretório C:\mydir\: .exe /s /e=C:\mydir Para extrair os componentes do driver para o diretório C:\mydir\: .exe /s /drivers=C:\mydir Para instalar apenas componente
3–Instalação de drivers Instalar o software de drivers para Windows Figura 3-9.
3–Instalação de drivers Instalar o software de drivers para VMware Definir as opções de gerenciamento de energia Você pode definir as opções de gerenciamento de energia para que o sistema operacional desative o controlador, de modo a poupar energia, ou para que o controlador ative o computador. Se o dispositivo estiver ocupado (atendendo a uma chamada, por exemplo), o sistema operacional não o desligará.
3–Instalação de drivers Instalar o software de drivers para VMware Drivers e pacotes de drivers para VMware A Tabela 3-4 apresenta uma lista dos drivers do VMware ESXi para os protocolos. Tabela 3-4. Drivers do VMware Drivers do VMware a Descrição qedentv Driver de rede nativo qedrntv Driver nativo de descarregamento RDMA (RoCE e RoCEv2) a qedf Driver nativo de descarregamento FCoE qedil Driver preexistente de descarregamento iSCSI O driver certificado do RoCE não está incluído nesta versão.
3–Instalação de drivers Instalar o software de drivers para VMware Instale os drivers individuais usando: Os comandos de instalação do pacote ESXi padrão (consulte Instalar os drivers para VMware) Os procedimentos descritos nos arquivos Read Me dos drivers individuais Os procedimentos descritos no seguinte artigo da base de conhecimento do VMware: https://kb.vmware.com/selfservice/microsites/search.
3–Instalação de drivers Instalar o software de drivers para VMware 6. Selecione uma das seguintes opções de instalação: Opção 1: Instale o .vib diretamente em um servidor ESX usando a CLI ou o VUM (VMware Update Manager - Gerenciador de Atualização do VMware): Para instalar o arquivo .vib usando a CLI, use o seguinte comando. Lembre-se de especificar o caminho completo do arquivo .vib. # esxcli software vib install -v /tmp/qedentv-1.0.3.11-1OEM.550.0.0.1331820.x86_64.
3–Instalação de drivers Instalar o software de drivers para VMware Tabela 3-6. Parâmetros opcionais do driver para VMware (Continuação) Parâmetro num_queues Descrição Especifica o número de pares de filas de TX/RX. num_queues pode ser de 1 a 11 ou um dos valores a seguir: –1 permite que o driver determine o número ideal de pares de filas (padrão) 0 usa a fila padrão. Você pode especificar múltiplos valores delimitados por vírgulas para configurações multiporta ou multifunção.
3–Instalação de drivers Instalar o software de drivers para VMware Tabela 3-6. Parâmetros opcionais do driver para VMware (Continuação) Parâmetro Descrição vxlan_filter_en Habilita (1) ou desabilita (0) a filtragem da VXLAN de acordo com o MAC externo, o MAC interno e a rede da VXLAN (VNI), correlacionando diretamente o tráfego a uma fila específica. O padrão é vxlan_filter_en=1. Você pode especificar múltiplos valores delimitados por vírgulas para configurações multiporta ou multifunção.
3–Instalação de drivers Instalar o software de drivers para VMware Remover o driver para VMware Para remover o arquivo .
4 Atualização do firmware Este capítulo contém informações sobre como atualizar o firmware usando o Dell Update Package (DUP). O DUP de firmware é um utilitário a ser usado apenas para a atualização da memória flash. Ele não é usado para a configuração do adaptador. Você pode executar o DUP de firmware clicando duas vezes no arquivo executável. Ou você pode executar o DUP de firmware a partir da linha de comando com várias opções de linha de comando suportadas.
4–Atualização do firmware Executar o DUP clicando duas vezes A tela inicial do Dell Update Package é aberta, conforme mostrado na Figura 4-1. Clique em Install (Instalar) para continuar. Figura 4-1.
4–Atualização do firmware Executar o DUP clicando duas vezes 2. Siga as instruções mostradas na tela. Na caixa de diálogo Warning (Aviso), clique em Yes (Sim) para continuar com a instalação, como mostrado na Figura 4-2. Figura 4-2.
4–Atualização do firmware Executar o DUP clicando duas vezes O instalador indica que ele está carregando o novo firmware, conforme mostrado na Figura 4-3. Figura 4-3. Dell Update Package: Carregar novo firmware Quando a instalação estiver concluída, o instalador indica o resultado, conforme mostrado na Figura 4-4. Figura 4-4.
4–Atualização do firmware Executar o DUP a partir de uma linha de comando 3. Clique em Yes (Sim) para reinicializar o sistema. 4. Clique em Finish (Concluir) para concluir a instalação, conforme mostrado na Figura 4-5. Figura 4-5. Dell Update Package: Concluir a instalação Executar o DUP a partir de uma linha de comando A execução do DUP de firmware a partir da linha de comando, sem nenhuma opção especificada, produz o mesmo comportamento que clicar duas vezes no ícone do DUP.
4–Atualização do firmware Executar o DUP usando o arquivo .bin A Figura 4-6 mostra as opções que podem ser usadas para personalizar a instalação do Dell Update Package. Figura 4-6. Opções de linha de comando do DUP Executar o DUP usando o arquivo .bin O seguinte procedimento é suportado apenas no sistema operacional Linux. Para atualizar o DUP usando o arquivo .bin: 1. Copie o arquivo Network_Firmware_NJCX1_LN_X.Y.Z.BIN para o sistema em teste (SUT). 2.
4–Atualização do firmware Executar o DUP usando o arquivo .bin Exemplo de saída do SUT durante a atualização do DUP: ./Network_Firmware_NJCX1_LN_08.07.26.BIN Collecting inventory... Running validation... BCM57810 10 Gigabit Ethernet rev 10 (p2p1) The version of this Update Package is the same as the currently installed version. Software application name: BCM57810 10 Gigabit Ethernet rev 10 (p2p1) Package version: 08.07.26 Installed version: 08.07.
5 Configuração da pré-inicialização do adaptador Durante o processo de inicialização do host, você tem a oportunidade de pausar a inicialização e executar tarefas de gerenciamento do adaptador através do aplicativo de interface de infraestrutura humana (HII).
5–Configuração da pré-inicialização do adaptador Introdução Introdução Para iniciar o aplicativo HII: 1. Abra a janela System Setup (Configuração do sistema) da sua plataforma. Para obter informações sobre como abrir a página System Setup (Configuração do sistema), consulte o guia do usuário do seu sistema. 2. Na janela System Setup (Configuração do sistema) (Figura 5-1), selecione Device Settings (Configurações de dispositivo) e pressione ENTER. Figura 5-1. System Setup (Configuração do sistema) 3.
5–Configuração da pré-inicialização do adaptador Introdução A Main Configuration Page (Página de configuração principal) (Figura 5-3) apresenta as opções de gerenciamento do adaptador onde você pode configurar o modo de particionamento. Figura 5-3. Main Configuration Page (Página de configuração principal) 4.
5–Configuração da pré-inicialização do adaptador Introdução Figura 5-5.
5–Configuração da pré-inicialização do adaptador Mostrar as propriedades da imagem de firmware Além disso, a Main Configuration Page (Página de configuração principal) apresenta as propriedades do adaptador, conforme listado na Tabela 5-1. Tabela 5-1.
5–Configuração da pré-inicialização do adaptador Configurar os parâmetros do nível de dispositivo L2B Firmware Version é a versão do firmware de descarregamento da NIC para inicialização. Figura 5-6. Firmware Image Properties (Propriedades da imagem de firmware) Configurar os parâmetros do nível de dispositivo A configuração no nível do dispositivo compreende habilitar a virtualização de E/S de raiz única (SR-IOV) e/ou o particionamento de controladora de rede, e habilitar ou desabilitar o NPAReP.
5–Configuração da pré-inicialização do adaptador Configurar os parâmetros do nível de dispositivo Para habilitar o particionamento de controladora de rede (NPAR), a virtualização de E/S de raiz única (SR-IOV) ou ambos: 1. Na Main Configuration Page (Página de configuração principal) (Figura 5-3 na página 43), selecione Device Level Configuration (Configuração do nível do dispositivo) e clique em Finish (Concluir). 2.
5–Configuração da pré-inicialização do adaptador Configuração de parâmetros da NIC Configuração de parâmetros da NIC A configuração da NIC inclui a configuração dos seguintes parâmetros: Link Speed Modo NIC + RDMA Boot Mode FEC Mode Modo de LAN virtual PXE Virtual LAN ID Para configurar os parâmetros da NIC: 1. Na Main Configuration Page (Página de configuração principal), selecione NIC Configuration (Configuração da NIC) (Figura 5-3 na página 43) e clique em Finish (Concluir).
5–Configuração da pré-inicialização do adaptador Configuração de parâmetros da NIC 3. Para NIC + RDMA Mode (Modo NIC + RDMA), selecione Enabled (Habilitado) ou Disabled (Desabilitado) para RDMA na porta. Esta configuração aplica-se a todas as partições da porta, se estiver no modo NPAR. 4. FEC Mode (Modo FEC) é visível quando o modo de velocidade fixa de 25 Gbps é selecionado como Link Speed (Velocidade do link) na Etapa 2. Em FEC Mode (Modo FEC), selecione uma das seguintes opções.
5–Configuração da pré-inicialização do adaptador Configurando Data Center Bridging (Ponte de data center) 1. Defina NIC + RDMA Mode (Modo NIC + RDMA) como Enabled (Habilitado). 2. Clique em Back (Voltar). 3. Quando for solicitado, clique em Yes (Sim) para salvar as alterações. As alterações entrarão em vigor após a reinicialização do sistema. Para configurar o modo de inicialização da porta: 1. Para uma instalação remota UEFI PXE, selecione PXE como Boot Mode (Modo de Inicialização). 2.
5–Configuração da pré-inicialização do adaptador Configurando Data Center Bridging (Ponte de data center) 2. 3. Na página Data Center Bridging (DCB) Settings (Configurações da ponte de data center (DCB)) (Figura 5-9), selecione a opção de DCBX Protocol (Protocolo DCBX) adequada. Disabled (Desabilitado) desabilita DCBX nesta porta. CEE habilita o modo legado do protocolo Converged Enhanced Ethernet (CEE) nesta porta. IEEE habilita o protocolo IEEE DCBX nesta porta.
5–Configuração da pré-inicialização do adaptador Configurando Data Center Bridging (Ponte de data center) 5. Quando for solicitado, clique em Yes (Sim) para salvar as alterações. As alterações entrarão em vigor após a reinicialização do sistema. NOTA Quando o DCBX está habilitado, o adaptador envia periodicamente pacotes do protocolo de descoberta da camada de enlace (LLDP) com um endereço unicast dedicado que serve como o endereço MAC de origem.
5–Configuração da pré-inicialização do adaptador Configurar partições Configurar partições No adaptador, você pode configurar as faixas de largura de banda de cada partição. Para configurar as alocações de largura de banda máxima e mínima: 1. Na Main Configuration Page (Página de configuração principal), selecione NIC Partitioning Configuration (Configuração do particionamento da NIC) e pressione ENTER. 2.
5–Configuração da pré-inicialização do adaptador Configurar partições A Figura 5-11 mostra a alocação de largura de banda global para a partição 1. Figura 5-11. Alocação de largura de banda global, configuração da partição 1 3. Na página Global Bandwidth Allocation (Alocação de largura de banda global) (Figura 5-12), clique nos campos de largura de banda de transmissão mínima e máxima de cada partição para as quais você quer alocar uma largura de banda.
5–Configuração da pré-inicialização do adaptador Configurar partições Partition n Minimum TX Bandwidth (Largura de banda de transmissão mínima da partição N) é a largura de banda de transmissão mínima da partição selecionada expressa como um percentual da velocidade máxima do link da porta física. Os valores podem ser de 0 a 100.
5–Configuração da pré-inicialização do adaptador Configurar partições MAC Address (Endereço MAC) Virtual MAC Address (Endereço MAC virtual) Figura 5-13. Partition 1 Configuration (Configuração da partição 1) 3. Para configurar a segunda partição, selecione Partition 2 Configuration (Configuração da partição 2) para abrir a página de configuração da segunda partição.
6 Configuração de RoCE Este capítulo descreve a configuração do RDMA sobre Ethernet convergente (RoCE v1 e v2) no Adaptador QL45212, no comutador Ethernet e no host Windows ou Linux, incluindo: Sistemas operacionais compatíveis e OFED “Planejamento para RoCE” na página 58 “Preparar o adaptador” na página 59 “Preparar o comutador Ethernet” na página 59 “Configurar o RoCE no adaptador para Windows Server” na página 61 “Configurar o RoCE no adaptador para Linux” na página 70 “Config
6–Configuração de RoCE Planejamento para RoCE Tabela 6-1. Suporte de sistema operacional para RoCE v1, RoCE v2, iWARP e OFED (Continuação) Sistema operacional Nativo OFED 3.18-3 GA OFED-4.8-1 GA RHEL 7.3 RoCE v1, RoCE v2, iSER Não RoCE v1, RoCE v2 RHEL 7.4 RoCE v1, RoCE v2, iSER Não Não SLES 12 SP3 RoCE v1, RoCE v2, iSER Não Não CentOS 7.3 RoCE v1, RoCE v2, iSER Não RoCE v1, RoCE v2 CentOS 7.4 RoCE v1, RoCE v2, iSER Não Não Não N/A N/A VMware ESXi 6.5, 6.
6–Configuração de RoCE Preparar o adaptador O RoCE não trabalha em uma VF em um ambiente de SR-IOV. Preparar o adaptador Siga estas etapas para habilitar o DCBX e especificar a prioridade de RoCE usando o aplicativo de gerenciamento HII. Para obter informações sobre o aplicativo de HII, consulte Capítulo 5 Configuração da pré-inicialização do adaptador. Para preparar o adaptador: 1.
6–Configuração de RoCE Preparar o comutador Ethernet Para configurar o comutador Cisco: 1. Abra uma sessão do terminal de configuração da seguinte forma: Switch# config terminal switch(config)# 2. Configure o mapa de classes de qualidade de serviço (QoS) e defina a prioridade de RoCE para corresponder ao adaptador (5) da seguinte forma: switch(config)# class-map type qos class-roce switch(config)# match cos 5 3.
6–Configuração de RoCE Configurar o RoCE no adaptador para Windows Server 9. Atribua uma ID de VLAN à porta do comutador para corresponder à ID de VLAN atribuída ao adaptador (5). switch(config)# interface ethernet x/x switch(config)# switchport mode trunk switch(config)# switchport trunk allowed vlan 1,5 Configurar o comutador Ethernet Dell Z9100 Para configurar o comutador Ethernet Dell Z9100 para RoCE, consulte o procedimento no Apêndice C Configuração do comutador Dell Z9100.
6–Configuração de RoCE Configurar o RoCE no adaptador para Windows Server A Figura 6-1 mostra um exemplo de configuração de um valor de prioridade. Figura 6-1. Configurar as propriedades de RoCE 2. Usando o Windows PowerShell, verifique se o RDMA está habilitado no adaptador. O comando Get-NetAdapterRdma mostra os adaptadores que suportam RDMA — as duas portas estão habilitadas. NOTA Se for configurar RoCE sobre Hyper-V, não atribua um ID de VLAN à interface física. PS C:\Users\Administrator> Get-NetAda
6–Configuração de RoCE Configurar o RoCE no adaptador para Windows Server 3. Usando o Windows PowerShell, verifique se NetworkDirect está habilitado no sistema operacional de host. O comando Get-NetOffloadGlobalSetting mostra o NetworkDirect habilitado. PS C:\Users\Administrators> Get-NetOffloadGlobalSetting 4.
6–Configuração de RoCE Configurar o RoCE no adaptador para Windows Server Visualizar contadores RDMA Para visualizar contadores RDMA para RoCE: 1. Abra o Monitor de desempenho. 2. Abra a caixa de diálogo Add Counters (Adicionar contadores). A Figura 6-2 mostra um exemplo. Figura 6-2.
6–Configuração de RoCE Configurar o RoCE no adaptador para Windows Server 3. Selecione um dos seguintes tipos de contador: 4. Controle de Congestionamento do FastLinQ Cavium: Incrementa quando há congestionamento na rede e a ECN está ativada no comutador. Descreve pacotes marcados da ECN e pacotes de Notificação de Congestionamento (CNPs) para RoCE v2 enviados e recebidos com sucesso. Aplica-se somente a RoCE v2.
6–Configuração de RoCE Configurar o RoCE no adaptador para Windows Server A Figura 6-3 mostra exemplos da saída de monitoramento do contador. Figura 6-3. Monitor de desempenho: Contadores do Cavium FastLinQ A Tabela 6-3 fornece detalhes sobre contadores de erro. Tabela 6-3. Contadores de erro de RDMA do Cavium FastLinQ Contador de erro de RDMA Estouro da fila de conclusão (CQ) Descrição Uma fila de conclusão na qual a solicitação de trabalho de RDMA é publicada.
6–Configuração de RoCE Configurar o RoCE no adaptador para Windows Server Tabela 6-3. Contadores de erro de RDMA do Cavium FastLinQ (Continuação) Contador de erro de RDMA Descrição Aplica-se a RoCE? Solução de problemas Resposta inválida do solicitante Uma resposta inválida foi retornada pelo respondente.
6–Configuração de RoCE Configurar o RoCE no adaptador para Windows Server Tabela 6-3. Contadores de erro de RDMA do Cavium FastLinQ (Continuação) Contador de erro de RDMA Descrição Aplica-se a RoCE? Solução de problemas Solicitação inválida remota do solicitante O lado remoto recebeu uma mensagem inválida no canal. A solicitação inválida poderia ter sido uma mensagem de envio ou uma solicitação de RDMA.
6–Configuração de RoCE Configurar o RoCE no adaptador para Windows Server Tabela 6-3.
6–Configuração de RoCE Configurar o RoCE no adaptador para Linux Tabela 6-3. Contadores de erro de RDMA do Cavium FastLinQ (Continuação) Contador de erro de RDMA Solicitação inválida remota do respondente Descrição Aplica-se a RoCE? Solução de problemas Sim Indica possível comportamento incorreto pelo lado remoto.
6–Configuração de RoCE Configurar o RoCE no adaptador para Linux Configuração de RoCE para RHEL Para configurar o RoCE no adaptador, o OFED (Open Fabrics Enterprise Distribution - distribuição empresarial de malha aberta) precisa estar instalado e configurado no host RHEL. Para preparar o OFED nativo para RHEL: 1. Selecione os pacotes de suporte InfiniBand® e OFED ao instalar ou atualizar o sistema operacional. 2. Instale os seguintes RPMs da imagem ISO do RHEL: libibverbs-devel-x.x.x.x86_64.
6–Configuração de RoCE Configurar o RoCE no adaptador para Linux Para instalar o OFED nativo para Linux SLES: 1. Selecione os pacotes de suporte InfiniBand ao instalar ou atualizar o sistema operacional. 2. Instale os seguintes RPMs a partir da imagem do kit SDK do SLES correspondente: libibverbs-devel-x.x.x.x86_64.rpm (necessário para a instalação da biblioteca libqedr) perftest-x.x.x.x86_64.rpm (necessário para aplicativos de latência e largura de banda) 3.
6–Configuração de RoCE Configurar o RoCE no adaptador para Linux 3. Verifique se os dispositivos RoCE foram detectados examinando os logs dmesg. # dmesg|grep qedr [87910.988411] qedr: discovered and registered 2 RoCE funcs 4. Verifique se todos os módulos foram carregados. Por exemplo: # lsmod|grep qedr 5.
6–Configuração de RoCE Configurar o RoCE no adaptador para Linux 7. Verifique a conectividade L2 e RoCE entre todos os servidores: um servidor atua como servidor e outro atua como cliente. Verifique a conexão L2 usando um simples comando ping.
6–Configuração de RoCE Configurar o RoCE no adaptador para Linux Interfaces VLAN e valores de índice GID Se você estiver usando interfaces VLAN no servidor e no cliente, configure o mesmo ID de VLAN no comutador. Se você estiver executando tráfego através de um comutador, os aplicativos InfiniBand precisam usar o valor GID correto, o qual é baseado no ID de VLAN e no endereço IP da VLAN. O valor GID (-x 4 / -x 5) deve ser usado em todos os aplicativos perftest conforme os resultados mostrados a seguir.
6–Configuração de RoCE Configurar o RoCE no adaptador para Linux NOTA Você pode configurar o RoCE v1 e v2 usando os kernels suportados por RoCE v2. Estes kernels permitem executar tráfego RoCE na mesma sub-rede, bem como em diferentes sub-redes tais como RoCE v2, e qualquer ambiente roteável. Apenas algumas configurações são necessárias para o RoCE v2, e todas as outras configurações do adaptador e do switch são comuns para o RoCE v1 e v2.
6–Configuração de RoCE Configurar o RoCE no adaptador para Linux Opção 2 Use os scripts do pacote fonte FastLinQ. #/../fastlinq-8.x.x.x/add-ons/roce/show_gids.sh DEV PORT INDEX GID IPv4 VER DEV --- ---- ------------ ----- --- --- --- qedr0 1 0 fe80:0000:0000:0000:020e:1eff:fec4:1b20 v1 p4p1 qedr0 1 1 fe80:0000:0000:0000:020e:1eff:fec4:1b20 v2 p4p1 qedr0 1 2 0000:0000:0000:0000:0000:ffff:1e01:010a 30.1.1.
6–Configuração de RoCE Configurar o RoCE no adaptador para Linux NOTA Se você estiver executando por meio da configuração PFC de switch, use GIDs da VLAN para RoCE v1 ou V2 por meio da mesma sub-rede. Verificar o RoCE v2 por meio de sub-redes diferentes NOTA Você deve primeiro configurar as definições de rota para o switch e os servidores. No adaptador, defina a prioridade do RoCE e o modo DCBX, usando a interface de usuário do UEFI ou HII. Para verificar o RoCE v2 por meio de sub-redes diferentes. 1.
6–Configuração de RoCE Configurar o RoCE no adaptador para Linux Se você estiver usando a configuração PFC e roteamento L3, execute o tráfego RoCE v2 por meio da VLAN usando uma sub-rede diferente e use o índice RoCE v2 VLAN GID. Server# ib_send_bw -d qedr0 -F -x 5 Client# ib_send_bw -d qedr0 -F -x 5 192.168.100.3 Configurações do comutador do servidor: Figura 6-4.
6–Configuração de RoCE Configurar o RoCE no adaptador para Linux Configurações do comutador do cliente: Figura 6-5. Configurações do comutador, Cliente Configurar as definições RoCE v1 ou RoCE v2 para aplicativos RDMA_CM Para configurar o RoCE, use os seguintes scripts do pacote fonte FastLinQ: # ./show_rdma_cm_roce_ver.sh qedr0 is configured to IB/RoCE v1 qedr1 is configured to IB/RoCE v1 # ./config_rdma_cm_roce_ver.
6–Configuração de RoCE Configurar RoCE no adaptador para VMware ESX Configurações do cliente: Figura 6-7. Configuração dos aplicativos RDMA_CM: Cliente Configurar RoCE no adaptador para VMware ESX Esta seção apresenta os seguintes procedimentos e informações para a configuração do RoCE: Configurar interfaces RDMA Configurar MTU Modo RoCE e estatísticas Configurando um dispositivo RDMA paravirtual (PVRDMA) Configurar interfaces RDMA Para configurar interfaces RDMA: 1.
6–Configuração de RoCE Configurar RoCE no adaptador para VMware ESX 4. Para ver uma lista dos dispositivos RDMA, use o comando esxcli rdma device list.
6–Configuração de RoCE Configurar RoCE no adaptador para VMware ESX Configurar MTU Para modificar a MTU para a interface RoCE, altere a MTU do vSwitch correspondente.
6–Configuração de RoCE Configurar RoCE no adaptador para VMware ESX Queue pairs in RTS state: 0 Queue pairs in SQD state: 0 Queue pairs in SQE state: 0 Queue pairs in ERR state: 0 Queue pair events: 0 Completion queues allocated: 1 Completion queue events: 0 Shared receive queues allocated: 0 Shared receive queue events: 0 Protection domains allocated: 1 Memory regions allocated: 3 Address handles allocated: 0 Memory windows allocated: 0 Configurando um dispositivo RDMA paravirtual (PVRDMA) Para configura
6–Configuração de RoCE Configurar RoCE no adaptador para VMware ESX A Figura 6-8 mostra um exemplo. Figura 6-8. Configurando um novo comutador distribuído 2. 3. Configure um comutador virtual distribuído da seguinte maneira: a. No VMware vSphere Web Client, amplie o nó RoCE no painel esquerdo da janela Navigator (Navegador). b. Clique com o botão direito do mouse em RoCE-VDS e, em seguida, clique em Add and Manage Hosts (Adicionar e gerenciar hosts). c.
6–Configuração de RoCE Configurar RoCE no adaptador para VMware ESX A Figura 6-9 mostra um exemplo. Figura 6-9. Atribuir um vmknic para PVRDMA 4. Defina a regra do firewall para o PVRDMA: a. Clique com o botão direito em um host e, em seguida, clique em Settings (Configurações). b. Na página Settings (Configurações), expanda o nó System (Sistema) e, em seguida, selecione em Security Profile (Perfil de segurança). c. Clique na página Firewall Summary (Resumo do firewall), clique em Edit (Editar). d.
6–Configuração de RoCE Configurar RoCE no adaptador para VMware ESX A Figura 6-10 mostra um exemplo. Figura 6-10. Configurar a regra do firewall 5. Defina a VM para PVRDMA da seguinte maneira: a. Instale um dos seguintes SOs convidados compatíveis: RHEL 7.2 Ubuntu 14.04 (kernel versão 4.0) b. Instale o OFED-3.18. c. Compile e instale o driver e a biblioteca de convidado do PVRDMA. d. Adicione um novo adaptador de rede PVRDMA à VM da seguinte maneira: e. Edite as configurações da VM.
7 Configuração da iSER Este capítulo contém os procedimentos para a configuração das extensões iSCSI para RDMA (iSER) para Linux (RHEL e SLES) e ESXi 6.7, incluindo: Antes de começar Configurar a iSER para RHEL “Configurar a iSER para SLES 12” na página 92 “Otimizar o desempenho do Linux” na página 93 “Configurar a iSER no ESXi 6.
7–Configuração da iSER Configurar a iSER para RHEL Configurar a iSER para RHEL Para configurar a iSER para RHEL: 1. Instale o OFED nativo, conforme descrito em “Configuração de RoCE para RHEL” na página 71. A iSER não é compatível com OFEDs integrados, pois o módulo ib_isert não está disponível nas versões 3.18-2/3.18-3 GA do OFED integrado. O módulo ib_isert nativo não funciona com nenhuma versão de OFED integrado. 2.
7–Configuração da iSER Configurar a iSER para RHEL A Figura 7-1 mostra um exemplo de um ping RDMA bem-sucedido. Figura 7-1. Ping RDMA bem-sucedido 8. Você pode usar um destino TCM-LIO Linux para testar a iSER. A configuração é a mesma para qualquer destino iSCSI, exceto a necessidade de usar o comando enable_iser Boolean=true nos portais aplicáveis. As instâncias do portal são identificadas como iser na Figura 7-2. Figura 7-2. Instâncias do portal da iSER 9.
7–Configuração da iSER Configurar a iSER para RHEL b. Para alterar o modo de transporte para iSER, use o comando iscsiadm. Por exemplo: iscsiadm -m node -T iqn.2015-06.test.target1 -o update -n iface.transport_name -v iser c. Para conectar ou fazer login no destino iSER, use o comando iscsiadm: Por exemplo: iscsiadm -m node -l -p 192.168.100.99:3260 -T iqn.2015-06.test.target1 d. Confirme que o item Iface Transport está definido como iser na conexão de destino, conforme mostrado na Figura 7-3.
7–Configuração da iSER Configurar a iSER para SLES 12 e. Para verificar se há um novo dispositivo iSCSI, conforme mostrado na Figura 7-4, use o comando lsscsi. Figura 7-4. Verificar se há um novo dispositivo iSCSI Configurar a iSER para SLES 12 Como o targetcli não é nativo no SLES 12.x, você precisa executar o seguinte procedimento. Para configurar a iSER para SLES 12: 1. Para instalar o targetcli, copie e instale os seguintes RPMs da imagem ISO (localizados em x86_64 e noarch). lio-utils-4.1-14.6.
7–Configuração da iSER Otimizar o desempenho do Linux 4. Inicie o utilitário targetcli e configure os seus destinos no sistema de destino iSER. NOTE As versões do targetcli são diferentes para RHEL e SLES. Use os backstores corretos ao configurar os seus destinos: RHEL usa ramdisk SLES usa rd_mcp Otimizar o desempenho do Linux Considere os seguintes aprimoramentos de configuração de desempenho do Linux descritos nesta seção.
7–Configuração da iSER Configurar a iSER no ESXi 6.7 sysctl -w net.core.netdev_max_backlog=250000 sysctl -w net.ipv4.tcp_timestamps=0 sysctl -w net.ipv4.tcp_sack=1 sysctl -w net.ipv4.tcp_low_latency=1 sysctl -w net.ipv4.tcp_adv_win_scale=1 echo 0 > /proc/sys/vm/nr_hugepages Definir as configurações de afinidade de IRQ O exemplo a seguir define os núcleos 0, 1, 2 e 3 da CPU para a solicitação de interrupção (IRQ) XX, YY, ZZ e XYZ respectivamente.
7–Configuração da iSER Configurar a iSER no ESXi 6.
7–Configuração da iSER Configurar a iSER no ESXi 6.7 vmnic3 0000:02:00.1 ntg3 Down 0Mbps Half e0:db:55:0c:5f:97 1500 Broadcom Full 00:0e:1e:d5:f6:a2 1500 QLogic Corp. Corporation NetXtreme BCM5720 Gigabit Ethernet vmnic4 0000:42:00.0 qedentv Up 40000Mbps QLogic FastLinQ QL45xxx 10/25/40/50/100 GbE Ethernet Adapter vmnic5 0000:42:00.1 qedentv Up 40000Mbps Full 00:0e:1e:d5:f6:a3 1500 QLogic Corp.
7–Configuração da iSER Configurar a iSER no ESXi 6.7 4. Adicione o destino ao iniciador da iSER da seguinte forma: esxcli iscsi adapter target list esxcli iscsi adapter discovery sendtarget add -A vmhba65 -a 192.168.10.11 esxcli iscsi adapter target list Adapter Target Alias Discovery Method Last Error ------- ------------------------ ----- ---------------- ---------- vmhba65 iqn.2015-06.test.target1 SENDTARGETS No Error esxcli storage core adapter rescan --adapter vmhba65 5.
8 Configuração da SR-IOV A virtualização de entrada/saída de raiz única (SR-IOV) é uma especificação do PCI SIG que permite que um único dispositivo PCIe apareça como vários dispositivos PCI Express (PCIe) físicos separados. A SR-IOV permite o isolamento de recursos PCIe para desempenho, interoperabilidade e capacidade de gerenciamento. NOTA Alguns recursos de SR-IOV podem não estar totalmente habilitados na versão atual.
8–Configuração da SR-IOV Configurar a SR-IOV no Windows Figura 8-1. Configuração do sistema para SR-IOV: Dispositivos integrados 4. Na Main Configuration Page (Página de configuração principal) do adaptador selecionado, clique em Device Level Configuration (Configuração no nível do dispositivo). 5. Na Main Configuration Page - Device Level Configuration (Página de configuração principal - Configuração no nível do dispositivo) (Figura 8-2): a.
8–Configuração da SR-IOV Configurar a SR-IOV no Windows 9. Para habilitar a SR-IOV no adaptador de miniporta: a. Acesse o Gerenciador de dispositivos. b. Abra as propriedades do adaptador de miniporta e, em seguida, clique na guia Avançado. c. Na página de propriedades Avançado (Figura 8-3), em Propriedade, selecione SR-IOV e defina o valor como Habilitado. d. Clique em OK. Figura 8-3. Propriedades do adaptador, avançados: Habilitar a SR-IOV 10.
8–Configuração da SR-IOV Configurar a SR-IOV no Windows NOTA Lembre-se de habilitar a SR-IOV quando criar o vSwitch. Essa opção não está disponível após a criação do vSwitch. Figura 8-4. Gerenciador de comutador virtual: Habilitar a SR-IOV f. A caixa de mensagem Aplicar alterações de rede informa que as alterações Pendentes podem interromper a conectividade de rede. Para salvar as alterações e continuar, clique em Yes (Sim).
8–Configuração da SR-IOV Configurar a SR-IOV no Windows 11. Para obter a capacidade do comutador da máquina virtual, use o seguinte comando do Windows PowerShell: PS C:\Users\Administrator> Get-VMSwitch -Name SR-IOV_vSwitch | fl A saída do comando Get-VMSwitch contém os seguintes recursos da SR-IOV: 12. IovVirtualFunctionCount : 96 IovVirtualFunctionsInUse : 1 Para criar uma máquina virtual (VM) e exportar para ela a função virtual (VF): a. Crie uma máquina virtual. b.
8–Configuração da SR-IOV Configurar a SR-IOV no Windows Figura 8-5. Configurações para VM: Habilitar a SR-IOV 13. Instale os drivers QLogic para os adaptadores detectados na VM. Use os drivers mais recentes disponibilizados pelo fornecedor para o SO do host (não use os drivers nativos). NOTA Lembre-se de usar o mesmo pacote de drivers na VM e no sistema host. Por exemplo, use a mesma versão dos drivers qeVBD e qeND na VM do Windows e no host do Hyper-V do Windows.
8–Configuração da SR-IOV Configurar a SR-IOV no Windows Depois de instalar os drivers, o adaptador QLogic é mostrado na VM. A Figura 8-6 mostra um exemplo. Figura 8-6. Gerenciador de dispositivos: VM com adaptador QLogic 14. Para ver os detalhes da VF da SR-IOV, use o seguinte comando do Windows PowerShell: PS C:\Users\Administrator> Get-NetadapterSriovVf A Figura 8-7 mostra a saída do exemplo. Figura 8-7.
8–Configuração da SR-IOV Configurar a SR-IOV no Linux Configurar a SR-IOV no Linux Para configurar a SR-IOV no Linux: 1. Acesse o BIOS System Setup (Configuração do sistema do BIOS) e clique em System BIOS Settings (Configurações do BIOS de sistema). 2. Na página System BIOS Settings (Configurações do BIOS de sistema), clique em Integrated Devices (Dispositivos integrados). 3. Na página System Integrated Devices (Dispositivos integrados do sistema) (consulte a Figura 8-1 na página 99): 4. a.
8–Configuração da SR-IOV Configurar a SR-IOV no Linux 5. Na página Processor Settings (Configurações do processador) (Figura 8-8): a. Defina a opção Virtualization Technology (Tecnologia de virtualização) como Enabled (Habilitado). b. Clique em Back (Voltar). Figura 8-8. Configuração do sistema: Configurações do processador para SR-IOV 6. Na página System Setup (Configuração do sistema), selecione Device Settings (Configurações do dispositivo). 7.
8–Configuração da SR-IOV Configurar a SR-IOV no Linux 8. Na página Device Level Configuration (Configuração no nível do dispositivo) (Figura 8-9): a. Defina o Virtualization Mode (Modo de virtualização) como SR-IOV. b. Clique em Back (Voltar). Figura 8-9. Configuração do sistema para SR-IOV: Dispositivos integrados 9. Na Main Configuration Page (Página de configuração principal), clique em Finish (Concluir), salve as configurações e reinicialize o sistema. 10.
8–Configuração da SR-IOV Configurar a SR-IOV no Linux Figura 8-10. Editar o arquivo grub.conf para SR-IOV b. Salve o arquivo grub.conf e reinicialize o sistema. c. Para verificar se as alterações estão em vigor, use o seguinte comando: dmesg | grep -I iommu Uma saída de comando bem-sucedida da unidade de gerenciamento de memória de entrada-saída (IOMMU) deve mostrar, por exemplo: Intel-IOMMU: enabled d.
8–Configuração da SR-IOV Configurar a SR-IOV no Linux 11. Para uma porta específica, habilite uma quantidade de VFs. a. Use o seguinte comando para habilitar, por exemplo, 8 VF na instância PCI 04:00.0 (barramento 4, dispositivo 0, função 0): [root@ah-rh68 ~]# echo 8 > /sys/devices/pci0000:00/0000:00:02.0/0000:04:00.0/sriov_numvfs b. Revise a saída do comando (Figura 8-11) para confirmar que os VFs reais foram criados no barramento 4, dispositivo 2 (do parâmetro 0000:00:02.0), funções 0 a 7.
8–Configuração da SR-IOV Configurar a SR-IOV no Linux A Figura 8-12 mostra a saída do exemplo. Figura 8-12. Saída do comando para o comando ip link show 13. Atribua e verifique os endereços MAC: a. Para atribuir um endereço MAC à VF, use o seguinte comando: ip link set vf mac b. Verifique se a interface da VF está em funcionamento com o endereço MAC atribuído.
8–Configuração da SR-IOV Configurar a SR-IOV no Linux 14. Desligue a VM e anexe a VF. (Alguns sistemas operacionais suportam a conexão automática de VFs à VM.) a. Na caixa de diálogo Virtual Machine (Máquina virtual) (Figura 8-13), clique em Add Hardware (Adicionar hardware). Figura 8-13. Máquina virtual do RHEL68 b. No painel esquerdo da caixa de diálogo Add New Virtual Hardware (Adicionar novo hardware virtual) (Figura 8-14), clique em PCI Host Device (Dispositivo host PCI). c.
8–Configuração da SR-IOV Configurar a SR-IOV no VMware Figura 8-14. Adicionar novo hardware virtual 15. Ligue a VM e use o seguinte comando: check lspci -vv|grep -I ether 16. Instale os drivers para os adaptadores detectados na VM. Use os drivers mais recentes disponibilizados pelo fornecedor para o SO do host (não use os drivers nativos). A mesma versão de driver precisa ser instalada no host e na VM. 17. Conforme necessário, adicione mais VFs na VM.
8–Configuração da SR-IOV Configurar a SR-IOV no VMware 6. Em Device Level Configuration (Configuração no nível do dispositivo) (consulte a Figura 8-2 na página 99): a. Defina o Virtualization Mode (Modo de virtualização) como SR-IOV. b. Clique em Back (Voltar). 7. Clique em Finish (Concluir) na Main Configuration Page (Página de configuração principal). 8. Salve os parâmetros de configuração e reinicialize o sistema. 9.
8–Configuração da SR-IOV Configurar a SR-IOV no VMware 0000:05:03.7 Network controller: QLogic Corp. QLogic FastLinQ QL45xxx Series 10/25 GbE Controller (SR-IOV VF) [PF_0.5.0_VF_15] 0000:05:0e.0 Network controller: QLogic Corp. QLogic FastLinQ QL45xxx Series 10/25 GbE Controller (SR-IOV VF) [PF_0.5.1_VF_0] 0000:05:0e.1 Network controller: QLogic Corp. QLogic FastLinQ QL45xxx Series 10/25 GbE Controller (SR-IOV VF) [PF_0.5.1_VF_1] 0000:05:0e.2 Network controller: QLogic Corp.
8–Configuração da SR-IOV Configurar a SR-IOV no VMware d. Para salvar as alterações de configuração e fechar essa caixa de diálogo, clique em OK. Figura 8-15.
8–Configuração da SR-IOV Configurar a SR-IOV no VMware 15. Para validar as VFs por porta, use o comando esxcli da seguinte forma: [root@localhost:~] esxcli network sriovnic vf list -n vmnic6 VF ID Active PCI Address Owner World ID ----- ------ ----------- -------------- 0 true 005:02.0 60591 1 true 005:02.1 60591 2 false 005:02.2 - 3 false 005:02.3 - 4 false 005:02.4 - 5 false 005:02.5 - 6 false 005:02.6 - 7 false 005:02.7 - 8 false 005:03.0 - 9 false 005:03.
9 Windows Server 2016 Este capítulo contém as seguintes informações a respeito do Windows Server 2016: Configurando as interfaces do RoCE com Hyper-V “RoCE sobre SET” na página 123 “Configurar a QoS para RoCE” na página 125 “Configurar a VMMQ” na página 133 “Configurar a VXLAN” na página 140 “Configurar os Espaços de Armazenamento Diretos” na página 141 “Implantar e gerenciar um Nano Server” na página 148 Configurando as interfaces do RoCE com Hyper-V No Windows Server 2016, Hyp
9–Windows Server 2016 Configurando as interfaces do RoCE com Hyper-V Criar um comutador virtual Hyper-V com uma NIC virtual RDMA Siga os procedimentos descritos nesta seção para criar um comutador virtual Hyper-V e, em seguida, habilite o RDMA na VNIC do host. Para criar um comutador virtual Hyper-V com uma NIC virtual RDMA: 1. Abra o Gerenciador Hyper-V. 2. Clique em Gerenciador de comutador virtual (consulte a Figura 9-1). Figura 9-1. Habilitar o RDMA na NIC virtual do host 3.
9–Windows Server 2016 Configurando as interfaces do RoCE com Hyper-V 3. Na página Avançado (Figura 9-2): a. Em Propriedade, selecione Network Direct (RDMA). b. Em Valor, selecione Habilitado. c. Clique em OK. Figura 9-2. Propriedades do adaptador Ethernet virtual Hyper-V 4. Para habilitar o RDMA, use o seguinte comando do Windows PowerShell: PS C:\Users\Administrator> Enable-NetAdapterRdma "vEthernet (New Virtual Switch)" PS C:\Users\Administrator> Adicionar um ID da VLAN a uma NIC virtual do host
9–Windows Server 2016 Configurando as interfaces do RoCE com Hyper-V A Figura 9-3 mostra a saída do comando. Figura 9-3. Comando do Windows PowerShell: Get-VMNetworkAdapter 2. Para definir o ID da VLAN para a NIC virtual do host, use o seguinte comando do Windows PowerShelll: PS C:\Users\Administrator> Set-VMNetworkAdaptervlan -VMNetworkAdapterName "New Virtual Switch" -VlanId 5 -Access -Management05 NOTA Observe o seguinte sobre como adicionar um ID de VLAN a uma NIC virtual de host: Um ID de VLAN pr
9–Windows Server 2016 Configurando as interfaces do RoCE com Hyper-V Adicionar NICs virtuais do host (portas virtuais) Para adicionar NICs virtuais do host: 1. Para adicionar uma NIC virtual do host, use o seguinte comando: Add-VMNetworkAdapter -SwitchName "New Virtual Switch" -Name SMB - ManagementOS 2. Habilite o RDMA nas NICs virtuais do host, conforme mostrado em “Para habilitar o RDMA em uma NIC virtual do host” na página 118. 3.
9–Windows Server 2016 Configurando as interfaces do RoCE com Hyper-V c. Clique em Adicionar. Figura 9-5.
9–Windows Server 2016 RoCE sobre SET Se o tráfego de RoCE estiver em execução, os contadores aparecem conforme mostrado na Figura 9-6. Figura 9-6. O monitor de desempenho mostra o tráfego de RoCE RoCE sobre SET O SET (Switch Embedded Teaming, Agrupamento incorporado do comutador) é a solução de agrupamento de NICs alternativa da Microsoft disponível para uso em ambientes que contêm o Hyper-V e a pilha SDN (Software Defined Networking, Rede definida pelo software) no Windows Server 2016 Technical Preview.
9–Windows Server 2016 RoCE sobre SET Criar um comutador virtual Hyper-V com SET e NICs virtuais RDMA Para criar um comutador virtual Hyper-V com SET e NICs virtuais RDMA: Para criar um SET, use o seguinte comando do Windows PowerShell: PS C:\Users\Administrator> New-VMSwitch -Name SET -NetAdapterName "Ethernet 2","Ethernet 3" -EnableEmbeddedTeaming $true A Figura 9-7 mostra a saída do comando. Figura 9-7.
9–Windows Server 2016 Configurar a QoS para RoCE NOTA Observe o seguinte ao adicionar um ID de VLAN a uma NIC virtual de host: Confirme de que o ID de VLAN não está atribuído à Interface física ao usar uma NIC virtual de host para RoCE. Se você estiver criando mais de uma NIC virtual de host, uma VLAN diferente pode ser atribuída a cada NIC virtual de host. Executar o tráfego RDMA no SET Para obter informações sobre como executar o tráfego RDMA no SET, acesse: https://technet.microsoft.
9–Windows Server 2016 Configurar a QoS para RoCE 5. Habilite a QoS na miniporta da seguinte maneira: a. Abra a janela da miniporta e, em seguida, clique na guia Avançado. b. Na página Propriedades avançadas (Figura 9-9) em Propriedade, selecione Qualidade de serviço e defina o valor como Habilitado. c. Clique em OK. Figura 9-9. Propriedades avançadas: Habilitar a QoS 6. Atribua o ID da VLAN à interface da seguinte maneira: a. Abra a janela da miniporta e, em seguida, clique na guia Avançado. b.
9–Windows Server 2016 Configurar a QoS para RoCE NOTA A etapa anterior é necessária para o controle de fluxo de prioridade (PFC). Figura 9-10. Propriedades avançadas: Configurar o ID da VLAN 7. Para habilitar o controle de fluxo de prioridade para o RoCE em uma prioridade específica, use o seguinte comando: PS C:\Users\Administrators> Enable-NetQoSFlowControl -Priority 4 NOTA Se for configurar RoCE sobre Hyper-V, não atribua um ID de VLAN à interface física.
9–Windows Server 2016 Configurar a QoS para RoCE 8. Para desabilitar o controle de fluxo de prioridade para qualquer outra prioridade, use os seguintes comandos: PS C:\Users\Administrators> Disable-NetQosFlowControl 0,1,2,3,5,6,7 PS C:\Users\Administrator> Get-NetAdapterRdma Priority Enabled PolicySet IfIndex IfAlias -------- ------- --------- ------- ------- 0 False Global 1 False Global 2 False Global 3 False Global 4 True Global 5 False Global 6 False Global 7 False Glob
9–Windows Server 2016 Configurar a QoS para RoCE NetDirectPort : 445 PriorityValue : 4 10. Para configurar o ETS para todas as classes de tráfego definidas na etapa anterior, use os seguintes comandos: PS C:\Users\Administrators> New-NetQosTrafficClass -name "RDMA class" -priority 4 -bandwidthPercentage 50 -Algorithm ETS PS C:\Users\Administrators> New-NetQosTrafficClass -name "TCP class" -priority 0 -bandwidthPercentage 30 -Algorithm ETS PS C:\Users\Administrator> Get-NetQosTrafficClass Name Algori
9–Windows Server 2016 Configurar a QoS para RoCE 12. Crie um script de inicialização para tornar as configurações persistentes em todas as reinicializações do sistema. 13. Execute o tráfego RDMA e verifique se está tudo conforme descrito em “Configuração de RoCE” na página 57. Configurar a QoS habilitando o DCBX no adaptador Toda a configuração precisa ser concluída em todos os sistemas em uso. As configurações de PFC, ETS e classes de tráfego devem ser iguais no comutador e no servidor.
9–Windows Server 2016 Configurar a QoS para RoCE 5. Habilite a QoS na miniporta da seguinte maneira: a. Na página Propriedades avançadas (Figura 9-11) em Propriedade, selecione Qualidade de serviço e defina o valor como Habilitado. b. Clique em OK. Figura 9-11. Propriedades avançadas: Habilitar a QoS 6. Atribua o ID da VLAN à interface (conforme atribuído para o PFC) da seguinte maneira: a. Abra a janela da miniporta e, em seguida, clique na guia Avançado. b.
9–Windows Server 2016 Configurar a QoS para RoCE Figura 9-12. Propriedades avançadas: Configurar o ID da VLAN 7. Para configurar o comutador, use o seguinte comando do Windows PowerShell: PS C:\Users\Administrators> Get-NetAdapterQoS Name : Ethernet 5 Enabled : True Capabilities : Hardware Current -------- ------- MacSecBypass : NotSupported NotSupported DcbxSupport : CEE NumTCs(Max/ETS/PFC) : 4/4/4 OperationalTrafficClasses OperationalFlowControl : TC TSA Bandwidth Priorities -- --- -
9–Windows Server 2016 Configurar a VMMQ RemoteTrafficClasses : TC TSA Bandwidth Priorities -- --- --------- ---------- 0 ETS 5% 0-3,5-7 1 ETS 95% 4 RemoteFlowControl : Priority 4 Enabled RemoteClassifications : Protocol Port/Type Priority -------- --------- -------- NetDirect 445 4 NOTA O exemplo anterior é executado quando a porta do adaptador está conectada a um comutador Arista® 7060X. Neste exemplo, o PFC do comutador é habilitado na Prioridade 4.
9–Windows Server 2016 Configurar a VMMQ Habilitar a VMMQ no adaptador Para habilitar a VMMQ no adaptador: 1. Abra a janela da miniporta e, em seguida, clique na guia Avançado. 2. Na página Propriedades avançadas (Figura 9-13) em Propriedade, selecione Comutador virtual RSS e defina o valor como Habilitado. 3. Clique em OK. Figura 9-13.
9–Windows Server 2016 Configurar a VMMQ VMMQ Max QPs - Non-Default VPort (VPort não padrão das QPs com quantidade máxima de VMMQs) 3. Se aplicável, ajuste o Valor para a propriedade selecionada. 4. Clique em OK. Criar um comutador de máquina virtual com ou sem SR-IOV Para criar um comutador de máquina virtual com ou sem SRIOV: 1. Abra o Gerenciador Hyper-V. 2. Selecione Gerenciador de comutador virtual (consulte a Figura 9-14). 3. Na caixa Nome, digite um nome para o comutador virtual.
9–Windows Server 2016 Configurar a VMMQ 4. Em Tipo de conexão: a. Clique em Rede externa. b. Selecione a caixa de seleção Permitir que o sistema operacional de gerenciamento compartilhe este adaptador de rede. Figura 9-14. Gerenciador de comutador virtual 5. Clique em OK.
9–Windows Server 2016 Configurar a VMMQ Habilitar a VMMQ no comutador da máquina virtual Para habilitar a VMMQ no comutador da máquina virtual: Use o seguinte comando do Windows PowerShell: PS C:\Users\Administrators> Set-VMSwitch -name q1 -defaultqueuevmmqenabled $true -defaultqueuevmmqqueuepairs 4 Obter a capacidade do comutador da máquina virtual Para obter a capacidade do comutador da máquina virtual: Use o seguinte comando do Windows PowerShell: PS C:\Users\Administrator> Get-VMSwitch -Name ql
9–Windows Server 2016 Configurar a VMMQ Criar uma VM e habilitar a VMMQ em VMNetworkadapters na VM Para criar uma máquina virtual (VM) e habilitar a VMMQ nos VMNetworkadapters na VM: 1. Crie uma VM. 2. Adicione o VMNetworkadapter à VM. 3. Atribua um comutador virtual ao VMNetworkadapter. 4. Para habilitar a VMMQ na VM, use o seguinte comando do Windows PowerShell: PS C:\Users\Administrators> set-vmnetworkadapter -vmname vm1 -VMNetworkAdapterName "network adapter" -vmmqenabled $true -vmmqqueuepairs 4
9–Windows Server 2016 Configurar a VMMQ Ethernet Name ---Ethernet Ethernet Ethernet Ethernet Ethernet Ethernet Ethernet Ethernet Ethernet Ethernet Ethernet Ethernet 3 3 3 3 3 3 3 3 3 3 3 3 3 68 ID -69 70 71 72 73 74 75 76 77 78 79 80 00-15-5D-36-0A-06 MacAddress ---------00-15-5D-36-0A-07 00-15-5D-36-0A-08 00-15-5D-36-0A-09 00-15-5D-36-0A-0A 00-15-5D-36-0A-0B 00-15-5D-36-0A-F4 00-15-5D-36-0A-F5 00-15-5D-36-0A-F6 00-15-5D-36-0A-F7 00-15-5D-36-0A-F8 00-15-5D-36-0A-F9 00-15-5D-36-0A-FA VID --- 0:0 ProcM
9–Windows Server 2016 Configurar a VXLAN Monitorar as estatísticas de tráfego Para monitorar o tráfego da função virtual em uma máquina virtual, use o seguinte comando do Windows PowerShell: PS C:\Users\Administrator> Use get-netadapterstatistics | fl Configurar a VXLAN As informações de configuração da VXLAN são: Habilitar o descarregamento da VXLAN no adaptador Implantar uma rede definida por software Habilitar o descarregamento da VXLAN no adaptador Para habilitar o descarregamento da VXLAN no
9–Windows Server 2016 Configurar os Espaços de Armazenamento Diretos Implantar uma rede definida por software Para aproveitar o descarregamento de tarefa de encapsulamento VXLAN em máquinas virtuais, você precisa implantar uma rede definida por software (SDN) que utilize um Controlador de Rede da Microsoft. Para obter mais detalhes, consulte o seguinte link do Microsoft TechNet sobre redes definidas por software: https://technet.microsoft.
9–Windows Server 2016 Configurar os Espaços de Armazenamento Diretos Configurar o hardware A Figura 9-17 mostra um exemplo de configuração de hardware. Figura 9-17. Exemplo de configuração de hardware NOTA Os discos usados neste exemplo são os 4 discos SSD 400G NVMe™ e 12 discos SSD 200G. Implantar um sistema hiperconvergido Esta seção contém instruções para instalar e configurar os componentes de um sistema hiperconvergido usando o Windows Server 2016.
9–Windows Server 2016 Configurar os Espaços de Armazenamento Diretos 2. Instale as funções de servidor do Windows (Hyper-V). 3. Instale os seguintes recursos: 4. Failover Cluster Ponte de data center (DCB) Conecte os nós ao domínio e adicione as contas de domínio. Configurar a rede Para implantar os Espaços de Armazenamento Diretos, o comutador Hyper-V precisa ser implantado com as NICs virtuais de host habilitadas para RDMA.
9–Windows Server 2016 Configurar os Espaços de Armazenamento Diretos 2. Habilite a opção de qualidade de serviço da rede. NOTA A opção de qualidade de serviço da rede é usada para garantir que o sistema de armazenamento definido por software tenha largura de banda suficiente para se comunicar entre os nós, garantindo resiliência e desempenho. Para configurar a QoS no adaptador, consulte “Configurar a QoS para RoCE” na página 125. 3.
9–Windows Server 2016 Configurar os Espaços de Armazenamento Diretos NOTA Esses comandos podem estar na mesma VLAN ou em VLANs diferentes. e. Para verificar se o ID da VLAN está definido, use o seguinte comando: Get-VMNetworkAdapterVlan -ManagementOS f.
9–Windows Server 2016 Configurar os Espaços de Armazenamento Diretos Use o seguinte comando do Windows PowerShell para validar um conjunto de servidores para uso como um cluster de Espaços de Armazenamento Diretos: Test-Cluster -Node -Include "Storage Spaces Direct", Inventory, Network, "System Configuration" Etapa 2. Criar um cluster Crie um cluster com os quatro nós (que foram validados para a criação do cluster) da Etapa 1.
9–Windows Server 2016 Configurar os Espaços de Armazenamento Diretos icm (Get-Cluster -Name HCNanoUSClu3 | Get-ClusterNode) { Update-StorageProviderCache Get-StoragePool |? IsPrimordial -eq $false | Set-StoragePool -IsReadOnly:$false -ErrorAction SilentlyContinue Get-StoragePool |? IsPrimordial -eq $false | Get-VirtualDisk | Remove-VirtualDisk -Confirm:$false -ErrorAction SilentlyContinue Get-StoragePool |? IsPrimordial -eq $false | Remove-StoragePool -Confirm:$false -ErrorAction SilentlyContinue Get-Physi
9–Windows Server 2016 Implantar e gerenciar um Nano Server Etapa 6. Criar discos virtuais Se os Espaços de Armazenamento Diretos foram habilitados, um único pool será criado usando todos os discos.
9–Windows Server 2016 Implantar e gerenciar um Nano Server Tabela 9-1. Funções e recursos do Nano Server (Continuação) Função ou Recurso Opções Drivers de convidado do Hyper-V para hospedagem do Nano Server como máquina virtual -GuestDrivers Drivers básicos para uma variedade de adaptadores de rede e controladores de armazenamento. É o mesmo conjunto de drivers incluídos em uma instalação do Server Core do Windows Server 2016 Technical Preview.
9–Windows Server 2016 Implantar e gerenciar um Nano Server As próximas seções descrevem como configurar uma imagem do Nano Server com os pacotes necessários e como adicionar drivers de dispositivo adicionais específicos para os dispositivos da QLogic. Também explicam como usar o Console de Recuperação do Nano Server, como gerenciar um Nano Server remotamente e como executar o tráfego Ntttcp a partir de um Nano Server.
9–Windows Server 2016 Implantar e gerenciar um Nano Server Exemplo: New-NanoServerImage –DeploymentType Host –Edition Datacenter -MediaPath C:\tmp\TP4_iso\Bld_10586_iso -BasePath ".\Base" -TargetPath "C:\Nano\PhysicalSystem\Nano_phy_vhd.vhd" -ComputerName "Nano-server1" –Compute -Storage -Cluster -OEMDrivers -DriversPath "C:\Nano\Drivers" No exemplo anterior, C:\Nano\Drivers é o caminho para os drivers da QLogic. Esse comando leva cerca de 10 a 15 minutos para criar um arquivo VHD.
9–Windows Server 2016 Implantar e gerenciar um Nano Server 9. Para copiar o VHD para o servidor físico e configurá-lo para inicializar pelo novo VHD: a. Vá para Gerenciamento do computador > Armazenamento > Gerenciamento de disco. b. Clique com o botão direito em Gerenciamento de disco e selecione Anexar VHD. c. Forneça o caminho do arquivo VHD. d. Clique em OK. e. Execute bcdboot d:\windows. NOTA Nesse exemplo, o VHD é anexado em D:\. f.
9–Windows Server 2016 Implantar e gerenciar um Nano Server 6. Importe o script NanoServerImageGenerator usando o seguinte comando: Import-Module .\NanoServerImageGenerator.psm1 -Verbose 7. Use o seguinte comando do Windows PowerShell para criar um VHD que define um nome de computador e inclui os drivers de convidado do Hyper-V: NOTA Este comando a seguir solicitará uma senha de administrador para o novo VHD.
9–Windows Server 2016 Implantar e gerenciar um Nano Server INFO : Windows path (G:) has been assigned. INFO : System volume location: G: INFO : Applying image to VHD. This could take a while... INFO : Image was applied successfully. INFO : Making image bootable... INFO : Fixing the Device ID in the BCD store on VHD... INFO : Drive is bootable. INFO : Closing VHD... INFO : Deleting pre-existing VHD : Base.vhd... INFO : Closing Windows image... INFO : Done. Cleaning up... Done.
9–Windows Server 2016 Implantar e gerenciar um Nano Server Gerenciar um Nano Server com a comunicação remota do Windows PowerShell Para gerenciar o Nano Server com a comunicação remota do Windows PowerShell: 1. Adicione o endereço IP do Nano Server à lista de hosts confiáveis do computador de gerenciamento. NOTA Use o console de recuperação para localizar o endereço IP do servidor. 2. Adicione a conta que você está usando para os administradores do Nano Server. 3.
9–Windows Server 2016 Implantar e gerenciar um Nano Server Para obter mais detalhes sobre o Nano Server, acesse: https://technet.microsoft.com/en-us/library/mt126167.
9–Windows Server 2016 Implantar e gerenciar um Nano Server 3. Para verificar se o RDMA está habilitado no adaptador, use o seguinte comando do Windows PowerShell: [172.28.41.152]: PS C:\Users\Administrator\Documents> Get-NetAdapterRdma A Figura 9-19 mostra a saída do exemplo. Figura 9-19. Comando do Windows PowerShell: Get-NetAdapterRdma 4. Para atribuir um endereço IP e um ID da VLAN a todas as interfaces do adaptador, use os seguintes comandos do Windows PowerShell: [172.28.41.152]: PS C:\> Set-NetAd
9–Windows Server 2016 Implantar e gerenciar um Nano Server A Figura 9-21 mostra a saída do exemplo. Figura 9-21. Comando do Windows PowerShell: New-SMBShare 6. Para mapear o SMBShare como um driver de rede na máquina cliente, use o seguinte comando do Windows PowerShell: NOTA O endereço IP de uma interface no Nano Server é 192.168.10.10. PS C:\Windows\system32> net use z: \\192.168.10.10\smbshare This command completed successfully. 7.
10 Solução de problemas Este capítulo contém as seguintes informações de solução de problemas: Lista de verificação para solução de problemas “Verificar se os drivers atuais estão carregados” na página 160 “Testar a conectividade de rede” na página 161 “Microsoft Virtualization com Hyper-V” na página 162 “Problemas específicos do Linux” na página 162 “Outros problemas” na página 163 “Coletar dados de depuração” na página 163 Lista de verificação para solução de problemas CUIDADO
10–Solução de problemas Verificar se os drivers atuais estão carregados Tente inserir o adaptador em outra entrada. Se a nova posição funcionar, a entrada original no seu sistema pode estar com defeito. Substitua o adaptador com defeito por um em bom estado. Se o segundo adaptador funcionar na entrada onde o primeiro falhou, o adaptador original provavelmente apresenta defeitos. Instale o adaptador em outro sistema em funcionamento e execute os testes novamente.
10–Solução de problemas Testar a conectividade de rede bus-info: 0000:04:00.2 Se você carregou um novo driver mas ainda não realizou a reinicialização, o comando modinfo não mostrará as informações do driver atualizado. Em vez disso, use o comando dmesg a seguir para ver os logs. Neste exemplo, a última entrada identifica que o driver estará ativo após a reinicialização. # dmesg | grep -i "Cavium" | grep -i "qede" [ 10.097526] QLogic FastLinQ 4xxxx Ethernet Driver qede x.x.x.x [ 23.
10–Solução de problemas Microsoft Virtualization com Hyper-V As estatísticas de ping mostradas indicam se a conexão de rede está ou não funcionando. Teste da conectividade de rede para Linux Para verificar se a interface Ethernet está em funcionamento: 1. Para verificar o status da interface Ethernet, use o comando ifconfig. 2. Para verificar as estatísticas na interface Ethernet, use o comando netstat -i. Para verificar se a conexão foi estabelecida: 1. Envie um ping em um host IP na rede.
10–Solução de problemas Outros problemas Outros problemas Problema: O Adaptador QL45212 foi desligado e uma mensagem de erro é mostrada indicando que o ventilador no adaptador falhou. Solução: O Adaptador QL45212 pode desligar intencionalmente para evitar danos permanentes. Entre em contato com o suporte técnico da Cavium para obter assistência. Coletar dados de depuração Use as informações da Tabela 10-1 para coletar dados de depuração. Tabela 10-1.
A LEDS do adaptador A Tabela A-1 apresenta uma lista dos LEDs indicadores para o estado de conexão e de atividade da porta do adaptador. Tabela A-1.
B Cabos e módulos ópticos Este apêndice fornece as seguintes informações para os cabos e módulos ópticos suportados: Especificações suportadas “Cabos e módulos ópticos testados” na página 166 “Comutadores testados” na página 167 Especificações suportadas Os Adaptadores QL45212 oferecem suporte a diversos cabos e módulos ópticos compatíveis com SFF8024.
B–Cabos e módulos ópticos Cabos e módulos ópticos testados Cabos e módulos ópticos testados A Cavium não garante que todos os cabos ou módulos ópticos que cumprem os requisitos de conformidade funcionarão com os Adaptadores QL45212. O adaptador QL45212 é compatível com cabos DAC de 3m e AOC de 30m, mas não é compatível com módulos ópticos SR de 25G. A Cavium testou a interoperabilidade do adaptador QL45212 com os cabos listados na Tabela B-1. Tabela B-1.
B–Cabos e módulos ópticos Comutadores testados Tabela B-1. Cabos e módulos ópticos testados (Continuação) Velocidade/ Formato Fabricante 25G AOC InnoLight Número de Peça Tipo Comprimento Calibre do cabo a TF-PY003-N00 SFP28 AOC 3 N/A TF-PY020-N00 SFP28 AOC 20 N/A a O comprimento do cabo é indicado em metros. b DAC significa cabo de conexão direta. c A sigla AOC significa cabo óptico ativo.
C Configuração do comutador Dell Z9100 Os Adaptadores QL45212 oferecem suporte a conexões com o comutador Ethernet Dell Z9100. No entanto, até o processo de autonegociação ser padronizado, o comutador precisa ser configurado explicitamente para se conectar ao adaptador a 25 Gbps. Para configurar uma porta do comutador Dell Z9100 para conectá-lo ao Adaptador QL45212 a 25 Gbps: 1. Estabeleça uma conexão de porta serial entre sua estação de trabalho de gerenciamento e o comutador. 2.
C–Configuração do comutador Dell Z9100 25G Quad port mode with 25G speed Dell(conf)#stack-unit 1 port 5 portmode quad speed 25G Para obter informações sobre como alterar a velocidade do link do adaptador, consulte “Testar a conectividade de rede” na página 161. 5. Verifique se a porta está operando a 25 Gbps: Dell# Dell#show running-config | grep "port 5" stack-unit 1 port 5 portmode quad speed 25G 6. Para desativar a autonegociação na porta 5 do comutador, execute estas etapas: a.
Glossário ARI Interpretação alternativa do ID de roteamento A funcionalidade ARI da PCI-SIG fornece um mecanismo para que um único dispositivo PCIe suporte até 256 funções físicas (PFs). Os sistemas operacionais atuais permitem o uso de até 16 PFs (por dispositivo) com a ARI habilitada no BIOS de sistema e até 8 PFs (por dispositivo) quando a ARI está desabilitada.
Guia do usuário—Adaptador Ethernet Inteligente QL45212 Camada 2 Refere-se à camada de enlace de dados do modelo de comunicação multicamadas, OSI (Open Systems Interconnection, interconexão de sistemas abertos). A função da camada de enlace de dados é transferir dados através dos enlaces físicos em uma rede, onde um comutador redireciona as mensagens de dados no nível da Camada 2 usando o endereço MAC de destino para determinar o destino da mensagem. DCBX Troca de ponte de data center.
Guia do usuário—Adaptador Ethernet Inteligente QL45212 EFI driver O software que faz a interface entre o sistema de arquivos e um dispositivo de armazenamento de dados físico ou mídia de rede. interface de firmware extensível. Uma especificação que define uma interface de software entre um sistema operacional e o firmware de uma plataforma. EFI é uma interface que substitui a interface de firmware do BIOS mais antiga presente em todos os computadores pessoais compatíveis com PC IBM.
Guia do usuário—Adaptador Ethernet Inteligente QL45212 Interface avançada de configuração e energia Consulte ACPI. FCoE Canal de fibra por Ethernet. Uma nova tecnologia definida pelo corpo dos padrões T11 que permite que o tráfego de rede de armazenamento Fibre Channel tradicional passe por um link Ethernet, encapsulando quadros Fibre Channel dentro de quadros Ethernet Camada 2. Para obter mais informações, acesse www.fcoe.com. interface de firmware extensível Consulte EFI.
Guia do usuário—Adaptador Ethernet Inteligente QL45212 LSO Descarregamento de envio grande. O recurso de adaptador LSO Ethernet que permite que a pilha de rede TCP\IP crie uma mensagem TCP grande (até 64 KB) antes de enviá-la para o adaptador. O hardware do adaptador segmenta a mensagem em pacotes de dados menores (quadros) que podem ser enviados por fio: até 1.500 bytes para quadros Ethernet padrão e até 9.000 bytes para quadros Ethernet jumbo.
Guia do usuário—Adaptador Ethernet Inteligente QL45212 PCI Express (PCIe) Um padrão de E/S de terceira geração que permite o desempenho de rede Ethernet aprimorado, superior àquele de entradas mais antigas de servidor e desktop PCI estendido (PCI-X) e de interconexão de componente periférico (PCI). MTU Unidade máxima de transmissão. Refere-se ao tamanho, em bytes, do maior pacote (datagrama IP) que uma determinada camada de um protocolo de comunicação pode transferir. NIC controladora de rede.
Guia do usuário—Adaptador Ethernet Inteligente QL45212 RISC Computador com conjunto de instruções reduzido. Um microprocessador de computador que realiza um número menor de tipos de instruções de computador, operando assim em velocidades maiores. QoS Qualidade de serviço. Refere-se aos métodos usados para evitar gargalos e para assegurar a continuidade dos negócios ao transmitir dados através de portas virtuais por meio da configuração de prioridades e da alocação de largura de banda.
Guia do usuário—Adaptador Ethernet Inteligente QL45212 small computer system interface Consulte SCSI. troca de ponte de data center Consulte DCBX. SR-IOV Virtualização de entrada/saída de raiz única. Uma especificação do PCI SIG que permite que um único dispositivo PCIe apareça como vários dispositivos PCIe físicos separados. A SR-IOV permite o isolamento de recursos PCIe para desempenho, interoperabilidade e capacidade de gerenciamento. UDP Protocolo de datagramas do usuário.
Guia do usuário—Adaptador Ethernet Inteligente QL45212 VLAN Rede lógica virtual (LAN). Um grupo de hosts com um conjunto comum de requisitos que se comunicam como se estivessem conectados ao mesmo fio, independentemente da localização física. Embora uma VLAN tenha os mesmos atributos de uma LAN física, ela permite que as estações finais sejam agrupadas mesmo que não estejam localizadas no mesmo segmento LAN.
Sede corporativa Cavium, Inc. 2315 N. First Street San Jose, CA 95131 408-943-7100 Escritórios internacionais RU | Irlanda | Alemanha | França | Índia | Japão | China | Hong Kong | Cingapura | Taiwan | Israel Copyright © 2015–2018 Cavium, Inc. Todos os direitos reservados no mundo todo. A QLogic Corporation é uma subsidiária integral da Cavium, Inc. Cavium, FastLinQ, QConvergeConsole, QLogic e SmartAN são marcas registradas da Cavium, Inc.