Guia do Usuário Adaptadores de rede convergente 41xxx Series AH0054602-08 F Informações de terceiros fornecidas a você como cortesia da Dell EMC.
Guia do Usuário—Adaptadores de rede convergente 41xxx Series Histórico de revisões do documento Revisão A, 28 de abril de 2017 Revisão B, 24 de agosto de 2017 Revisão C, 1 de outubro de 2017 Revisão D, 24 de janeiro de 2018 Revisão E, 15 de março de 2018 Revisão F, 19 de abril de 2018 Alterações Seções afetadas Atualizados os exemplos de convenções de documento. “Convenções de documentação” na página xx Removidas as seções obsoletas de Acordos de licença e Garantia da QLogic.
Guia do Usuário—Adaptadores de rede convergente 41xxx Series “Descarregamento iSCSI em ambientes Linux” na página 156 Alteradas as seções principais a seguir para subseções em Descarregamento iSCSI em ambientes Linux: “Diferenças em relação ao bnx2i” na página 157 “Configuração do qedi.
Guia do Usuário—Adaptadores de rede convergente 41xxx Series “Configurar a SR-IOV no Linux” na página 198 No procedimento Para configurar a SR-IOV no Linux: Na Etapa 12, alterado o comando de ip link show/ifconfig -a para ip link show | grep -i vf -b2. Substituída a Figura 11-12 pela nova captura de tela. Na Etapa 15, alterado o comando de check lspci -vv|grep -I ether para lspci -vv|grep -i ether.
Guia do Usuário—Adaptadores de rede convergente 41xxx Series “Instalar drivers de dispositivo em ambos os servidores” na página 211 Atualizada a seção da seguinte forma: Na introdução, adicionado “Para atualizar o kernel para o kernel de upstream mais recente do Linux, acesse .” Adicionada uma nova Etapa 2 para reinstalar e carregar o driver mais recente após a atualização do kernel do sistema operacional. Na Etapa 3, alterado o comando de systemctl enable rdma para systemctl enable rdma.
Índice Prefácio Produtos suportados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Público-alvo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Conteúdo deste guia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Convenções de documentação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Avisos legais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Guia do Usuário—Adaptadores de rede convergente 41xxx Series Parâmetros opcionais do driver para Linux . . . . . . . . . . . . . . . . . . . . . Padrões de operação do driver para Linux . . . . . . . . . . . . . . . . . . . . . Mensagens de driver para Linux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Estatística . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Instalar o software de drivers para Windows . . . . . . . . . . . . . . . . . . . . . . .
Guia do Usuário—Adaptadores de rede convergente 41xxx Series Preparar o comutador Ethernet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configurar o comutador Ethernet Cisco Nexus 6000 . . . . . . . . . . . . . Configurar o comutador Ethernet Dell Z9100 . . . . . . . . . . . . . . . . . . . Configurar o RoCE no adaptador para Windows Server . . . . . . . . . . . . . . . Visualizar contadores RDMA. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Guia do Usuário—Adaptadores de rede convergente 41xxx Series Otimizar o desempenho do Linux. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configurar as CPUs para o modo de máximo desempenho . . . . . . . . Definir as configurações sysctl do Kernel . . . . . . . . . . . . . . . . . . . . . . Definir as configurações de afinidade de IRQ . . . . . . . . . . . . . . . . . . . Configurar o bloqueio da preparação do dispositivo . . . . . . . . . . . . . . Configurar a iSER no ESXi 6.7 . . . .
Guia do Usuário—Adaptadores de rede convergente 41xxx Series Descarregamento iSCSI em ambientes Linux . . . . . . . . . . . . . . . . . . . . . . . Diferenças em relação ao bnx2i . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuração do qedi.ko . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Verificar as interfaces iSCSI no Linux . . . . . . . . . . . . . . . . . . . . . . . . . Considerações sobre Open-iSCSI e Inicialização pela SAN. . . . . . . .
Guia do Usuário—Adaptadores de rede convergente 41xxx Series Configuração do servidor iniciador. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Pré-condicionamento do servidor de destino . . . . . . . . . . . . . . . . . . . . . . . . Testar os dispositivos NVMe-oF. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Otimizar o desempenho . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Afinidade de .IRQ (multi_rss-affin.sh) . . . . . . . . . . .
Guia do Usuário—Adaptadores de rede convergente 41xxx Series Implantar um sistema hiperconvergido . . . . . . . . . . . . . . . . . . . . . . . . Implantar o sistema operacional. . . . . . . . . . . . . . . . . . . . . . . . . Configurar a rede . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configurar os Espaços de Armazenamento Diretos. . . . . . . . . . Implantar e gerenciar um Nano Server . . . . . . . . . . . . . . . . . . . . . . . . . . . . Funções e recursos . . . . . . . .
Guia do Usuário—Adaptadores de rede convergente 41xxx Series Lista de figuras Figura Página 3-1 Janela Dell Update Package . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 3-2 Janela QLogic InstallShield Wizard: Welcome (Assistente do InstallShield da QLogic: Bem-vindo) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Guia do Usuário—Adaptadores de rede convergente 41xxx Series 6-2 6-3 6-4 6-5 6-6 6-7 6-8 6-9 6-10 7-1 7-2 7-3 7-4 8-1 8-2 8-3 8-4 8-5 9-1 9-2 9-3 9-4 9-5 9-6 9-7 9-8 9-9 9-10 9-11 9-12 9-13 9-14 9-15 9-16 9-17 9-18 9-19 9-20 9-21 9-22 9-23 9-24 9-25 Caixa de diálogo Add Counters (Adicionar contadores) . . . . . . . . . . . . . . . . . . . . . Monitor de desempenho: Contadores do Cavium FastLinQ . . . . . . . . . . . . . . . . . . Configurações do comutador, Servidor . . . . . . . . . . . . . . . . . . . .
Guia do Usuário—Adaptadores de rede convergente 41xxx Series 10-1 10-2 10-3 10-4 10-5 10-6 10-7 10-8 11-1 11-2 11-3 11-4 11-5 11-6 11-7 11-8 11-9 11-10 11-11 11-12 11-13 11-14 11-15 12-1 12-2 12-3 12-4 13-1 13-2 13-3 13-4 13-5 13-6 13-7 13-8 13-9 13-10 13-11 13-12 13-13 13-14 13-15 13-16 13-17 13-18 13-19 Configuração do sistema: Seleção das configurações do dispositivo . . . . . . . . . . . Configuração do sistema: Configurações do dispositivo, Seleção de porta . . . . . .
Guia do Usuário—Adaptadores de rede convergente 41xxx Series 13-20 13-21 13-22 13-23 Comando do Windows PowerShell: Get-NetAdapterRdma . . . . . . . . . . . . . . . . . . . Comando do Windows PowerShell: New-Item . . . . . . . . . . . . . . . . . . . . . . . . . . . . Comando do Windows PowerShell: New-SMBShare . . . . . . . . . . . . . . . . . . . . . . . Comando do Windows PowerShell: Get-NetAdapterStatistics . . . . . . . . . . . . . . . .
Guia do Usuário—Adaptadores de rede convergente 41xxx Series Lista de tabelas Tabela Página 2-1 Requisitos de hardware de host. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 2-2 Requisitos mínimos do sistema operacional de host . . . . . . . . . . . . . . . . . . . . . . . . 6 3-1 Drivers dos Adaptadores 41xxx Series QLogic para Linux . . . . . . . . . . . . . . . . . . . 9 3-2 Parâmetros opcionais do driver qede . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Prefácio Este prefácio apresenta uma lista dos produtos suportados, especifica o público-alvo, explica as convenções tipográficas usadas neste guia e descreve os avisos legais.
Prefácio Conteúdo deste guia Conteúdo deste guia Após o prefácio, o restante deste guia é organizado nos seguintes capítulos e apêndices: O Capítulo 1 Visão geral do produto fornece uma descrição funcional do produto, uma lista de recursos e as especificações do adaptador. O Capítulo 2 Instalação do hardware descreve como instalar o adaptador, incluindo a lista de requisitos do sistema e uma lista de verificação a ser realizada antes da instalação.
Prefácio Convenções de documentação O Apêndice A LEDS do adaptador descreve os LEDs do adaptador e seus significados. O Apêndice B Cabos e módulos ópticos apresenta os cabos e os módulos ópticos que os Adaptadores 41xxx Series suportam. O Apêndice C Configuração do comutador Dell Z9100 descreve como configurar a porta do comutador Dell Z9100 para 25 Gbps. O Apêndice D Restrições de recursos fornece informações sobre restrições de recursos implementadas na versão atual.
Prefácio Convenções de documentação Textos na fonte Courier indicam um nome de arquivo, um caminho de diretório ou um texto de linha de comando. Por exemplo: Para retornar ao diretório raiz a partir de qualquer ponto na estrutura de arquivos: Digite cd /root e pressione ENTER. Use o seguinte comando: sh ./install.bin. Os nomes de teclas e pressionamentos de teclas são indicados em LETRA MAIÚSCULA: Pressione CTRL+P. Pressione a tecla de SETA PARA CIMA.
Prefácio Avisos legais | (barra vertical) indica opções mutuamente exclusivas; selecione apenas uma opção. Por exemplo: on|off 1|2|3|4 ... (reticências) indica que o item precedente pode ser repetido. Por exemplo: x... significa uma ou mais instâncias de x. [x...] significa zero ou mais instâncias de x. As elipses verticais dentro da saída do exemplo de comando indicam onde partes de dados de saída repetitivos foram omitidas intencionalmente.
Prefácio Avisos legais Certificação por agências As seções a seguir resumem as especificações de testes de compatibilidade eletromagnética e de interferência eletromagnética executados no Adaptadores 41xxx Series para determinar a conformidade com as normas de segurança do produto, de emissão e de imunidade.
Prefácio Avisos legais KCC: Classe A Korea RRA, Certificado Classe A Nome / modelo do produto: Adaptadores de rede convergente e adaptadores Ethernet inteligentes Detentor da certificação: QLogic Corporation Data de fabricação: Consultar o código de data listado no produto Fabricante / país de origem: QLogic Corporation/EUA Equipamento de Classe A (Informações sobre uso comercial / equipamento de telecomunicações) Uma vez que este equipamento tenha sido submetido a registro de compatibilidade eletromagnét
Prefácio Avisos legais Está em conformidade com 21 CFR 1040.10 e 1040.11, 2014/30/EU, 2014/35/EU.
1 Visão geral do produto Este capítulo contém as seguintes informações a respeito dos Adaptadores 41xxx Series: Descrição Funcional Recursos “Especificações do adaptador” na página 3 Descrição Funcional Os adaptadores FastLinQ® 41000 Series Cavium abrangem os adaptadores Ethernet inteligentes e os adaptadores de rede convergente de 10 e 25 Gb, os quais são projetados para redes de dados aceleradas de sistemas de servidor.
1–Visão geral do produto Recursos 1 Recursos de desempenho: Descarregamentos de soma de verificação de TCP, IP e UDP Descarregamento de segmentação de TCP (TSO - TCP Segmentation Offload) Descarregamento de envio grande (LSO - Large Segment Offload) Descarregamento de segmento genérico (GSO - Generic Segment Offload) Descarregamento de recebimento grande (LRO - Large Receive Offload) União de segmentos de recebimento (RSC - Receive Segment Coalescing) Queue de máqu
1–Visão geral do produto Especificações do adaptador Processador RISC (Reduced Instruction Set Computer - Computador com conjunto reduzido de instruções) em um chip de alta velocidade Memória de buffer de quadro de 96 KB integrada (não aplicável a todos os modelos) 1.
1–Visão geral do produto Especificações do adaptador 802.1p (Codificação de prioridades) 1588-2002 PTPv1 (Precision Time Protocol) 1588-2008 PTPv2 IEEE 802.
2 Instalação do hardware Este capítulo contém as seguintes informações de instalação de hardware: Requisitos do sistema “Precauções de segurança” na página 6 “Lista de verificação antes da instalação” na página 6 “Instalação do adaptador” na página 7 Requisitos do sistema Antes de instalar um Adaptador 41xxx Series Cavium, verifique se o seu sistema atende aos requisitos de hardware e de sistema operacional mostrados na Tabela 2-1 e na Tabela 2-2.
2–Instalação do hardware Precauções de segurança Tabela 2-2. Requisitos mínimos do sistema operacional de host Sistema operacional Requisitos Windows Server 2012, 2012 R2, 2016 (incluindo Nano) Linux RHEL® 6.8, 6.9, 7.2, 7.3, 7.4 SLES® 11 SP4, SLES 12 SP2, SLES 12 SP3 VMware ESXi 6.0 u3 e posteriores para adaptadores 25G NOTA A Tabela 2-2 estipula os requisitos mínimos do SO de host. Para obter uma lista completa dos sistemas operacionais suportados, visite o site da Cavium.
2–Instalação do hardware Instalação do adaptador NOTA Se você tiver adquirido o software do adaptador no site da Cavium, verifique o caminho para os arquivos de driver do adaptador. 3. Se o seu sistema estiver ativo, desligue-o. 4. Depois de concluir o desligamento, desligue a alimentação e desconecte o cabo de energia. 5. Remova o adaptador da embalagem de envio e coloque-o sobre uma superfície antiestática. 6.
2–Instalação do hardware Instalação do adaptador CUIDADO Não use força excessiva ao instalar a placa, uma vez que isso pode danificar o sistema ou o adaptador. Caso tenha dificuldade para encaixar o adaptador, remova-o, realinhe e tente novamente. 6. Prenda o adaptador com o grampo ou parafuso do adaptador. 7. Feche a caixa do sistema e desconecte quaisquer dispositivos antiestáticos de proteção pessoal.
3 Instalação de drivers Este capítulo contém as seguintes informações sobre a instalação de drivers: Instalar o software de drivers para Linux “Instalar o software de drivers para Windows” na página 17 “Instalar o software de drivers para VMware” na página 29 Instalar o software de drivers para Linux Esta seção descreve como instalar drivers para Linux com ou sem acesso remoto direto à memória (RDMA).
3–Instalação de drivers Instalar o software de drivers para Linux Tabela 3-1. Drivers dos Adaptadores 41xxx Series QLogic para Linux (Continuação) Driver Linux Descrição qede Driver Ethernet para Linux do Adaptador 41xxx Series. Esse driver controla diretamente o hardware e é responsável por enviar e receber pacotes Ethernet em nome da pilha de rede de host Linux. Esse driver também recebe e processa interrupções de dispositivo em nome dele mesmo (para redes L2).
3–Instalação de drivers Instalar o software de drivers para Linux NOTA Para instalações de rede através de NFS, FTP ou HTTP (usando um disco de inicialização de rede), pode ser necessário um disco de rede que contenha o driver qede. Os drivers de inicialização para Linux podem ser compilados modificando o makefile e o ambiente do make. Instalar os drivers para Linux sem RDMA Para instalar os drivers para Linux sem RDMA: 1.
3–Instalação de drivers Instalar o software de drivers para Linux rmmod qed depmod -a Para RHEL: cd /lib/modules//extra/qlgc-fastlinq rm -rf qed.ko qede.ko qedr.ko Para SLES: cd /lib/modules//updates/qlgc-fastlinq rm -rf qed.ko qede.ko qedr.ko Para remover os drivers para Linux em um ambiente não RDMA: 1. Para obter o caminho para os drivers instalados atualmente, use o seguinte comando: modinfo 2. Descarregue e remova os drivers para Linux.
3–Instalação de drivers Instalar o software de drivers para Linux Para remover os drivers para Linux em um ambiente RDMA: 1. Para obter o caminho para os drivers instalados, use o seguinte comando: modinfo 2. Descarregue e remova os drivers para Linux. modprobe -r qedr modprobe -r qede modprobe -r qed depmod -a 3. Remova os arquivos do módulo do driver: Se os drivers foram instalados usando um pacote RPM, use o seguinte comando: rpm -e qlgc-fastlinq-kmp-default-.
3–Instalação de drivers Instalar o software de drivers para Linux 3. Instale o RPM recém-compilado: rpm -ivh RPMS//qlgc-fastlinq-..rpm NOTA A opção --force pode ser necessária para algumas distribuições Linux se forem observados conflitos. Os drivers serão instalados nos caminhos a seguir. Para SLES: /lib/modules//updates/qlgc-fastlinq Para RHEL: /lib/modules//extra/qlgc-fastlinq 4. Ative todas as interfaces ethX da seguinte maneira: ifconfig up 5.
3–Instalação de drivers Instalar o software de drivers para Linux Para SLES: /lib/modules//updates/qlgc-fastlinq Para RHEL: /lib/modules//extra/qlgc-fastlinq 3. Teste os drivers carregando-os (se necessário, primeiro descarregue os drivers existentes): rmmod qede rmmod qed modprobe qed modprobe qede Instalar os drivers para Linux com RDMA Para obter informações sobre iWARP, consulte o Capítulo 7 Configuração do iWARP. Para instalar drivers para Linux em um ambiente com OFED nativo: 1.
3–Instalação de drivers Instalar o software de drivers para Linux 7. Teste os drivers carregando-os da seguinte forma: modprobe qedr make install_libeqdr Parâmetros opcionais do driver para Linux A Tabela 3-2 descreve os parâmetros opcionais para o driver qede. Tabela 3-2. Parâmetros opcionais do driver qede Parâmetro Descrição debug Controla o nível de verbosidade do driver similar a ethtool -s msglvl. int_mode Controla o modo de interrupção diferente de MSI-X.
3–Instalação de drivers Instalar o software de drivers para Windows Tabela 3-3. Padrões de operação do driver para Linux (Continuação) Operação Padrão do driver qed Padrão do driver qede Rx Ring Size (Tamanho de toque de Rx) — 1.000 Tx Ring Size (Tamanho de toque de Tx) — 4.078 (intervalo de 128 a 8.
3–Instalação de drivers Instalar o software de drivers para Windows Instalação de drivers do Windows Instale o software de drivers para Windows usando o Dell Update Package (DUP): Executar o DUP na interface gráfica Opções de instalação do DUP Exemplos de instalação do DUP Executar o DUP na interface gráfica Para executar o DUP na interface gráfica: 1. Clique duas vezes no ícone que representa o arquivo do Dell Update Package. NOTA O nome de arquivo real do Dell Update Package varia. 2.
3–Instalação de drivers Instalar o software de drivers para Windows 3. Na janela QLogic Super Installer—InstallShield® Wizard’s Welcome (QLogic Super Installer — Bem-vindo ao Assistente do InstallShield®) (Figura 3-2), clique em Next (Avançar). Figura 3-2.
3–Instalação de drivers Instalar o software de drivers para Windows 4. Realize o seguinte na janela de Contrato de licença do assistente (Figura 3-3): a. Leia o Contrato de licença de software do usuário final da QLogic. b. Para continuar, selecione I accept the terms in the license agreement (Aceito os termos do contrato de licença). c. Clique em Next (Avançar). Figura 3-3.
3–Instalação de drivers Instalar o software de drivers para Windows 5. Preencha a janela Setup Type (Tipo de configuração) (Figura 3-4) do assistente da seguinte forma: a. b. Selecione um dos seguintes tipos de configuração: Clique em Complete (Completa) para instalar todos os recursos do programa. Clique em Custom (Personalizada) para selecionar manualmente os recursos a serem instalados. Para continuar, clique em Next (Avançar).
3–Instalação de drivers Instalar o software de drivers para Windows b. This feature, and all subfeatures, will be installed on the local hard drive (Esse recurso, e todos os sub-recursos, serão instalados no disco rígido local) — marca o recurso e todos os seus sub-recursos para instalação. This feature will not be available (Esse recurso não estará disponível) — evita que o recurso seja instalado. Clique em Next (Avançar) para continuar. Figura 3-5.
3–Instalação de drivers Instalar o software de drivers para Windows 7. Na janela Ready To Install (Pronto para instalar) (Figura 3-6) do Assistente do InstallShield, clique em Install (Instalar). O Assistente do InstallShield instala os drivers do Adaptador QLogic e o Instalador do software de gerenciamento. Figura 3-6.
3–Instalação de drivers Instalar o software de drivers para Windows 8. Quando a instalação estiver concluída, aparecerá a janela InstallShield Wizard Completed (Assistente do InstallShield Concluído) (Figura 3-7). Clique em Finish (Concluir) para sair do instalador. Figura 3-7.
3–Instalação de drivers Instalar o software de drivers para Windows 9. Na janela do Dell Update Package (Figura 3-8), “Update installer operation was successful” (A operação do instalador de atualização foi bem-sucedida) indica que a ação foi concluída. (Opcional) Para abrir o arquivo de log, clique em Exibir log de instalação. O arquivo de log mostra o andamento da instalação do DUP, todas as versões anteriores instaladas, todas as mensagens de erro e outras informações sobre a instalação.
3–Instalação de drivers Instalar o software de drivers para Windows (Avançado) Use a opção /passthrough para enviar todo o texto depois de /passthrough diretamente para o software de instalação da QLogic do DUP. Este modo suprime todas as interfaces gráficas fornecidas, mas não necessariamente as do software QLogic. /passthrough (Avançado) Para restaurar uma descrição codificada desses recursos suportados do DUP: /capabilities NOTA Este comando precisa da opção /s.
3–Instalação de drivers Instalar o software de drivers para Windows Gerenciar as propriedades do adaptador Para ver ou alterar as propriedades do Adaptador 41xxx Series: 1. No Painel de controle, clique em Gerenciador de dispositivos. 2. Nas propriedades do adaptador selecionado, clique na guia Avançado. 3. Na página Avançado (Figura 3-9), selecione um item em Propriedade e, em seguida, altere o Valor desse item conforme necessário. Figura 3-9.
3–Instalação de drivers Instalar o software de drivers para Windows Definir as opções de gerenciamento de energia Você pode definir as opções de gerenciamento de energia para que o sistema operacional desative o controlador, de modo a poupar energia, ou para que o controlador ative o computador. Se o dispositivo estiver ocupado (atendendo a uma chamada, por exemplo), o sistema operacional não o desligará.
3–Instalação de drivers Instalar o software de drivers para VMware Instalar o software de drivers para VMware Esta seção descreve o driver qedentv para VMware ESXi dos Adaptadores 41xxx Series: Drivers e pacotes de drivers para VMware Instalar os drivers para VMware Parâmetros opcionais do driver para VMware Padrões dos parâmetros do driver para VMware Remover o driver para VMware Suporte a FCoE Suporte a iSCSI Drivers e pacotes de drivers para VMware A Tabela 3-4 apresenta uma
3–Instalação de drivers Instalar o software de drivers para VMware Os drivers do ESXi são incluídos como pacotes de drivers individuais e não são agrupados, exceto como indicado. A Tabela 3-5 apresenta as versões do ESXi e as versões dos drivers aplicáveis. Tabela 3-5. Pacotes de drivers para ESXi por versão Versão do ESXi a ESXi 6.5 b ESXi 6.0u3 Protocolo Nome do driver Versão do driver NIC qedentv 3.0.7.5 FCoE qedf 1.2.24.0 iSCSI qedil 1.0.19.0 RoCE qedrntv 3.0.7.5.1 NIC qedentv 2.0.
3–Instalação de drivers Instalar o software de drivers para VMware Instalar os drivers para VMware Você pode usar o arquivo ZIP do driver para instalar um driver novo ou atualizar um driver existente. Use todo o conjunto de drivers do mesmo arquivo ZIP do driver. Você terá problemas se misturar drivers de arquivos ZIP diferentes. Para instalar o driver do VMware: 1. Faça download do driver do VMware para o Adaptador 41xxx Series pela página de suporte do VMware: www.vmware.com/support.html 2.
3–Instalação de drivers Instalar o software de drivers para VMware Para instalar o arquivo .vib usando o VUM, veja o artigo da base de conhecimento aqui: Atualizar um host ESXi/ESX usando o VMware vCenter Update Manager 4.x e 5.x (1019545) Opção 2: Instale todos os VIBs individuais ao mesmo tempo, usando o seguinte comando: # esxcli software vib install –d /tmp/qedentv-bundle-2.0.3.
3–Instalação de drivers Instalar o software de drivers para VMware Tabela 3-6. Parâmetros opcionais do driver para VMware (Continuação) Parâmetro Descrição max_vfs Especifica o número de funções virtuais (VFs) por função física (PF). max_vfs pode ser 0 (desabilitado) ou 64 VFs em uma única porta (habilitado). O suporte máximo de 64 VF para ESXi é uma restrição de alocação de recursos do SO.
3–Instalação de drivers Instalar o software de drivers para VMware Padrões dos parâmetros do driver para VMware A Tabela 3-7 mostra os valores padrão dos parâmetros do driver para VMware. Tabela 3-7. Padrões dos parâmetros do driver para VMware Parâmetro Padrão Speed (Velocidade) Autonegociação com todas as velocidades informadas. O parâmetro de velocidade deve ser igual em todas as portas. Se a autonegociação estiver habilitada no dispositivo, todas as portas do dispositivo usarão autonegociação.
3–Instalação de drivers Instalar o software de drivers para VMware Remover o driver para VMware Para remover o arquivo .vib (qedentv), use o seguinte comando: # esxcli software vib remove --vibname qedentv Para remover o driver, use o seguinte comando: # vmkload_mod -u qedentv Suporte a FCoE A Tabela 3-8 descreve o driver incluído no pacote de software do VMware para suportar os controladores de interface de rede convergente FCoE QLogic (C-NICs).
4 Atualização do firmware Este capítulo contém informações sobre como atualizar o firmware usando o Dell Update Package (DUP). O DUP de firmware é um utilitário a ser usado apenas para a atualização da memória flash. Ele não é usado para a configuração do adaptador. Você pode executar o DUP de firmware clicando duas vezes no arquivo executável. Ou você pode executar o DUP de firmware a partir da linha de comando com várias opções de linha de comando suportadas.
4–Atualização do firmware Executar o DUP clicando duas vezes Figura 4-1. Dell Update Package: Tela inicial 2. Siga as instruções mostradas na tela. Na caixa de diálogo Warning (Aviso), clique em Yes (Sim) para continuar a instalação. O instalador indica que ele está carregando o novo firmware, conforme mostrado na Figura 4-2. Figura 4-2.
4–Atualização do firmware Executar o DUP clicando duas vezes Quando a instalação estiver concluída, o instalador indica o resultado, conforme mostrado na Figura 4-3. Figura 4-3. Dell Update Package: Resultados da instalação 3. Clique em Yes (Sim) para reinicializar o sistema. 4. Clique em Finish (Concluir) para concluir a instalação, conforme mostrado na Figura 4-4. Figura 4-4.
4–Atualização do firmware Executar o DUP a partir de uma linha de comando Executar o DUP a partir de uma linha de comando A execução do DUP de firmware a partir da linha de comando, sem nenhuma opção especificada, produz o mesmo comportamento que clicar duas vezes no ícone do DUP. Note que o nome real do arquivo do DUP irá variar. Para executar o DUP de firmware a partir de uma linha de comando: Use o seguinte comando: C:\> Network_Firmware_2T12N_WN32__X16.
4–Atualização do firmware Executar o DUP usando o arquivo .bin Executar o DUP usando o arquivo .bin O seguinte procedimento é suportado apenas no sistema operacional Linux. Para atualizar o DUP usando o arquivo .bin: 1. Copie o arquivo Network_Firmware_NJCX1_LN_X.Y.Z.BIN para o sistema em teste (SUT). 2. Altere o tipo de arquivo para um arquivo executável da seguinte forma: chmod 777 Network_Firmware_NJCX1_LN_X.Y.Z.BIN 3. Para iniciar o processo de atualização, use o seguinte comando: .
4–Atualização do firmware Executar o DUP usando o arquivo .bin Device: BCM57810 10 Gigabit Ethernet rev 10 (p2p2) Application: BCM57810 10 Gigabit Ethernet rev 10 (p2p2) Update success.
5 Configuração da pré-inicialização do adaptador Durante o processo de inicialização do host, você tem a oportunidade de pausar a inicialização e executar tarefas de gerenciamento do adaptador através do aplicativo de interface de infraestrutura humana (HII).
5–Configuração da pré-inicialização do adaptador Introdução Introdução Para iniciar o aplicativo HII: 1. Abra a janela System Setup (Configuração do sistema) da sua plataforma. Para obter informações sobre como abrir a página System Setup (Configuração do sistema), consulte o guia do usuário do seu sistema. 2. Na janela System Setup (Configuração do sistema) (Figura 5-1), selecione Device Settings (Configurações de dispositivo) e pressione ENTER. Figura 5-1. System Setup (Configuração do sistema) 3.
5–Configuração da pré-inicialização do adaptador Introdução A Página de configuração principal (Figura 5-3) apresenta as opções de gerenciamento do adaptador onde você pode configurar o modo de particionamento. Figura 5-3. Main Configuration Page (Página de configuração principal) 4.
5–Configuração da pré-inicialização do adaptador Introdução Figura 5-4.
5–Configuração da pré-inicialização do adaptador Introdução Além disso, a Main Configuration Page (Página de configuração principal) apresenta as propriedades do adaptador, conforme listado na Tabela 5-1. Tabela 5-1.
5–Configuração da pré-inicialização do adaptador Mostrar as propriedades da imagem de firmware a Esta propriedade está visível somente se iSCSI Offload (Descarregamento iSCSI) estiver ativado na página NIC Partitioning Configuration (Configuração de particionamento da NIC). b Esta propriedade está visível somente se FCoE Offload (Descarregamento FCoE) estiver ativado na página NIC Partitioning Configuration (Configuração de particionamento da NIC).
5–Configuração da pré-inicialização do adaptador Configurar os parâmetros do nível de dispositivo Configurar os parâmetros do nível de dispositivo NOTA As funções físicas (FF) do iSCSI são listadas ao habilitar o recurso de descarregamento iSCSI somente no modo NPAR. O FCoE é listado ao habilitar o recurso de descarregamento FCoE somente no modo NPAR. Nem todos os modelos de adaptadores são compatíveis com descarregamento iSCSI e FCoE.
5–Configuração da pré-inicialização do adaptador Configuração de parâmetros da NIC 3. 4. Para Virtualization Mode (Modo de virtualização), selecione um dos seguintes modos para aplicar a todas as portas de adaptador: None (Nenhum) (padrão) especifica que nenhum modo de virtualização está ativado. NPAR define o adaptador para o modo de particionamento da NIC independente do comutador. SR-IOV define o adaptador para o modo SR-IOV.
5–Configuração da pré-inicialização do adaptador Configuração de parâmetros da NIC Para configurar os parâmetros da NIC: 1. Na Main Configuration Page (Página de configuração principal) selecione NIC Configuration (Configuração da NIC) (Figura 5-3 na página 44) e clique em Finish (Concluir). A Figura 5-7 mostra a página NIC Configuration (Configuração da controladora de rede). Figura 5-7. Configuração da NIC 2.
5–Configuração da pré-inicialização do adaptador Configuração de parâmetros da NIC 3. Para NIC + RDMA Mode (Modo NIC + RDMA), selecione Enabled (Habilitado) ou Disabled (Desabilitado) para RDMA na porta. Esta configuração aplica-se a todas as partições da porta, se estiver no modo NPAR. 4. FEC Mode (Modo FEC) é visível quando o modo de velocidade fixa de 25 Gbps é selecionado como Link Speed (Velocidade do link) na Etapa 2. Em FEC Mode (Modo FEC), selecione uma das seguintes opções.
5–Configuração da pré-inicialização do adaptador Configuração de parâmetros da NIC 7. 8. Disabled (Desabilitado) impede que esta porta seja usada como fonte de inicialização remota. O parâmetro Energy Efficient Ethernet (EEE) está visível somente nos adaptadores com interface RJ45 100BASE-T ou 10GBASE-T. Selecione uma das seguintes opções de EEE: Disabled (Desabilitado) desativa a EEE nesta porta.
5–Configuração da pré-inicialização do adaptador Configurando Data Center Bridging (Ponte de data center) Para configurar o modo de inicialização da porta: 1. Para uma instalação remota UEFI PXE, selecione PXE como Boot Mode (Modo de Inicialização). 2. Clique em Back (Voltar). 3. Quando for solicitado, clique em Yes (Sim) para salvar as alterações. As alterações entrarão em vigor após a reinicialização do sistema.
5–Configuração da pré-inicialização do adaptador Configurando Data Center Bridging (Ponte de data center) 3. Dynamic (Dinâmico) habilita a aplicação dinâmica do protocolo CEE ou IEEE para corresponder ao parceiro de link conectado. Na página Data Center Bridging (DCB) Settings (Configurações da ponte de data center (DCB)), digite um valor entre 0-7 em RoCE v1 Priority (Prioridade de RoCE v1).
5–Configuração da pré-inicialização do adaptador Configurar a inicialização FCoE Configurar a inicialização FCoE NOTA O menu FCoE Boot Configuration (Configuração da inicialização FCoE) fica visível somente se o FCoE Offload Mode (Modo de descarregamento FCoE) estiver ativado na segunda partição no modo NPAR (consulte a Figura 5-18 na página 65). Não está visível no modo não NPAR. Para configurar os parâmetros de configuração da inicialização FCoE: 1.
5–Configuração da pré-inicialização do adaptador Configurar a inicialização iSCSI Figura 5-10. Configuração de destino de FCoE 4. Clique em Back (Voltar). 5. Quando for solicitado, clique em Yes (Sim) para salvar as alterações. As alterações entrarão em vigor após a reinicialização do sistema.
5–Configuração da pré-inicialização do adaptador Configurar a inicialização iSCSI Para configurar os parâmetros de configuração da inicialização iSCSI: 1.
5–Configuração da pré-inicialização do adaptador Configurar a inicialização iSCSI Parâmetros do segundo destino iSCSI (Figura 5-14 na página 60) Connect (Conectar) IPv4 Address (Endereço IPv4) TCP Port (Porta TCP) Boot LUN (LUN de inicialização) iSCSI Name (Nome iSCSI) CHAP ID (ID de CHAP) CHAP Secret (Segredo de CHAP) 4. Clique em Back (Voltar). 5. Quando for solicitado, clique em Yes (Sim) para salvar as alterações. As alterações entrarão em vigor após a reinicialização do sistema.
5–Configuração da pré-inicialização do adaptador Configurar a inicialização iSCSI Figura 5-12. iSCSI Initiator Configuration Parameters (Parâmetros de configuração do iniciador iSCSI) Figura 5-13.
5–Configuração da pré-inicialização do adaptador Configurar partições Figura 5-14. iSCSI Second Target Parameters (Parâmetros do segundo destino do iSCSI) Configurar partições No adaptador, você pode configurar as faixas de largura de banda de cada partição. Para obter informações específicas para a configuração de partição no VMware ESXi 6.0/6.5, consulte Particionamento para VMware ESXi 6.0 e ESXi 6.5. Para configurar as alocações de largura de banda máxima e mínima: 1.
5–Configuração da pré-inicialização do adaptador Configurar partições Figura 5-15. Configuração de particionamento da NIC, alocação de largura de banda global 3. Na página Global Bandwidth Allocation (Alocação de largura de banda global) (Figura 5-16), clique nos campos de largura de banda de transmissão mínima e máxima de cada partição para as quais você quer alocar uma largura de banda. Existem oito partições por porta no modo duplo.
5–Configuração da pré-inicialização do adaptador Configurar partições Figura 5-16. Página Global Bandwidth Allocation (Alocação de largura de banda global) Partition n Minimum TX Bandwidth (Largura de banda de transmissão mínima da partição N) é a largura de banda de transmissão mínima da partição selecionada expressa como um percentual da velocidade máxima do link da porta física. Os valores podem ser de 0 a 100.
5–Configuração da pré-inicialização do adaptador Configurar partições Partition n Maximum TX Bandwidth (Largura de banda de transmissão máxima da partição n) é a largura de banda de transmissão máxima da partição selecionada expressa como um percentual da velocidade máxima do link da porta física. Os valores podem ser de 1 a 100. O valor da largura de banda de transmissão máxima por partição é aplicado independentemente da configuração do modo ETS do DCBX.
5–Configuração da pré-inicialização do adaptador Configurar partições 3. Para configurar a segunda partição, selecione Partition 2 Configuration (Configuração da partição 2) para abrir a página de configuração da segunda partição. Se FCoE Offload (Descarregamento FCoE) estiver presente, Partition 2 Configuration (Configuração da partição 2) (Figura 5-18) mostra os seguintes parâmetros: NIC Mode (Modo NIC) habilita ou desabilita a personalidade L2 Ethernet NIC nas Partições 2 e superiores.
5–Configuração da pré-inicialização do adaptador Configurar partições Figura 5-18. Configuração da partição 2 FCoE Offload (Descarregamento FCoE) 4. Para configurar a terceira partição, selecione Partition 3 Configuration (Configuração da partição 3) para abrir a página de configuração da terceira partição (Figura 5-17).
5–Configuração da pré-inicialização do adaptador Configurar partições 5. Para configurar as partições Ethernet restantes, incluindo a anterior (se não for habilitada para descarregamento), abra a página para uma partição 2 ou partição maior (veja a Figura 5-20). NIC Mode (Modo de NIC) (Enabled (Ativado) ou Disabled (Desativado)). Quando desativada, a partição é ocultada de forma que não aparece para o sistema operacional se menos do que a quantidade máxima de partições (ou PFs PCI) forem detectadas.
5–Configuração da pré-inicialização do adaptador Configurar partições vmnic4 qedf link-up fc.2000000e1ed6fa2a:2001000e1ed6fa2a (0000:19:00.2) QLogic Corp. QLogic FastLinQ QL41xxx Series 10/25 GbE Controller (FCoE) vmhba0 lsi_mr3 link-n/a sas.51866da071fa9100 (0000:18:00.0) Avago (LSI) PERC H330 Mini vmnic10 qedf link-up fc.2000000e1ef249f8:2001000e1ef249f8 (0000:d8:00.2) QLogic Corp. QLogic FastLinQ QL41xxx Series 10/25 GbE Controller (FCoE) vmhba1 vmw_ahci link-n/a sata.vmhba1 (0000:00:11.
6 Configuração de RoCE Este capítulo descreve a configuração do RDMA sobre Ethernet convergente (RoCE v1 e v2) no Adaptador 41xxx Series, no comutador Ethernet e no host Windows ou Linux, incluindo: Sistemas operacionais compatíveis e OFED “Planejamento para RoCE” na página 69 “Preparar o adaptador” na página 70 “Preparar o comutador Ethernet” na página 70 “Configurar o RoCE no adaptador para Windows Server” na página 72 “Configurar o RoCE no adaptador para Linux” na página 81 “C
6–Configuração de RoCE Planejamento para RoCE Tabela 6-1. Suporte de sistema operacional para RoCE v1, RoCE v2, iWARP e OFED (Continuação) Sistema operacional Nativo OFED 3.18-3 GA OFED-4.8-1 GA RHEL 7.3 RoCE v1, RoCE v2, iWARP, iSER Não RoCE v1, RoCE v2, iWARP RHEL 7.4 RoCE v1, RoCE v2, iWARP, iSER Não Não SLES 12 SP3 RoCE v1, RoCE v2, iWARP, iSER Não Não CentOS 7.3 RoCE v1, RoCE v2, iWARP, iSER Não RoCE v1, RoCE v2, iWARP CentOS 7.
6–Configuração de RoCE Preparar o adaptador O OFED e os aplicativos RDMA que dependem do libibverbs também precisam da biblioteca do espaço de usuário RDMA da QLogic, libqedr. Instale o libqedr usando o RPM libqedr ou pacotes fonte. O RoCE suporta apenas little endian. O RoCE não trabalha em uma VF em um ambiente de SR-IOV. Preparar o adaptador Siga estas etapas para habilitar o DCBX e especificar a prioridade de RoCE usando o aplicativo de gerenciamento HII.
6–Configuração de RoCE Preparar o comutador Ethernet Configurar o comutador Ethernet Cisco Nexus 6000 As etapas para a configuração do comutador Ethernet Cisco Nexus 6000 para RoCE incluem a configuração dos mapas de classes, a configuração dos mapas de políticas, a aplicação da política e a atribuição de um ID de VLAN à porta do comutador. Para configurar o comutador Cisco: 1. Abra uma sessão do terminal de configuração da seguinte forma: Switch# config terminal switch(config)# 2.
6–Configuração de RoCE Configurar o RoCE no adaptador para Windows Server switch(config)# service-policy type queuing output roce switch(config)# service-policy type queuing input roce switch(config)# service-policy type network-qos roce 9. Atribua uma ID de VLAN à porta do comutador para corresponder à ID de VLAN atribuída ao adaptador (5).
6–Configuração de RoCE Configurar o RoCE no adaptador para Windows Server Tabela 6-2. Propriedades avançadas para RoCE (Continuação) Propriedade Valor ou descrição ID de VLAN Atribua um ID de VLAN à interface. O valor precisa ser igual ao atribuído no comutador. Qualidade de serviço Habilita ou desabilita a QoS. Selecione Enabled (Habilitado) se você estiver controlando a DCB por meio do serviço Windows DCB-QoS.
6–Configuração de RoCE Configurar o RoCE no adaptador para Windows Server 2. Usando o Windows PowerShell, verifique se o RDMA está habilitado no adaptador. O comando Get-NetAdapterRdma mostra os adaptadores que suportam RDMA — as duas portas estão habilitadas. NOTA Se for configurar RoCE sobre Hyper-V, não atribua um ID de VLAN à interface física. PS C:\Users\Administrator> Get-NetAdapterRdma Name InterfaceDescription -----------------------SLOT 4 3 Port 1 QLogic FastLinQ QL41262...
6–Configuração de RoCE Configurar o RoCE no adaptador para Windows Server Visualizar contadores RDMA O procedimento a seguir também se aplica a iWARP. Para visualizar contadores RDMA para RoCE: 1. Abra o Monitor de desempenho. 2. Abra a caixa de diálogo Add Counters (Adicionar contadores). A Figura 6-2 mostra um exemplo. Figura 6-2.
6–Configuração de RoCE Configurar o RoCE no adaptador para Windows Server NOTA Se os contadores RDMA Cavium não estiverem relacionados na caixa de diálogo Add Counters (Adicionar contadores) do Monitor de Desempenho, adicione-os manualmente usando o seguinte comando a partir da localização do driver: Lodctr /M:qend.man 3. Selecione um dos seguintes tipos de contador: 4.
6–Configuração de RoCE Configurar o RoCE no adaptador para Windows Server A Figura 6-3 mostra exemplos da saída de monitoramento do contador. Figura 6-3. Monitor de desempenho: Contadores do Cavium FastLinQ A Tabela 6-3 fornece detalhes sobre contadores de erro. Tabela 6-3.
6–Configuração de RoCE Configurar o RoCE no adaptador para Windows Server Tabela 6-3.
6–Configuração de RoCE Configurar o RoCE no adaptador para Windows Server Tabela 6-3. Contadores de erro de RDMA do Cavium FastLinQ (Continuação) Contador de erro de RDMA Descrição Aplicase a RoCE? Aplicase a iWARP? Solução de problemas Solicitação inválida remota do solicitante O lado remoto recebeu uma mensagem inválida no canal. A solicitação inválida poderia ter sido uma mensagem de envio ou uma solicitação de RDMA.
6–Configuração de RoCE Configurar o RoCE no adaptador para Windows Server Tabela 6-3.
6–Configuração de RoCE Configurar o RoCE no adaptador para Linux Tabela 6-3. Contadores de erro de RDMA do Cavium FastLinQ (Continuação) Contador de erro de RDMA Solicitação inválida remota do respondente Descrição O respondente detectou uma mensagem de entrada inválida no canal. Aplicase a RoCE? Aplicase a iWARP? Sim Sim Solução de problemas Indica possível comportamento incorreto pelo lado remoto.
6–Configuração de RoCE Configurar o RoCE no adaptador para Linux Configuração de RoCE para RHEL Para configurar o RoCE no adaptador, o OFED (Open Fabrics Enterprise Distribution - distribuição empresarial de malha aberta) precisa estar instalado e configurado no host RHEL. Para preparar o OFED nativo para RHEL: 1. Selecione os pacotes de suporte InfiniBand e OFED ao instalar ou atualizar o sistema operacional. 2. Instale os seguintes RPMs da imagem ISO do RHEL: libibverbs-devel-x.x.x.x86_64.
6–Configuração de RoCE Configurar o RoCE no adaptador para Linux perftest-x.x.x.x86_64.rpm (necessário para aplicativos de latência e largura de banda) 3. Instale os drivers para Linux, conforme descrito em “Instalar os drivers para Linux com RDMA” na página 15. Verificar a configuração do RoCE no Linux Depois de instalar o OFED, instalar o driver para Linux e carregar os drivers RoCE, verifique se os dispositivos RoCE foram detectados em todos os sistemas operacionais Linux.
6–Configuração de RoCE Configurar o RoCE no adaptador para Linux ib_core 5. 88311 16 qedr, rdma_cm, ib_cm, ib_sa,iw_cm,xprtrdma,ib_mad,ib_srp, ib_ucm,ib_iser,ib_srpt,ib_umad, ib_uverbs,rdma_ucm,ib_ipoib,ib_isert Configure o endereço IP e habilite a porta usando um método de configuração, como ifconfig: # ifconfig ethX 192.168.10.10/24 up 6. Use o comando ibv_devinfo.
6–Configuração de RoCE Configurar o RoCE no adaptador para Linux Os exemplos a seguir mostram testes de ping-pong bem-sucedidos no servidor e no cliente. Ping no servidor: root@captain:~# ibv_rc_pingpong -d qedr0 -g 0 local address: LID 0x0000, QPN 0xff0000, PSN 0xb3e07e, GID fe80::20e:1eff:fe50:c7c0 remote address: LID 0x0000, QPN 0xff0000, PSN 0x934d28, GID fe80::20e:1eff:fe50:c570 8192000 bytes in 0.05 seconds = 1436.97 Mbit/sec 1000 iters in 0.05 seconds = 45.
6–Configuração de RoCE Configurar o RoCE no adaptador para Linux NOTA O valor GID padrão é zero (0) para configurações ponta a ponta ou Pausa. Para as configurações de servidor/comutador, você precisa identificar o valor GID correto. Se você estiver usando um comutador, consulte os documentos de configuração do comutador correspondente para obter as configurações adequadas. Configuração de RoCE v2 para Linux Para verificar a funcionalidade de RoCE v2, você precisa usar os kernels suportados por RoCE v2.
6–Configuração de RoCE Configurar o RoCE no adaptador para Linux GID[ 4]: 3ffe:ffff:0000:0f21:0000:0000:0000:0004 GID[ 5]: 3ffe:ffff:0000:0f21:0000:0000:0000:0004 GID[ 6]: 0000:0000:0000:0000:0000:ffff:c0a8:6403 GID[ 7]: 0000:0000:0000:0000:0000:ffff:c0a8:6403 Verificar o endereço e índice RoCE v1 ou RoCE v2 GID dos parâmetros de classe e sys Use uma das opções a seguir para verificar o endereço e o índice RoCE v1 ou v2 GID dos parâmetros de classe e sys: Opção 1: # cat /sys/class/infiniband
6–Configuração de RoCE Configurar o RoCE no adaptador para Linux NOTA Você deve especificar os valores de índice de GID para RoCE v1 ou v2 baseado na configuração de servidor ou comutador (Pausa/PFC). Use o índice GID para o endereço IPv6 local do link, o endereço IPv4 ou o endereço IPv6. Para usar os quadros rotulados VLAN para tráfego RoCE, você deve especificar os valores de índice de GID que são derivados dos endereços VLAN IPv4 ou IPv6.
6–Configuração de RoCE Configurar o RoCE no adaptador para Linux Para verificar o RoCE v2 por meio de sub-redes diferentes. 1. Defina a configuração de roteamento para o servidor e o cliente, usando a configuração DCBX-PFC. Configurações do sistema: IP da VLAN do servidor : 192.168.100.3 e Gateway :192.168.100.1 IP da VLAN do cliente : 192.168.101.3 e Gateway :192.168.101.1 Configuração do servidor: #/sbin/ip link add link p4p1 name p4p1.100 type vlan id 100 #ifconfig p4p1.100 192.168.100.
6–Configuração de RoCE Configurar o RoCE no adaptador para Linux Configurações do comutador do servidor: Figura 6-4. Configurações do comutador, Servidor Configurações do comutador do cliente: Figura 6-5.
6–Configuração de RoCE Configurar o RoCE no adaptador para Linux Configurar as definições RoCE v1 ou RoCE v2 para aplicativos RDMA_CM Para configurar o RoCE, use os seguintes scripts do pacote fonte FastLinQ: # ./show_rdma_cm_roce_ver.sh qedr0 is configured to IB/RoCE v1 qedr1 is configured to IB/RoCE v1 # ./config_rdma_cm_roce_ver.sh v2 configured rdma_cm for qedr0 to RoCE v2 configured rdma_cm for qedr1 to RoCE v2 Configurações do servidor: Figura 6-6.
6–Configuração de RoCE Configurar RoCE no adaptador para VMware ESX Configurar RoCE no adaptador para VMware ESX Esta seção apresenta os seguintes procedimentos e informações para a configuração do RoCE: Configurar interfaces RDMA Configurar MTU Modo RoCE e estatísticas Configurando um dispositivo RDMA paravirtual (PVRDMA) Configurar interfaces RDMA Para configurar interfaces RDMA: 1. Instale os drivers de NIC e RoCE do QLogic. 2.
6–Configuração de RoCE Configurar RoCE no adaptador para VMware ESX Isso cria um novo comutador virtual chamado roce_vs. 6. Para associar a porta QLogic NIC ao vSwitch, use o seguinte comando: # esxcli network vswitch standard uplink add -u -v Por exemplo: # esxcli network vswitch standard uplink add -u vmnic0 -v roce_vs 7.
6–Configuração de RoCE Configurar RoCE no adaptador para VMware ESX Modo RoCE e estatísticas Para o modo RoCE, o ESXi requer suporte simultâneo de RoCE v1 e v2. A decisão sobre o modo RoCE a ser usado é feita durante a criação do par de filas. O driver ESXi informa os dois modos durante o registro e a inicialização.
6–Configuração de RoCE Configurar RoCE no adaptador para VMware ESX Configurando um dispositivo RDMA paravirtual (PVRDMA) Para configurar o PVRDMA usando uma interface do vCenter: 1. Crie e configure um novo comutador virtual distribuído da seguinte maneira: a. No VMware vSphere Web Client, clique com o botão direito do mouse no nó RoCE no painel esquerdo da janela Navigator (Navegador). b.
6–Configuração de RoCE Configurar RoCE no adaptador para VMware ESX c. 3. Em Add and Manage Hosts (Adicionar e gerenciar hosts), configure o seguinte: Assign uplinks (Atribuir uplinks). Selecione na lista de uplinks disponíveis. Manage VMkernel network adapters (Gerenciar adaptadores de rede VMkernel). Aceite o padrão e clique em Next (Avançar). Migrate VM networking (Migrar a rede da VM). Atribua o grupo de portas criado na Etapa 1. Atribua um vmknic a PVRDMA para usar em hosts ESX: a.
6–Configuração de RoCE Configurar RoCE no adaptador para VMware ESX 4. Defina a regra do firewall para o PVRDMA: a. Clique com o botão direito em um host e, em seguida, clique em Settings (Configurações). b. Na página Settings (Configurações), expanda o nó System (Sistema) e, em seguida, selecione em Security Profile (Perfil de segurança). c. Clique na página Firewall Summary (Resumo do firewall), clique em Edit (Editar). d.
6–Configuração de RoCE Configurar RoCE no adaptador para VMware ESX e. Selecione o grupo de portas DVS recém-adicionado como Network (Rede). Selecione PVRDMA como tipo de adaptador. Após a inicialização da VM, certifique-se de que o driver de convidado do PVRDMA seja carregado.
7 Configuração do iWARP O protocolo iWARP (Internet Wide Area RDMA Protocol) é um protocolo de rede de computadores que implementa o RDMA para obter uma transferência de dados eficiente sobre redes IP. O iWARP foi projetado para vários ambientes, incluindo LANs, redes de armazenamento, redes de data center e WANs.
7–Configuração do iWARP Configurar o iWARP no Windows b. Defina RDMA Protocol Support (Suporte ao protocolo RDMA) como iWARP. c. Clique em Back (Voltar). 5. Clique em Finish (Concluir) na página Main Configuration (Configuração principal). 6. Na caixa de mensagem Warning - Saving Changes (Aviso - Salvando alterações), clique em Yes (Sim) para salvar a configuração. 7. Na caixa de mensagem Success - Saving Changes (Sucesso - Salvando alterações), clique em OK. 8.
7–Configuração do iWARP Configurar o iWARP no Windows 2. Usando o Windows PowerShell, verifique se o RDMA está habilitado. A saída do comando Get-NetAdapterRdma (Figura 7-1) mostra os adaptadores compatíveis com RDMA. Figura 7-1. Comando do Windows PowerShell: Get-NetAdapterRdma 3. Usando o Windows PowerShell, verifique se o NetworkDirect está habilitado. A saída do comando Get-NetOffloadGlobalSetting (Figura 7-2) mostra o NetworkDirect como Enabled (Habilitado). Figura 7-2.
7–Configuração do iWARP Configurar o iWARP no Windows Figura 7-3. Perfmon: Adicionar contadores Se o tráfego de iWARP estiver em execução, os contadores aparecem conforme mostrado no exemplo da Figura 7-4. Figura 7-4.
7–Configuração do iWARP Configurar o iWARP no Linux NOTA Para obter informações sobre como visualizar os contadores RDMA Cavium no Windows, consulte “Visualizar contadores RDMA” na página 75. 4. Para verificar a conexão SMB: a. Em um prompt de comando, use o comando net use da seguinte forma: C:\Users\Administrator> net use New connections will be remembered. Status Local Remote Network --------------------------------------------------------OK F: \\192.168.10.10\Share1 Microsoft Windows Network
7–Configuração do iWARP Configurar o iWARP no Linux Detectar o dispositivo Aplicativos iWARP suportados Executar o Perftest para iWARP Configurar um sistema NFS-RDMA Suporte a núcleo RDMA iWARP no SLES 12 SP3, RHEL 7.4 e OFED 4.8x Instalar o driver Instale os drivers do RDMA, conforme mostrado em Capítulo 3 Instalação de drivers.
7–Configuração do iWARP Configurar o iWARP no Linux 3. Carregue o driver do RDM usando o comando abaixo: #modprobe -v qedr O exemplo a seguir mostra as entradas do comando para alterar o protocolo RDMA para iWARP em várias interfaces NPAR: # modprobe qed rdma_protocol_map=04:00.1-3,04:00.3-3,04:00.5-3, 04:00.7-3,04:01.1-3,04:01.3-3,04:01.5-3,04:01.
7–Configuração do iWARP Configurar o iWARP no Linux phys_port_cnt: 1 port: 1 state: PORT_ACTIVE (4) max_mtu: 4096 (5) active_mtu: 1024 (3) sm_lid: 0 port_lid: 0 port_lmc: 0x00 link_layer: Ethernet Aplicativos iWARP suportados Os aplicativos RDMA suportados no Linux para iWARP são os seguintes: ibv_devinfo, ib_devices ib_send_bw/lat, ib_write_bw/lat, ib_read_bw/lat, ib_atomic_bw/lat Para iWARP, todos os aplicativos precisam usar o gerenciador de comunicações de RDMA (rdma_cm) com a o
7–Configuração do iWARP Configurar o iWARP no Linux Send BW Test Dual-port : OFF Device Number of qps : 1 Transport type : IW Connection type : RC Using SRQ TX depth : 128 CQ Moderation : 100 Mtu : 1024[B] Link type : Ethernet GID index : 0 : qedr1 : OFF Max inline data : 0[B] rdma_cm QPs : ON Data ex.
7–Configuração do iWARP Configurar o iWARP no Linux 2. Carregue o módulo svcrdma da seguinte forma: # modprobe svcrdma 3. Inicie o serviço NFS sem erros: # service nfs start 4. Inclua a porta RDMA padrão 20049 neste arquivo da seguinte maneira: # echo rdma 20049 > /proc/fs/nfsd/portlist 5.
7–Configuração do iWARP Configurar o iWARP no Linux Suporte a núcleo RDMA iWARP no SLES 12 SP3, RHEL 7.4 e OFED 4.8x A biblioteca de espaço do usuário libqedr é parte do núcleo rdma. Contudo, a libqedr integrada não é compatível com SLES 12 SP3, RHEL 7.4, OFED 4.8x. Portanto, essas versões do sistema operacional exigem um patch para suportar núcleo RDMA iWARP. Para aplicar o patch do núcleo RDMA iWARP: 1.
7–Configuração do iWARP Configurar o iWARP no Linux ping data: rdma-ping-2: CDEFGHIJKLMNOPQRSTUVWXYZ[\]^_`abcdefghijklmnopqrst ping data: rdma-ping-3: DEFGHIJKLMNOPQRSTUVWXYZ[\]^_`abcdefghijklmnopqrstu ping data: rdma-ping-4: EFGHIJKLMNOPQRSTUVWXYZ[\]^_`abcdefghijklmnopqrstuv client DISCONNECT EVENT... 5.
8 Configuração da iSER Este capítulo contém os procedimentos para a configuração das extensões iSCSI para RDMA (iSER) para Linux (RHEL e SLES) e ESXi 6.7, incluindo: Antes de começar “Configurar a iSER para RHEL” na página 112 “Configurar a iSER para SLES 12” na página 115 “Usar iSER com iWARP no RHEL e SLES” na página 116 “Otimizar o desempenho do Linux” na página 118 “Configurar a iSER no ESXi 6.
8–Configuração da iSER Configurar a iSER para RHEL Configurar a iSER para RHEL Para configurar a iSER para RHEL: 1. Instale o OFED nativo, conforme descrito em “Configuração de RoCE para RHEL” na página 82. A iSER não é compatível com OFEDs integrados, pois o módulo ib_isert não está disponível nas versões 3.18-2/3.18-3 GA do OFED integrado. O módulo ib_isert nativo não funciona com nenhuma versão de OFED integrado. 2.
8–Configuração da iSER Configurar a iSER para RHEL Figura 8-1. Ping RDMA bem-sucedido 8. Você pode usar um destino TCM-LIO Linux para testar a iSER. A configuração é a mesma para qualquer destino iSCSI, exceto a necessidade de usar o comando enable_iser Boolean=true nos portais aplicáveis. As instâncias do portal são identificadas como iser na Figura 8-2. Figura 8-2. Instâncias do portal da iSER 9. Instale os utilitários do iniciador iSCSI para Linux usando os comandos yum install iscsi-initiator-utils.
8–Configuração da iSER Configurar a iSER para RHEL iscsiadm -m node -T iqn.2015-06.test.target1 -o update -n iface.transport_name -v iser c. Para conectar ou fazer login no destino iSER, use o comando switchshow: Por exemplo: iscsiadm -m node -l -p 192.168.100.99:3260 -T iqn.2015-06.test.target1 d. Confirme que o item Iface Transport está definido como iser na conexão de destino, conforme mostrado na Figura 8-3. Use o comando iscsiadm; por exemplo: iscsiadm -m session -P2 Figura 8-3.
8–Configuração da iSER Configurar a iSER para SLES 12 Figura 8-4. Verificar se há um novo dispositivo iSCSI Configurar a iSER para SLES 12 Como o targetcli não é nativo no SLES 12.x, você precisa executar o seguinte procedimento. Para configurar a iSER para SLES 12: 1. Para instalar o targetcli, copie e instale os seguintes RPMs da imagem ISO (localizados em x86_64 e noarch). lio-utils-4.1-14.6.x86_64.rpm python-configobj-4.7.2-18.10.noarch.rpm python-PrettyTable-0.7.2-8.5.noarch.
8–Configuração da iSER Usar iSER com iWARP no RHEL e SLES NOTA As versões do targetcli são diferentes para RHEL e SLES. Use os backstores corretos ao configurar os seus destinos: RHEL usa ramdisk SLES usa rd_mcp Usar iSER com iWARP no RHEL e SLES Configure o iniciador e o destino iSER de maneira semelhante ao RoCE para trabalhar com iWARP. Você pode usar diferentes métodos para criar um destino Linux-IO (LIO™); um desses métodos é apresentado nesta seção.
8–Configuração da iSER Usar iSER com iWARP no RHEL e SLES Figura 8-5. Configuração de destino LIO Para configurar um iniciador para iWARP: 1. Para descobrir o destino iSER LIO usando a porta 3261, use o comando iscsiadm da seguinte forma: # iscsiadm -m discovery -t st -p 192.168.21.4:3261 -I iser 192.168.21.4:3261,1 iqn.2017-04.com.org.iserport1.target1 2. Altere o modo de transporte para iser da seguinte forma: # iscsiadm -m node -o update -T iqn.2017-04.com.org.iserport1.target1 -n iface.
8–Configuração da iSER Otimizar o desempenho do Linux Otimizar o desempenho do Linux Considere os seguintes aprimoramentos de configuração de desempenho do Linux descritos nesta seção.
8–Configuração da iSER Configurar a iSER no ESXi 6.7 Definir as configurações de afinidade de IRQ O exemplo a seguir define os núcleos 0, 1, 2 e 3 da CPU para a solicitação de interrupção (IRQ) XX, YY, ZZ e XYZ respectivamente. Execute essas etapas para cada IRQ atribuído a uma porta (o padrão é oito filas por porta).
8–Configuração da iSER Configurar a iSER no ESXi 6.7 vmk0 Management Network 255.255.240.0 172.28.15.255 IPv4 e0:db:55:0c:5f:94 1500 172.28.12.94 65535 true DHCP defaultTcpipStack vmk0 Management Network 64 IPv6 e0:db:55:0c:5f:94 1500 fe80::e2db:55ff:fe0c:5f94 65535 true STATIC, PREFERRED defaultTcpipStack O destino da iSER está configurado para se comunicar com o iniciador da iSER. Configurar a iSER para ESXi 6.7 Para configurar a iSER para ESXi 6.7: 1.
8–Configuração da iSER Configurar a iSER no ESXi 6.7 esxcli network ip interface add -i vmk1 -p "rdma_group1" esxcli network ip interface ipv4 set -i vmk1 -I 192.168.10.100 -N 255.255.255.0 -t static esxcfg-vswitch -p "rdma_group1" -v 4095 vSwitch_iser1 esxcli iscsi networkportal add -n vmk1 -A vmhba65 esxcli iscsi networkportal list esxcli iscsi adapter get -A vmhba65 vmhba65 Name: iqn.1998-01.com.vmware:localhost.punelab.qlogic.com qlogic.org qlogic.com mv.qlogic.
8–Configuração da iSER Configurar a iSER no ESXi 6.7 5. Liste o destino anexo da seguinte forma: esxcfg-scsidevs -l mpx.vmhba0:C0:T4:L0 Device Type: CD-ROM Size: 0 MB Display Name: Local TSSTcorp CD-ROM (mpx.vmhba0:C0:T4:L0) Multipath Plugin: NMP Console Device: /vmfs/devices/cdrom/mpx.vmhba0:C0:T4:L0 Devfs Path: /vmfs/devices/cdrom/mpx.
9 Configuração de iSCSI Este capítulo contém as seguintes informações de configuração de iSCSI: Inicialização iSCSI “Configurar a inicialização iSCSI” na página 130 “Configurar o servidor DHCP para suportar a inicialização iSCSI” na página 142 “Descarregamento iSCSI no Windows Server” na página 147 “Descarregamento iSCSI em ambientes Linux” na página 156 “Configurar inicialização iSCSI de SAN para RHEL 7.
9–Configuração de iSCSI Inicialização iSCSI Configuração de inicialização iSCSI A configuração de inicialização iSCSI inclui: Selecionar o modo de inicialização iSCSI preferencial Configurar o destino iSCSI Configurar os parâmetros de inicialização iSCSI Selecionar o modo de inicialização iSCSI preferencial A opção de modo de inicialização é mostrada em iSCSI Configuration (Configuração de iSCSI) (Figura 9-1) do adaptador, e a configuração é específica da porta.
9–Configuração de iSCSI Inicialização iSCSI Configurar o destino iSCSI A configuração do destino iSCSI varia de acordo com o fornecedor do dispositivo de destino. Para obter informações sobre como configurar o destino iSCSI, consulte a documentação fornecida pelo fornecedor. Para configurar o destino iSCSI: 1. Selecione o procedimento adequado baseado no destino iSCSI e execute uma das duas opções a seguir: Crie um destino iSCSI para destinos como SANBlaze® ou IET®.
9–Configuração de iSCSI Inicialização iSCSI Tabela 9-1. Opções de configuração Opção Descrição TCP/IP parameters via DHCP (Parâmetros TCP/IP via DHCP) Esta opção é específica do IPv4. Controla se o software do host de inicialização iSCSI adquire as informações de endereço IP usando DHCP (Enabled) (Habilitada) ou usa uma configuração de IP estático (Disabled) (Desabilitada).
9–Configuração de iSCSI Inicialização iSCSI Configuração do modo de inicialização UEFI do adaptador Para configurar o modo de inicialização: 1. Reinicie o sistema. 2. Acesse o menu System Utilities (Utilitários do sistema) (Figura 9-2). NOTA A inicialização SAN é suportada apenas no ambiente UEFI. Confirme que a opção de inicialização do sistema é UEFI, e não herdado. Figura 9-2.
9–Configuração de iSCSI Inicialização iSCSI 3. Em System Setup (Configuração do sistema), Device Settings (Configurações do dispositivo), selecione o dispositivo da QLogic (Figura 9-3). Consulte o guia do usuário OEM sobre como acessar o menu de configuração do dispositivo PCI. Figura 9-3.
9–Configuração de iSCSI Inicialização iSCSI 4. Na Main Configuration Page (Página de configuração principal), selecione NIC Configuration (Configuração da NIC) (Figura 9-4) e pressione ENTER. Figura 9-4.
9–Configuração de iSCSI Configurar a inicialização iSCSI 5. Na página NIC Configuration (Configuração da NIC) (Figura 9-5), selecione Boot Protocol (Protocolo de inicialização) e pressione ENTER para selecionar UEFI iSCSI HBA (requer modo NPAR). Figura 9-5. Configuração do sistema: Configuração da NIC, Protocolo de inicialização 6.
9–Configuração de iSCSI Configurar a inicialização iSCSI Configuração da inicialização iSCSI estática Em uma configuração estática, os seguintes dados devem ser inseridos: Endereço IP do sistema IQN do iniciador do sistema Parâmetros do destino (obtidos em “Configurar o destino iSCSI” na página 125) Para obter informações sobre as opções de configuração, consulte a Tabela 9-1 na página 126. Para configurar os parâmetros da inicialização iSCSI usando a configuração estática: 1.
9–Configuração de iSCSI Configurar a inicialização iSCSI 2. Na página iSCSI Configuration (Configuração de iSCSI), selecione iSCSI General Parameters (Parâmetros gerais de iSCSI) (Figura 9-7) e pressione ENTER. Figura 9-7. Configuração do sistema: Seleção dos parâmetros gerais 3.
9–Configuração de iSCSI Configurar a inicialização iSCSI Figura 9-8. System Setup (Configuração do sistema): Parâmetros gerais de iSCSI 4. Retorne à página iSCSI Configuration (Configuração de iSCSI) e pressione a tecla ESC.
9–Configuração de iSCSI Configurar a inicialização iSCSI 5. Selecione iSCSI Initiator Parameters (Parâmetros do iniciador iSCSI) (Figura 9-9) e pressione ENTER. Figura 9-9. Configuração do sistema: Selecionar parâmetros do iniciador iSCSI 6.
9–Configuração de iSCSI Configurar a inicialização iSCSI NOTA Observe o seguinte para os itens anteriores com um asterisco (*): O rótulo mudará para IPv6 ou IPv4 (padrão) de acordo com a Versão de IP definida na página iSCSI General Parameters (Parâmetros gerais de iSCSI) (Figure 9-8 na página 133). Digite o endereço IP com cuidado. Nenhuma verificação de erros é realizada no endereço IP para verificar se há duplicatas, segmento incorreto ou atribuição de rede. Figura 9-10.
9–Configuração de iSCSI Configurar a inicialização iSCSI 8. Selecione iSCSI First Target Parameters (Parâmetros do primeiro destino iSCSI) (Figura 9-11) e pressione ENTER. Figura 9-11. Configuração do sistema: Seleção dos parâmetros do primeiro destino iSCSI 9. Na página iSCSI First Target Parameters (Parâmetros do primeiro destino iSCSI), defina a opção Connect (Conectar) com Enabled (Habilitado) para o destino iSCSI. 10.
9–Configuração de iSCSI Configurar a inicialização iSCSI Figura 9-12. Dell System Setup (Configuração do sistema): Parâmetros do primeiro destino iSCSI 11. Retorne à página iSCSI Boot Configuration (Configuração da inicialização iSCSI) e pressione ESC.
9–Configuração de iSCSI Configurar a inicialização iSCSI 12. Se você quiser configurar um segundo dispositivo de destino iSCSI, selecione iSCSI Second Target Parameters (Parâmetros do segundo destino iSCSI) (Figura 9-13) e digite os valores para os parâmetros assim como na Etapa 10. Caso contrário, continue na Etapa 13. Figura 9-13. System Setup (Configuração do sistema): Parâmetros do primeiro destino iSCSI 13. Pressione ESC uma vez e uma segunda vez para sair.
9–Configuração de iSCSI Configurar a inicialização iSCSI 14. Clique em Yes (Sim) para salvar as alterações ou siga as instruções OEM para salvar a configuração no nível de dispositivo. Por exemplo, clique em Yes (Sim) para confirmar a alteração na configuração (Figura 9-14). Figura 9-14. Configuração do sistema: Salvar alterações de iSCSI 15. Após todas as alterações terem sido feitas, reinicie o sistema para aplicar as alterações à configuração em execução do adaptador.
9–Configuração de iSCSI Configurar a inicialização iSCSI Para obter informações sobre as opções de configuração, consulte a Tabela 9-1 na página 126. NOTA Quando estiver usando um servidor DHCP, as entradas do servidor DNS são substituídas pelos valores fornecidos pelo servidor DHCP. Essa substituição ocorre mesmo que os valores fornecidos localmente sejam válidos e o servidor DHCP não forneça nenhuma informação do servidor DNS.
9–Configuração de iSCSI Configurar a inicialização iSCSI HBA Boot Mode (Modo de inicialização do HBA): Desabilitado Virtual LAN ID (ID da LAN virtual): Conforme necessário Virtual LAN Boot Mode (Modo de inicialização da LAN virtual): Habilitado Figura 9-15. System Setup (Configuração do sistema): Parâmetros gerais de iSCSI Habilitar a autenticação CHAP Confirme que a autenticação CHAP está habilitada no destino. Para habilitar a autenticação CHAP: 1.
9–Configuração de iSCSI Configurar o servidor DHCP para suportar a inicialização iSCSI 5. Na página de configuração da inicialização iSCSI, selecione iSCSI First Target Parameters (Parâmetros do primeiro destino iSCSI). 6.
9–Configuração de iSCSI Configurar o servidor DHCP para suportar a inicialização iSCSI Tabela 9-2. Definições dos parâmetros da Opção 17 do DHCP Parâmetro Definição "iscsi:" Uma string literal O endereço IP ou o nome de domínio totalmente qualificado (FQDN) do destino iSCSI ":" Separador O protocolo IP usado para acessar o destino de iSCSI. Como apenas TCP é suportado atualmente, o protocolo é 6. O número de porta associada ao protocolo.
9–Configuração de iSCSI Configurar o servidor DHCP para suportar a inicialização iSCSI A Tabela 9-3 mostra as subopções da Opção 43 do DHCP. Tabela 9-3.
9–Configuração de iSCSI Configurar o servidor DHCP para suportar a inicialização iSCSI Configurar a Inicialização de iSCSI no DHCP para IPv6 O servidor DHCPv6 pode fornecer várias opções, incluindo configuração de IP sem estado ou com estado, bem como informações para o cliente DHCPv6.
9–Configuração de iSCSI Configurar o servidor DHCP para suportar a inicialização iSCSI Tabela 9-4. Definições das subopções da Opção 17 do DHCP (Continuação) Subopção 203 Definição IQN do iniciador iSCSI Notas da tabela: Os colchetes [ ] são obrigatórios para os endereços IPv6.
9–Configuração de iSCSI Descarregamento iSCSI no Windows Server Descarregamento iSCSI no Windows Server O descarregamento iSCSI é uma tecnologia que descarrega a sobrecarga de processamento do protocolo iSCSI dos processadores host para o HBA de iSCSI. O descarregamento iSCSI aumenta o desempenho e a taxa de transferência da rede, ajudando a otimizar o uso do processador do servidor. Esta seção aborda como configurar o recurso de descarregamento iSCSI do Windows para o Adaptadores 41xxx Series da QLogic.
9–Configuração de iSCSI Descarregamento iSCSI no Windows Server Configurar o Iniciador Microsoft para usar o descarregamento iSCSI da QLogic Depois de o endereço IP ser configurado para o adaptador iSCSI, é preciso usar o Iniciador Microsoft para configurar e adicionar uma conexão ao destino iSCSI usando o adaptador iSCSI da QLogic. Para obter mais detalhes sobre o Iniciador Microsoft, consulte o guia do usuário da Microsoft. Para configurar o Iniciador Microsoft: 1. Abra o Iniciador Microsoft. 2.
9–Configuração de iSCSI Descarregamento iSCSI no Windows Server Figura 9-18. Alteração do nome do nó do iniciador iSCSI 3. Nas propriedades do iniciador iSCSI, clique na guia Descoberta. 4. Na página Descoberta (Figura 9-19), em Portais de destino, clique em Descobrir portal.
9–Configuração de iSCSI Descarregamento iSCSI no Windows Server Figura 9-19. Iniciador iSCSI — Descobrir portal de destino 5. Na caixa de diálogo Descobrir portal de destino (Figura 9-20): a. Na caixa IP address or DNS name, digite o endereço IP do destino. b. Clique em Avançado.
9–Configuração de iSCSI Descarregamento iSCSI no Windows Server Figura 9-20. Endereço IP do portal de destino 6. Na caixa de diálogo Configurações avançadas (Figura 9-21), preencha o seguinte em Conectar usando: a. Para Adaptador local, selecione QLogic Adapter. b. Para IP do iniciador, selecione o endereço IP do adaptador. c. Clique em OK.
9–Configuração de iSCSI Descarregamento iSCSI no Windows Server Figura 9-21. Selecionar o endereço IP do iniciador 7. Na página Descoberta das propriedades do iniciador iSCSI, clique em OK.
9–Configuração de iSCSI Descarregamento iSCSI no Windows Server 8. Clique na guia Destinos e, em seguida, na página Destinos (Figura 9-22), clique em Conectar. Figura 9-22.
9–Configuração de iSCSI Descarregamento iSCSI no Windows Server 9. Na caixa de diálogo Conectar-se ao destino (Figura 9-23), clique em Avançado. Figura 9-23. Caixa de diálogo Conectar-se ao destino 10. Na caixa de diálogo Adaptador local, selecione QLogic Adapter, e clique em OK. 11. Clique em OK novamente para fechar o Iniciador Microsoft. 12. Para formatar a partição iSCSI, use o gerenciador de discos.
9–Configuração de iSCSI Descarregamento iSCSI no Windows Server Solução: Como eu sei que a conexão está descarregada? Problema: Use o Microsoft iSCSI Software Initiator. Em uma linha de comando, digite oiscsicli sessionlist. Em Initiator Name (Nome do iniciador), uma conexão iSCSI descarregada mostrará uma entrada começando com B06BDRV. Uma conexão não descarregada mostra uma entrada começando com Root.
9–Configuração de iSCSI Descarregamento iSCSI em ambientes Linux 8. Siga as instruções mostradas na tela. Na janela que mostra a lista de discos disponíveis para a instalação, o disco de destino iSCSI deve estar visível. Esse destino é um disco conectado através do protocolo de inicialização iSCSI, localizado no destino iSCSI remoto. 9. Para prosseguir com a instalação para Windows Server 2012R2/2016, clique em Next (Avançar) e siga as instruções na tela.
9–Configuração de iSCSI Descarregamento iSCSI em ambientes Linux Diferenças em relação ao bnx2i Configuração do qedi.ko Verificar as interfaces iSCSI no Linux Considerações sobre Open-iSCSI e Inicialização pela SAN Diferenças em relação ao bnx2i Existem algumas diferenças significativas entre o qedi — o driver do FastLinQ Adaptador 41xxx Series da QLogic (iSCSI) — e o driver de descarregamento iSCSI QLogic — bnx2i dos adaptadores série 8400 da QLogic.
9–Configuração de iSCSI Descarregamento iSCSI em ambientes Linux Para verificar as interfaces iSCSI no Linux: 1. Para verificar se o qedi e os módulos de kernel associados estão ativamente carregados, use o seguinte comando: # lsmod | grep qedi 2.
9–Configuração de iSCSI Descarregamento iSCSI em ambientes Linux Active: active (running) since Fri 2017-01-27 16:33:58 IST; 6 days ago Docs: man:iscsiuio(8) Process: 3745 ExecStart=/usr/sbin/iscsiuio (code=exited, status=0/SUCCESS) Main PID: 3747 (iscsiuio) CGroup: /system.slice/iscsiuio.service !--3747 /usr/sbin/iscsiuio Jan 27 16:33:58 localhost.localdomain systemd[1]: Starting iSCSI UserSpace I/O driver... Jan 27 16:33:58 localhost.localdomain systemd[1]: Started iSCSI UserSpace I/O driver. 5.
9–Configuração de iSCSI Descarregamento iSCSI em ambientes Linux 7. Para veriicar se a sessão iSCSI foi criada, use o seguinte comando: # iscsiadm -m session qedi: [297] 192.168.25.100:3260,1 iqn.2003-04.com.sanblaze:virtualun.virtualun.target-05000007 (non-flash) 8. Para verificar se há dispositivos iSCSI, use o comando iscsiadm: # iscsiadm -m session -P3 ...
9–Configuração de iSCSI Descarregamento iSCSI em ambientes Linux 3. No início da instalação, passe o seguinte parâmetro de inicialização com a opção de DUD: Para RHEL 6.x e 7.x: rd.iscsi.ibft dd Não são necessárias opções separadas para distribuições mais antigas do RHEL. Para SLES 11 SP4 e SLES 12 SP1/SP2/SP3: ip=ibft dud=1 Para o pacote DUD FastLinQ (por exemplo, no RHEL 7): fastlinq-8.18.10.0-dd-rhel7u3-3.10.0_514.el7-x86_64.iso Onde o parâmetro DUD é dd para RHEL 7.x e dud=1 para SLES 12.
9–Configuração de iSCSI Descarregamento iSCSI em ambientes Linux echo -n $"Starting $prog: " modprobe -q iscsi_tcp modprobe -q ib_iser modprobe -q cxgb3i modprobe -q cxgb4i modprobe -q bnx2i modprobe -q be2iscsi modprobe -q qedi daemon iscsiuio 3. Edite o arquivo /etc/iscsi/iscsid.conf, insira ou remova as marcações de comentário das seguintes linhas e, depois, salve o arquivo: Insira a marcação de comentário em: iscsid.startup = /etc/rc.d/init.
9–Configuração de iSCSI Descarregamento iSCSI em ambientes Linux 5. Atualize os campos Iface nos registros Iface usando o comando iscsiadm. Por exemplo: # iscsiadm -m iface -I qedi.14:02:ec:ce:dc:71 -n iface.hwaddress -v 14:02:ec:ce:dc:71 -o update qedi.14:02:ec:ce:dc:71 updated. # iscsiadm -m iface -I qedi.14:02:ec:ce:dc:71 -n iface.transport_name -v qedi -o update qedi.14:02:ec:ce:dc:71 updated. # iscsiadm -m iface -I qedi.14:02:ec:ce:dc:71 -n iface.bootproto -v dhcp -o update qedi.
9–Configuração de iSCSI Descarregamento iSCSI em ambientes Linux a. b. c. d. Na página Main Configuration (Configuração principal), selecione System Setup (Configuração do sistema), Device Settings (Configurações do dispositivo). Na página Device Settings (Configurações do dispositivo), selecione a porta na qual a tabela do firmware de inicialização iSCSI (iBFT) foi configurada.
9–Configuração de iSCSI Descarregamento iSCSI em ambientes Linux # iscsiadm -m iface -I qedi. 00:0e:1e:d6:7d:3a -o new O formato de registro do Iface deve ser qedi. Nesse caso, o endereço MAC deve corresponder ao endereço MAC L4 no qual a sessão do iSCSI está ativa. 5. Atualize os campos Iface nos registros Iface usando o comando iscsiadm. Por exemplo: # iscsiadm -m iface -I qedi.00:0e:1e:d6:7d:3a -n iface.hwaddress -v 00:0e:1e:d6:7d:3a -o update # iscsiadm -m iface -I qedi.
9–Configuração de iSCSI Descarregamento iSCSI em ambientes Linux 10. Crie o arquivo initramfs usando o seguinte comando: # dracut -f 11. Reinicialize o servidor e abra o HII. 12. No HII, habilite o modo de descarregamento de iSCSI: a. Na página Main Configuration (Configuração principal), selecione System Setup (Configuração do sistema), Device Settings (Configurações do dispositivo). b.
9–Configuração de iSCSI Descarregamento iSCSI em ambientes Linux 2. Edite o arquivo /etc/elilo.conf, adicione o seguinte comando e salve o arquivo: 3. Remova o parâmetro ip=ibft (se estiver presente) Adicione iscsi_firmware Edite o arquivo /etc/sysconfig/kernel e localize a seguinte declaração: INITRD_MODULES=”ata_piix ata_generic” Altere a declaração para: INITRD_MODULES=”ata_piix ata_generic qedi” Salve o arquivo. 4. Edite o arquivo /etc/modprobe.
9–Configuração de iSCSI Descarregamento iSCSI em ambientes Linux 9. Na página Main Configuration (Configuração principal), selecione iSCSI General Parameters (Parâmetros gerais de iSCSI) e, em seguida, configure o HBA Boot Mode (Modo de inicialização do HBA) como Enabled (Ativado). 10. Na página Main Configuration (Configuração principal), configure o Boot Protocol (Protocolo de inicialização) como UEFI iSCSI HBA. 11. Salve a configuração e reinicie o servidor.
9–Configuração de iSCSI Descarregamento iSCSI em ambientes Linux 6. 7. 8. Edite o arquivo /etc/default/grub e modifique o valor GRUB_CMDLINE_LINUX : a. Remova rd.iscsi.ibft (se estiver presente). b. Remova qualquer opção de inicialização ip=. (se estiver presente). c. Adicione rd.iscsi.firmware. Para distros mais antigos, adicione iscsi_firmware. Crie um backup do arquivo grub.cfg original. O arquivo está nos seguintes locais: Inicialização preexistente: /boot/grub2/grub.
9–Configuração de iSCSI Descarregamento iSCSI em ambientes Linux 14. Na página Main Configuration (Configuração principal), selecione iSCSI General Parameters (Parâmetros gerais de iSCSI) e, em seguida, configure o HBA Boot Mode (Modo de inicialização do HBA) como Enabled (Ativado). 15. Na página Main Configuration (Configuração principal), configure o Boot Protocol (Protocolo de inicialização) como UEFI iSCSI HBA. 16. Salve a configuração e reinicie o servidor.
9–Configuração de iSCSI Descarregamento iSCSI em ambientes Linux 7. Para ativar o utilitário multipath, use os seguintes comandos: multipath (pode não mostrar os dispositivos multipath porque ele é inicializado com um caminho único no L2) multipath -ll 8. Para injetar o módulo multipath no initrd, use o seguinte comando: dracut --force --add multipath --include /etc/multipath 9. Reinicialize o servidor e insira as configurações do sistema pressionando a tecla F9 durante o menu POST. 10.
9–Configuração de iSCSI Configurar inicialização iSCSI de SAN para RHEL 7.4 e superior 11. Para garantir a instalação correta de drivers prontos para uso pelo disco de atualização de driver (DUD) e para impedir o carregamento dos drivers nativos, realize o seguinte procedimento: a. Edite o arquivo /etc/default/grub para incluir o seguinte comando: BOOT_IMAGE=/boot/x86_64/loader/linux dud=1 brokenmodules=qed,qedi,qedf linuxrc.debug=1 b. Edite o arquivo dud.
9–Configuração de iSCSI Configurar inicialização iSCSI de SAN para RHEL 7.4 e superior Figura 9-24. Solicitação de instalação integrada 6. Se necessário para a sua configuração, carregue o disco de atualização do driver FastLinQ quando for solicitado discos de driver adicionais. Caso contrário, digite c se não tiver outros discos de atualização de driver para instalar. 7. Continuar com a instalação. Você pode ignorar o teste de mídia. Clique em Next (Avançar) para continuar com a instalação.
9–Configuração de iSCSI Configurar inicialização iSCSI de SAN para RHEL 7.4 e superior 8. Na janela Configuration (Configuração) (Figura 9-25), selecione o idioma que deseja usar durante o processo de instalação e, em seguida, clique em Continue (Continuar). Figura 9-25. Configuração do Red Hat Enterprise Linux 7.4 9. Na janela Installation Summary (Resumo da instalação), clique em Installation Destination (Destino de instalação). O rótulo do disco é sda, indicando uma instalação de caminho único.
9–Configuração de iSCSI Configurar inicialização iSCSI de SAN para RHEL 7.4 e superior 15. Desmonte o sistema de arquivo usando o seguinte comando: # umount /sysroot 16. Reinicie o servidor e, em seguida, adicione os seguintes parâmetros na linha de comando: rd.iscsi.firmware rd.driver.pre=qed,qedi (para carregar todos os drivers pre=qed,qedi,qedi,qedf) selinux=0 17. Após uma inicialização do sistema bem-sucedida, edite o arquivo /etc/modprobe.d/anaconda-blacklist.
10 Configuração de FCoE Este capítulo contém as seguintes informações de configuração de FCoE (Fibre Channel over Ethernet): Inicialização FCoE pela SAN “Injeção (integração) dos drivers do adaptador nos arquivos de imagem do Windows” na página 184 “Configuração do descarregamento FCoE para Linux” na página 185 “Diferenças entre qedf e bnx2fc” na página 186 “Configuração do qedf.
10–Configuração de FCoE Inicialização FCoE pela SAN Preparação do BIOS de sistema para build e inicialização FCoE Para preparar o BIOS de sistema, modifique a ordem de inicialização do sistema e especifique o protocolo de inicialização do BIOS, se necessário. Especificação do protocolo de inicialização do BIOS A inicialização FCoE pela SAN é suportada apenas no modo UEFI. Defina a plataforma no modo de inicialização (protocolo) usando a configuração do BIOS de sistema como UEFI.
10–Configuração de FCoE Inicialização FCoE pela SAN 3. Na página Device Settings (Configurações do dispositivo), selecione o dispositivo QLogic (Figura 10-2). Figura 10-2. Configuração do sistema: Configurações do dispositivo, Seleção de porta 4. Na Main Configuration Page (Página de configuração principal) selecione NIC Configuration (Configuração da NIC) (Figura 10-3) e pressione ENTER.
10–Configuração de FCoE Inicialização FCoE pela SAN Figura 10-3. Configuração do sistema: Configuração da NIC 5. Na página NIC Configuration (Configuração da NIC), selecione Boot Mode (Modo de inicialização) e pressione ENTER para selecionar FCoE como um modo de inicialização preferido. NOTA FCoE não é apresentado na lista como uma opção de inicialização se o recurso Modo FCoE estiver desabilitado no nível da porta.
10–Configuração de FCoE Inicialização FCoE pela SAN Figura 10-4. Configuração do sistema: Modo FCoE habilitado Para configurar os parâmetros de inicialização FCoE: 1. Na Main Configuration Page (Página de configuração principal) do dispositivo HII, selecione FCoE Configuration (Configuração de FCoE) e pressione ENTER. 2. Na página FCoE Configuration (Configuração de FCoE), selecione FCoE General Parameters (Parâmetros gerais de FCoE) e pressione ENTER. 3.
10–Configuração de FCoE Inicialização FCoE pela SAN Figura 10-5. Configuração do sistema: Parâmetros gerais de FCoE 4. Retorne à página FCoE Configuration (Configuração de FCoE). 5. Pressione ESC e selecione FCoE Target Parameters (Parâmetros de destino FCoE). 6. Pressione ENTER. 7. No menu FCoE Target Parameters (Parâmetros de destino FCoE), habilite Connect (Conectar) para o destino de FCoE preferido. 8.
10–Configuração de FCoE Inicialização FCoE pela SAN Figura 10-6.
10–Configuração de FCoE Inicialização FCoE pela SAN 3. Carregue as imagens de inicialização FCoE QLogic mais recentes na NVRAM do adaptador. 4. Configure o destino FCoE para permitir uma conexão a partir do dispositivo remoto. Confirme que o destino tem espaço em disco suficiente para conter a nova instalação do sistema operacional. 5. Configure o UEFI HII para definir o tipo de inicialização FCoE na porta do adaptador necessário, o iniciador correto e os parâmetros de destino para inicialização FCoE.
10–Configuração de FCoE Injeção (integração) dos drivers do adaptador nos arquivos de imagem do Windows Injeção (integração) dos drivers do adaptador nos arquivos de imagem do Windows Para injetar os drivers do adaptador nos arquivos de imagem do Windows: 1. Obtenha o pacote de drivers mais recente para a versão aplicável do Windows Server (2012, 2012 R2 ou 2016). 2. Extraia o pacote de drivers em um diretório de trabalho: a.
10–Configuração de FCoE Configuração do descarregamento FCoE para Linux NOTA Observe o seguinte com respeito à mídia de instalação do sistema operacional: A mídia de instalação do sistema operacional deverá ser uma unidade local. Não são suportados caminhos de rede para a mídia de instalação do sistema operacional. O script slipstream.bat injeta os componentes de driver em todas as SKUs suportadas pela mídia de instalação do sistema operacional. 6.
10–Configuração de FCoE Diferenças entre qedf e bnx2fc NOTA Ao instalar com SLES 11 ou SLES 12, o parâmetro withfcoe=1 não é obrigatório porque o Adaptador 41xxx Series não exige mais o software daemon FCoE. Diferenças entre qedf e bnx2fc Existem diferenças significativas entre o qedf (o driver para o controlador FastLinQ 41xxx Cavium de 10/25 GbE (FCoE)) e o driver de descarregamento FCoE Cavium anterior, bnx2fc.
10–Configuração de FCoE Verificar os dispositivos FCoE no Linux NOTA Para obter mais informações sobre a instalação do driver FastLinQ, consulte Capítulo 3 Instalação de drivers. O módulo de kernel qedf.ko de carga executa o seguinte: # modprobe qed # modprobe libfcoe # modprobe qedf Verificar os dispositivos FCoE no Linux Siga estas etapas para verificar se os dispositivos FCoE foram detectados corretamente após a instalação e o carregamento do módulo de kernel qedf.
10–Configuração de FCoE Configurar inicialização FCoE pela SAN para RHEL 7.4 e superior .... [ 243.991851] [0000:21:00.3]: [qedf_link_update:489]:5: LINK UP (40 GB/s). 3. Verifique se há dispositivos FCoE descobertos usando lsblk -S: # lsblk -S NAME HCTL TYPE VENDOR MODEL REV TRAN sdb 5:0:0:0 disk SANBlaze VLUN P2T1L0 V7.3 fc sdc 5:0:0:1 disk SANBlaze VLUN P2T1L1 V7.3 fc sdd 5:0:0:2 disk SANBlaze VLUN P2T1L2 V7.3 fc sde 5:0:0:3 disk SANBlaze VLUN P2T1L3 V7.
10–Configuração de FCoE Configurar inicialização FCoE pela SAN para RHEL 7.4 e superior 4. Use o seguinte comando e, em seguida, pressione ENTER. linux dd modprobe.blacklist=qed modprobe.blacklist=qede modprobe.blacklist=qedr modprobe.blacklist=qedi modprobe.blacklist=qedf Você pode usar a opção inst.dd em vez de linux dd. 5. O processo de instalação solicita que você instale o driver integrado conforme mostrado no exemplo da Figura 10-7. Figura 10-7. Solicitação de instalação integrada 6.
10–Configuração de FCoE Configurar inicialização FCoE pela SAN para RHEL 7.4 e superior 7. Continue com a instalação. Você pode ignorar o teste de mídia. Clique em Next (Avançar) para continuar com a instalação. 8. Na janela Configuration (Configuração) (Figura 10-8), selecione o idioma que deseja usar durante o processo de instalação e, em seguida, clique em Continue (Continuar). Figure 10-8. Configuração do Red Hat Enterprise Linux 7.4 9.
11 Configuração da SR-IOV A virtualização de entrada/saída de raiz única (SR-IOV) é uma especificação do PCI SIG que permite que um único dispositivo PCIe apareça como vários dispositivos PCI Express (PCIe) físicos separados. A SR-IOV permite o isolamento de recursos PCIe para desempenho, interoperabilidade e capacidade de gerenciamento. NOTA Alguns recursos de SR-IOV podem não estar totalmente habilitados na versão atual.
11–Configuração da SR-IOV Configurar a SR-IOV no Windows Figura 11-1. Configuração do sistema para SR-IOV: Dispositivos integrados 4. Na Main Configuration Page (Página de configuração principal) do adaptador selecionado, clique em Device Level Configuration (Configuração no nível do dispositivo). 5. Na página Main Configuration - Device Level Configuration (Configuração principal - Configuração no nível do dispositivo) (Figura 11-2): a.
11–Configuração da SR-IOV Configurar a SR-IOV no Windows 7. Na caixa de mensagem Warning - Saving Changes (Aviso - Salvando alterações), clique em Yes (Sim) para salvar a configuração. 8. Na caixa de mensagem Success - Saving Changes (Sucesso - Salvando alterações), clique em OK. 9. Para habilitar a SR-IOV no adaptador de miniporta: a. Acesse o Gerenciador de dispositivos. b. Abra as propriedades do adaptador de miniporta e, em seguida, clique na guia Avançado. c.
11–Configuração da SR-IOV Configurar a SR-IOV no Windows NOTA Lembre-se de habilitar a SR-IOV quando criar o vSwitch. Essa opção não está disponível após a criação do vSwitch. Figura 11-4. Gerenciador de comutador virtual: Habilitar a SR-IOV f. A caixa de mensagem Aplicar alterações de rede informa que as alterações Pendentes podem interromper a conectividade de rede. Para salvar as alterações e continuar, clique em Yes (Sim).
11–Configuração da SR-IOV Configurar a SR-IOV no Windows 11. Para obter a capacidade do comutador da máquina virtual, use o seguinte comando do Windows PowerShell: PS C:\Users\Administrator> Get-VMSwitch -Name SR-IOV_vSwitch | fl A saída do comando Get-VMSwitch contém os seguintes recursos da SR-IOV: 12. IovVirtualFunctionCount : 96 IovVirtualFunctionsInUse : 1 Para criar uma máquina virtual (VM) e exportar para ela a função virtual (VF): a. Crie uma máquina virtual. b.
11–Configuração da SR-IOV Configurar a SR-IOV no Windows Figura 11-5. Configurações para VM: Habilitar a SR-IOV 13. Instale os drivers QLogic para os adaptadores detectados na VM. Use os drivers mais recentes disponibilizados pelo fornecedor para o SO do host (não use os drivers nativos). NOTA Lembre-se de usar o mesmo pacote de drivers na VM e no sistema host. Por exemplo, use a mesma versão dos drivers qeVBD e qeND na VM do Windows e no host do Hyper-V do Windows.
11–Configuração da SR-IOV Configurar a SR-IOV no Windows Depois de instalar os drivers, o adaptador QLogic é mostrado na VM. A Figura 11-6 mostra um exemplo. Figura 11-6. Gerenciador de dispositivos: VM com adaptador QLogic 14. Para ver os detalhes da VF da SR-IOV, use o seguinte comando do Windows PowerShell: PS C:\Users\Administrator> Get-NetadapterSriovVf A Figura 11-7 mostra a saída do exemplo. Figura 11-7.
11–Configuração da SR-IOV Configurar a SR-IOV no Linux Configurar a SR-IOV no Linux Para configurar a SR-IOV no Linux: 1. Acesse o BIOS System Setup (Configuração do sistema do BIOS) e clique em System BIOS Settings (Configurações do BIOS de sistema). 2. Na página System BIOS Settings (Configurações do BIOS de sistema), clique em Integrated Devices (Dispositivos integrados). 3. Na página System Integrated Devices (Dispositivos integrados do sistema) (consulte a Figura 11-1 na página 192): a.
11–Configuração da SR-IOV Configurar a SR-IOV no Linux Figura 11-8. Configuração do sistema: Configurações do processador para SR-IOV 6. Na página System Setup (Configuração do sistema), selecione Device Settings (Configurações do dispositivo). 7. Na página Device Settings (Configurações do dispositivo), selecione Port 1 (Porta 1) para o adaptador da QLogic. 8. Na página Device Level Configuration (Configuração no nível do dispositivo) (Figura 11-9): a.
11–Configuração da SR-IOV Configurar a SR-IOV no Linux Figura 11-9. Configuração do sistema para SR-IOV: Dispositivos integrados 9. Na Main Configuration Page (Página de configuração principal) clique em Finish (Concluir), salve as configurações e reinicialize o sistema. 10. Para habilitar e verificar a virtualização: a. Abra o arquivo grub.conf e configure o parâmetro iommu, conforme mostrado na Figura 11-10. Para sistemas baseados em Intel, adicione intel_iommu=on.
11–Configuração da SR-IOV Configurar a SR-IOV no Linux b. Salve o arquivo grub.conf e reinicialize o sistema. c. Para verificar se as alterações estão em vigor, use o seguinte comando: dmesg | grep -I iommu Uma saída de comando bem-sucedida da unidade de gerenciamento de memória de entrada-saída (IOMMU) deve mostrar, por exemplo: Intel-IOMMU: enabled d. Para ver os detalhes da VF (o número de VFs e o total de VFs), use o seguinte comando: find /sys/|grep -I sriov 11.
11–Configuração da SR-IOV Configurar a SR-IOV no Linux Figura 11-11. Saída do comando para sriov_numvfs 12. Para ver uma lista de todas as interfaces de PF e VF, use o seguinte comando: # ip link show | grep -i vf -b2 A Figura 11-12 mostra a saída do exemplo. Figura 11-12. Saída do comando para o comando ip link show 13. Atribua e verifique os endereços MAC: a. Para atribuir um endereço MAC à VF, use o seguinte comando: ip link set vf mac b.
11–Configuração da SR-IOV Configurar a SR-IOV no Linux 14. Desligue a VM e anexe a VF. (Alguns sistemas operacionais suportam a conexão automática de VFs à VM.) a. Na caixa de diálogo Virtual Machine (Máquina virtual) (Figura 11-13), clique em Add Hardware (Adicionar hardware). Figura 11-13. Máquina virtual do RHEL68 b. No painel esquerdo da caixa de diálogo Add New Virtual Hardware (Adicionar novo hardware virtual) (Figura 11-14), clique em PCI Host Device (Dispositivo host PCI). c.
11–Configuração da SR-IOV Configurar a SR-IOV no VMware Figura 11-14. Adicionar novo hardware virtual 15. Ligue a VM e use o seguinte comando: check lspci -vv|grep -I ether 16. Instale os drivers para os adaptadores detectados na VM. Use os drivers mais recentes disponibilizados pelo fornecedor para o SO do host (não use os drivers nativos). A mesma versão de driver precisa ser instalada no host e na VM. 17. Conforme necessário, adicione mais VFs na VM.
11–Configuração da SR-IOV Configurar a SR-IOV no VMware 6. Em Device Level Configuration (Configuração no nível do dispositivo) (consulte a Figura 11-2 na página 192): a. Defina o Virtualization Mode (Modo de virtualização) como SR-IOV. b. Clique em Back (Voltar). 7. Clique em Finish (Concluir) na página Main Configuration (Configuração principal). 8. Salve os parâmetros de configuração e reinicialize o sistema. 9.
11–Configuração da SR-IOV Configurar a SR-IOV no VMware . 0000:05:03.7 Network controller: QLogic Corp. QLogic FastLinQ QL41xxx Series 10/25 GbE Controller (SR-IOV VF) [PF_0.5.0_VF_15] 0000:05:0e.0 Network controller: QLogic Corp. QLogic FastLinQ QL41xxx Series 10/25 GbE Controller (SR-IOV VF) [PF_0.5.1_VF_0] 0000:05:0e.1 Network controller: QLogic Corp. QLogic FastLinQ QL41xxx Series 10/25 GbE Controller (SR-IOV VF) [PF_0.5.1_VF_1] 0000:05:0e.2 Network controller: QLogic Corp.
11–Configuração da SR-IOV Configurar a SR-IOV no VMware Figura 11-15. Configurações de edição do host VMware 15. Para validar as VFs por porta, use o comando esxcli da seguinte forma: [root@localhost:~] esxcli network sriovnic vf list -n vmnic6 VF ID Active PCI Address Owner World ID ----- ------ ----------- -------------- 0 true 005:02.0 60591 1 true 005:02.
11–Configuração da SR-IOV Configurar a SR-IOV no VMware 2 false 005:02.2 - 3 false 005:02.3 - 4 false 005:02.4 - 5 false 005:02.5 - 6 false 005:02.6 - 7 false 005:02.7 - 8 false 005:03.0 - 9 false 005:03.1 - 10 false 005:03.2 - 11 false 005:03.3 - 12 false 005:03.4 - 13 false 005:03.5 - 14 false 005:03.6 - 15 false 005:03.7 - 16. Instale os drivers QLogic para os adaptadores detectados na VM.
12 Configuração do NVMe-oF com RDMA O NVMe-oF (Non-Volatile Memory Express over Fabrics) permite o uso de transportes alternativos para PCIe para estender a distância sobre a qual um dispositivo host NVMe e uma unidade de armazenamento ou subsistema NVMe podem conectar. O NVMe-oF define uma arquitetura comum que é compatível com uma série de malhas de rede de armazenamento para o protocolo de armazenamento do bloco NVMe sobre uma malha de rede de armazenamento.
12–Configuração do NVMe-oF com RDMA A Figura 12-1 ilustra um exemplo de rede. Adaptador 41xxx Series Adaptador 41xxx Series Figura 12-1. Rede NVMe-oF O processo de configuração do NVMe-oF abrange os seguintes procedimentos: 1. Instalar drivers de dispositivo em ambos os servidores 2. Configuração do servidor de destino 3. Configuração do servidor iniciador 4. Pré-condicionamento do servidor de destino 5. Testar os dispositivos NVMe-oF 6.
12–Configuração do NVMe-oF com RDMA Instalar drivers de dispositivo em ambos os servidores Instalar drivers de dispositivo em ambos os servidores Após instalar seu sistema operacional (RHEL 7.4 ou SLES 12 SP3), instale drivers de dispositivo em ambos os servidores. Para atualizar o kernel para o kernel de upstream mais recente do Linux, acesse: https://www.kernel.org/pub/linux/kernel/v4.x/ 1.
12–Configuração do NVMe-oF com RDMA Configuração do servidor de destino f. Se forem feitas alterações no kernel, reinicialize para esse novo kernel do sistema operacional. Para instruções sobre como definir o kernel de inicialização padrão, acesse: https://wiki.centos.org/HowTos/Grub2 3. Ative e inicie o serviço RDMA da seguinte forma: # systemctl enable rdma.service # systemctl start rdma.service Ignore o erro RDMA Service Failed (Falha do serviço RDMA).
12–Configuração do NVMe-oF com RDMA Configuração do servidor de destino Tabela 12-1. Parâmetros de destino (Continuação) Comando Descrição # echo -n /dev/nvme0n1 >namespaces/ 1/device_path Defina o caminho do dispositivo NVMe. O caminho do dispositivo NVMe pode ser diferente entre os sistemas. Verifique o caminho do dispositivo usando o comando lsblk. Este sistema tem dois dispositivos NVMe: nvme0n1 e nvme1n1. # echo 1 > namespaces/1/enable Ative o namespace.
12–Configuração do NVMe-oF com RDMA Configuração do servidor iniciador Configuração do servidor iniciador O servidor do iniciador é configurado após o processo de reinicialização. Depois de o servidor entrar em operação, não é possível alterar a configuração sem reinicializar.
12–Configuração do NVMe-oF com RDMA Configuração do servidor iniciador Figura 12-2. NQN do subsistema 5. Conecte o destino NVMe-oF encontrado (nvme-qlogic-tgt1) usando NQN. Use o seguinte comando após cada reinicialização de servidor. Por exemplo: # nvme connect -t rdma -n nvme-qlogic-tgt1 -a 1.1.1.1 -s 1023 6. Confirme a conexão do destino NVMe-oF com o dispositivo NVMe-oF da seguinte forma: # dmesg | grep nvme # lsblk # list nvme A Figura 12-3 mostra um exemplo. Figura 12-3.
12–Configuração do NVMe-oF com RDMA Pré-condicionamento do servidor de destino Pré-condicionamento do servidor de destino Os servidores de destino NVMe que são testados de forma integrada apresentam um desempenho melhor do que o esperado. Antes de executar um benchmark, o servidor de destino precisa ser preenchido ou pré-condicionado. Para pré-condicionar o servidor de destino: 1. Apague com segurança o servidor de destino com ferramentas específicas do fornecedor (semelhantes a formatação).
12–Configuração do NVMe-oF com RDMA Otimizar o desempenho 2. Execute o utilitário FIO para medir a latência do dispositivo NVMe-oF iniciador. Use o seguinte comando: # fio --filename=/dev/nvme0n1 --direct=1 --time_based --rw=randread --refill_buffers --norandommap --randrepeat=0 --ioengine=libaio --bs=4k --iodepth=1 --numjobs=1 --runtime=60 --group_reporting --name=temp.out O FIO reporta dois tipos de latência: envio e conclusão. A latência de envio (slat) mede a latência do aplicativo para o kernel.
12–Configuração do NVMe-oF com RDMA Otimizar o desempenho 2. Configure os parâmetros do kernel Linux editando o arquivo grub (/etc/default/grub). a. Adicione parâmetros ao final da linha GRUB_CMDLINE_LINUX: GRUB_CMDLINE_LINUX="nosoftlockup intel_idle.max_cstate=0 processor.max_cstate=1 mce=ignore_ce idle=poll" b. Salve o arquivo grub. c. Recompile o arquivo grub. Para recompilar o arquivo grub para uma inicialização do BIOS antiga, use o seguinte comando: # grub2-mkconfig -o /boot/grub2/grub.
12–Configuração do NVMe-oF com RDMA Otimizar o desempenho #input: the device name (ethX) #OFFSET=0 0/1 0/1/2 #FACTOR=1 2 3 0/1/2/3 4 OFFSET=0 FACTOR=1 LASTCPU='cat /proc/cpuinfo | grep processor | tail -n1 | cut -d":" -f2' MAXCPUID='echo 2 $LASTCPU ^ p | dc' OFFSET='echo 2 $OFFSET ^ p | dc' FACTOR='echo 2 $FACTOR ^ p | dc' CPUID=1 for eth in $*; do NUM='grep $eth /proc/interrupts | wc -l' NUM_FP=$((${NUM})) INT='grep -m 1 $eth /proc/interrupts | cut -d ":" -f 1' echo "$eth: ${NUM} (${NUM_FP}
12–Configuração do NVMe-oF com RDMA Otimizar o desempenho cat /sys/devices/system/cpu/cpu0/cpufreq/scaling_governor Para configurar a rede ou as definições de memória: sysctl -w net.ipv4.tcp_mem="16777216 16777216 16777216" sysctl -w net.ipv4.tcp_wmem="4096 65536 16777216" sysctl -w net.ipv4.tcp_rmem="4096 87380 16777216" sysctl -w net.core.wmem_max=16777216 sysctl -w net.core.rmem_max=16777216 sysctl -w net.core.wmem_default=16777216 sysctl -w net.core.rmem_default=16777216 sysctl -w net.core.
13 Windows Server 2016 Este capítulo contém as seguintes informações a respeito do Windows Server 2016: Configurar as interfaces do RoCE com Hyper-V “RoCE sobre SET” na página 227 “Configurar a QoS para RoCE” na página 228 “Configurar a VMMQ” na página 236 “Configurar a VXLAN” na página 243 “Configurar os Espaços de Armazenamento Diretos” na página 244 “Implantar e gerenciar um Nano Server” na página 251 Configurar as interfaces do RoCE com Hyper-V No Windows Server 2016, Hyper-
13–Windows Server 2016 Configurar as interfaces do RoCE com Hyper-V Criar um comutador virtual Hyper-V com uma NIC virtual RDMA Siga os procedimentos descritos nesta seção para criar um comutador virtual Hyper-V e, em seguida, habilite o RDMA na VNIC do host. Para criar um comutador virtual Hyper-V com uma NIC virtual RDMA: 1. Abra o Gerenciador Hyper-V. 2. Clique em Gerenciador de comutador virtual (consulte a Figura 13-1). Figura 13-1. Habilitar o RDMA na NIC virtual do host 3.
13–Windows Server 2016 Configurar as interfaces do RoCE com Hyper-V 3. Na página Avançado (Figura 13-2): a. Em Propriedade, selecione Network Direct (RDMA). b. Em Valor, selecione Habilitado. c. Clique em OK. Figura 13-2. Propriedades do adaptador Ethernet virtual Hyper-V 4. Para habilitar o RDMA, use o seguinte comando do Windows PowerShell: PS C:\Users\Administrator> Enable-NetAdapterRdma "vEthernet (New Virtual Switch)" PS C:\Users\Administrator> Adicionar um ID da VLAN a uma NIC virtual do hos
13–Windows Server 2016 Configurar as interfaces do RoCE com Hyper-V Figura 13-3. Comando do Windows PowerShell: Get-VMNetworkAdapter 2. Para definir o ID da VLAN para a NIC virtual do host, use o seguinte comando do Windows PowerShelll: PS C:\Users\Administrator> Set-VMNetworkAdaptervlan -VMNetworkAdapterName "New Virtual Switch" -VlanId 5 -Access -Management05 NOTA Observe o seguinte sobre como adicionar um ID de VLAN a uma NIC virtual de host: Um ID de VLAN precisa ser atribuído a uma NIC virtual de
13–Windows Server 2016 Configurar as interfaces do RoCE com Hyper-V Adicionar NICs virtuais do host (portas virtuais) Para adicionar NICs virtuais do host: 1. Para adicionar uma NIC virtual do host, use o seguinte comando: Add-VMNetworkAdapter -SwitchName "New Virtual Switch" -Name SMB - ManagementOS 2. Habilite o RDMA nas NICs virtuais do host, conforme mostrado em “Para habilitar o RDMA em uma NIC virtual do host” na página 222. 3.
13–Windows Server 2016 Configurar as interfaces do RoCE com Hyper-V Figura 13-5. Caixa de diálogo Adicionar contadores Se o tráfego de RoCE estiver em execução, os contadores aparecem conforme mostrado na Figura 13-6. Figura 13-6.
13–Windows Server 2016 RoCE sobre SET RoCE sobre SET O SET (Switch Embedded Teaming, Agrupamento incorporado do comutador) é a solução de agrupamento de NICs alternativa da Microsoft disponível para uso em ambientes que contêm o Hyper-V e a pilha SDN (Software Defined Networking, Rede definida pelo software) no Windows Server 2016 Technical Preview. O SET integra a funcionalidade limitada de Agrupamento NIC no Comutador Virtual do Hyper-V.
13–Windows Server 2016 Configurar a QoS para RoCE A Figura 13-8 mostra a saída do comando. Figura 13-8. Comando do Windows PowerShell: Get-NetAdapter 2. Para habilitar o RDMA no SET, use o seguinte comando do Windows PowerShell: PS C:\Users\Administrator> Enable-NetAdapterRdma "vEthernet (SET)" Atribuir um ID de VLAN no SET Para atribuir um ID de VLAN no SET: Para atribuir um ID da VLAN no SET, use o seguinte comando do Windows PowerShell PS C:\Users\Administrator> Set-VMNetworkAdapterVlan -VMNetwork
13–Windows Server 2016 Configurar a QoS para RoCE Configurar a QoS desabilitando o DCBX no adaptador Toda a configuração precisa ser concluída em todos os sistemas em uso antes de configurar a qualidade de serviço desabilitando o DCBX no adaptador. As configurações de controle de fluxo baseado em prioridade (PFC), serviços avançados de transição (ETS) e classes de tráfego devem ser iguais no comutador e no servidor. Para configurar a QoS desabilitando o DCBX: 1. Desabilite o DCBX no adaptador. 2.
13–Windows Server 2016 Configurar a QoS para RoCE Figura 13-9. Propriedades avançadas: Habilitar a QoS 6. Atribua o ID da VLAN à interface da seguinte maneira: a. Abra a janela da miniporta e, em seguida, clique na guia Avançado. b. Na página Propriedades avançadas (Figura 13-10) em Propriedade, selecione ID da VLAN e defina o valor. c. Clique em OK. NOTA A etapa anterior é necessária para o controle de fluxo de prioridade (PFC).
13–Windows Server 2016 Configurar a QoS para RoCE Figura 13-10. Propriedades avançadas: Configurar o ID da VLAN 7. Para habilitar o controle de fluxo de prioridade para o RoCE em uma prioridade específica, use o seguinte comando: PS C:\Users\Administrators> Enable-NetQoSFlowControl -Priority 4 NOTA Se for configurar RoCE sobre Hyper-V, não atribua um ID de VLAN à interface física. 8. Para desabilitar o controle de fluxo de prioridade para qualquer outra prioridade, use os seguintes comandos: PS C:\User
13–Windows Server 2016 Configurar a QoS para RoCE 4 True Global 5 False Global 6 False Global 7 False Global 9. Para configurar a QoS e atribuir uma determinada prioridade a cada tipo de tráfego, use os seguintes comandos (onde a Prioridade 4 é marcada para RoCE e a Prioridade 0 é marcada para TCP): PS C:\Users\Administrators> New-NetQosPolicy "SMB" -NetDirectPortMatchCondition 445 -PriorityValue8021Action 4 -PolicyStore ActiveStore PS C:\Users\Administrators> New-NetQosPolicy "TCP" -IPProtoc
13–Windows Server 2016 Configurar a QoS para RoCE ---- --------- ------------ -------- --------- [Default] ETS 20 2-3,5-7 Global RDMA class ETS 50 4 Global TCP class ETS 30 0 Global 11. ------- ------- Para ver a QoS do adaptador de rede da configuração anterior, use o seguinte comando do Windows PowerShell: PS C:\Users\Administrator> Get-NetAdapterQos Name : SLOT 4 Port 1 Enabled : True Capabilities : Hardware Current -------- ------- MacSecBypass : NotSupported NotSupporte
13–Windows Server 2016 Configurar a QoS para RoCE 3. Para instalar a função de DCB no host, use o seguinte comando do Windows PowerShell: PS C:\Users\Administrators> Install-WindowsFeature Data-Center-Bridging NOTA Para esta configuração, defina o protocolo DCBX como CEE. 4. Para definir o modo DCBX Willing (Decisão do DCBX) como True (Verdadeiro), use o seguinte comando: PS C:\Users\Administrators> set-NetQosDcbxSetting -Willing 1 5. Habilite a QoS na miniporta da seguinte maneira: a.
13–Windows Server 2016 Configurar a QoS para RoCE 6. Atribua o ID da VLAN à interface (conforme atribuído para o PFC) da seguinte maneira: a. Abra a janela da miniporta e, em seguida, clique na guia Avançado. b. Na página Propriedades avançadas (Figura 13-12) em Propriedade, selecione ID da VLAN e defina o valor. c. Clique em OK. Figura 13-12. Propriedades avançadas: Configurar o ID da VLAN 7. Para configurar o comutador, use o seguinte comando do Windows PowerShell: PS C:\Users\Administrators> Ge
13–Windows Server 2016 Configurar a VMMQ -- --- OperationalFlowControl --------- ---------- 0 ETS 5% 0-3,5-7 1 ETS 95% 4 : Priority 4 Enabled OperationalClassifications : Protocol Port/Type Priority -------- --------- -------- NetDirect 445 RemoteTrafficClasses 4 : TC TSA Bandwidth Priorities -- --- --------- ---------- 0 ETS 5% 0-3,5-7 1 ETS 95% 4 RemoteFlowControl : Priority 4 Enabled RemoteClassifications : Protocol Port/Type Priority -------- --------- -------- NetDirec
13–Windows Server 2016 Configurar a VMMQ NIC virtual padrão com quantidade máxima de VMMQs Habilitar e desabilitar uma VMMQ em uma NIC de gerenciamento Monitorar as estatísticas de tráfego Habilitar a VMMQ no adaptador Para habilitar a VMMQ no adaptador: 1. Abra a janela da miniporta e, em seguida, clique na guia Avançado. 2. Na página Propriedades avançadas (Figura 13-13) em Propriedade, selecione Comutador virtual RSS e defina o valor como Habilitado. 3. Clique em OK. Figura 13-13.
13–Windows Server 2016 Configurar a VMMQ 2. 3. Na página Propriedades avançadas (Figura 13-14) em Propriedades, selecione uma das opções a seguir: VMMQ Max QPs Default VPort (VPort padrão das QPs com quantidade máxima de VMMQs) VMMQ Max QPs - Non-Default VPort (VPort não padrão das QPs com quantidade máxima de VMMQs) Se aplicável, ajuste o Valor para a propriedade selecionada. Figura 13-14. Propriedades avançadas: Configurar uma VMMQ 4. Clique em OK.
13–Windows Server 2016 Configurar a VMMQ Figura 13-15. Gerenciador de comutador virtual 5. Clique em OK. Habilitar a VMMQ no comutador da máquina virtual Para habilitar a VMMQ no comutador da máquina virtual: Use o seguinte comando do Windows PowerShell: PS C:\Users\Administrators> Set-VMSwitch -name q1 -defaultqueuevmmqenabled $true -defaultqueuevmmqqueuepairs 4 239 AH0054602-08 F
13–Windows Server 2016 Configurar a VMMQ Obter a capacidade do comutador da máquina virtual Para obter a capacidade do comutador da máquina virtual: Use o seguinte comando do Windows PowerShell: PS C:\Users\Administrator> Get-VMSwitch -Name ql | fl A Figura 13-16 mostra a saída do exemplo. Figura 13-16. Comando do Windows PowerShell: Get-VMSwitch Criar uma VM e habilitar a VMMQ em VMNetworkadapters na VM Para criar uma máquina virtual (VM) e habilitar a VMMQ nos VMNetworkadapters na VM: 1.
13–Windows Server 2016 Configurar a VMMQ 4. Para habilitar a VMMQ na VM, use o seguinte comando do Windows PowerShell: PS C:\Users\Administrators> set-vmnetworkadapter -vmname vm1 -VMNetworkAdapterName "network adapter" -vmmqenabled $true -vmmqqueuepairs 4 NOTA Para um comutador virtual com capacidade para SR-IOV: Se o comutador da VM e a aceleração de hardware estiverem habilitados para SR-IOV, você precisa criar 10 VMs com 8 NICs virtuais cada para usar a VMMQ.
13–Windows Server 2016 Configurar a VMMQ Ethernet 3 Ethernet 3 Ethernet 3 78 79 80 00-15-5D-36-0A-F8 00-15-5D-36-0A-F9 00-15-5D-36-0A-FA 0:16 1:0 0:0 PF PF PF Activated Activated Activated Adaptive Adaptive Adaptive 4 4 4 PS C:\Users\Administrator> get-netadaptervmq Name InterfaceDescription ---Ethernet 4 -------------------QLogic FastLinQ 41xxx Enabled BaseVmqProcessor MaxProcessors NumberOfReceive Queues ------- ---------------- ------------- --------------False 0:0 16 1 NIC virtual padrão c
13–Windows Server 2016 Configurar a VXLAN Configurar a VXLAN As informações de configuração da VXLAN são: Habilitar o descarregamento da VXLAN no adaptador Implantar uma rede definida por software Habilitar o descarregamento da VXLAN no adaptador Para habilitar o descarregamento da VXLAN no adaptador: 1. Abra a janela da miniporta e, em seguida, clique na guia Avançado. 2. Na página Propriedades avançadas (Figura 13-17) em Propriedades, selecione Descarregamento de tarefa encapsulada VXLAN.
13–Windows Server 2016 Configurar os Espaços de Armazenamento Diretos Implantar uma rede definida por software Para aproveitar o descarregamento de tarefa de encapsulamento VXLAN em máquinas virtuais, você precisa implantar uma rede definida por software (SDN) que utilize um Controlador de Rede da Microsoft. Para obter mais detalhes, consulte o seguinte link do Microsoft TechNet sobre redes definidas por software: https://technet.microsoft.
13–Windows Server 2016 Configurar os Espaços de Armazenamento Diretos Figura 13-18. Exemplo de configuração de hardware NOTA Os discos usados neste exemplo são os 4 discos SSD 400G NVMe™ e 12 discos SSD 200G. Implantar um sistema hiperconvergido Esta seção contém instruções para instalar e configurar os componentes de um sistema hiperconvergido usando o Windows Server 2016.
13–Windows Server 2016 Configurar os Espaços de Armazenamento Diretos 3. Instale os seguintes recursos: 4. Failover Cluster Ponte de data center (DCB) Conecte os nós ao domínio e adicione as contas de domínio. Configurar a rede Para implantar os Espaços de Armazenamento Diretos, o comutador Hyper-V precisa ser implantado com as NICs virtuais de host habilitadas para RDMA. NOTA O procedimento a seguir pressupõe que há quatro portas NIC RDMA. Para configurar a rede em cada servidor: 1.
13–Windows Server 2016 Configurar os Espaços de Armazenamento Diretos NOTA A opção de qualidade de serviço da rede é usada para garantir que o sistema de armazenamento definido por software tenha largura de banda suficiente para se comunicar entre os nós, garantindo resiliência e desempenho. Para configurar a QoS no adaptador, consulte “Configurar a QoS para RoCE” na página 228. 3. Crie um comutador virtual Hyper-V com SET e NIC virtual RDMA da seguinte forma: a.
13–Windows Server 2016 Configurar os Espaços de Armazenamento Diretos NOTA Esses comandos podem estar na mesma VLAN ou em VLANs diferentes. e. Para verificar se o ID da VLAN está definido, use o seguinte comando: Get-VMNetworkAdapterVlan -ManagementOS f.
13–Windows Server 2016 Configurar os Espaços de Armazenamento Diretos Use o seguinte comando do Windows PowerShell para validar um conjunto de servidores para uso como um cluster de Espaços de Armazenamento Diretos: Test-Cluster -Node -Include "Storage Spaces Direct", Inventory, Network, "System Configuration" Etapa 2. Criar um cluster Crie um cluster com os quatro nós (que foram validados para a criação do cluster) da Etapa 1.
13–Windows Server 2016 Configurar os Espaços de Armazenamento Diretos icm (Get-Cluster -Name HCNanoUSClu3 | Get-ClusterNode) { Update-StorageProviderCache Get-StoragePool |? IsPrimordial -eq $false | Set-StoragePool -IsReadOnly:$false -ErrorAction SilentlyContinue Get-StoragePool |? IsPrimordial -eq $false | Get-VirtualDisk | Remove-VirtualDisk -Confirm:$false -ErrorAction SilentlyContinue Get-StoragePool |? IsPrimordial -eq $false | Remove-StoragePool -Confirm:$false -ErrorAction SilentlyContinue Get-Phys
13–Windows Server 2016 Implantar e gerenciar um Nano Server Etapa 6. Criar discos virtuais Se os Espaços de Armazenamento Diretos foram habilitados, um único pool será criado usando todos os discos.
13–Windows Server 2016 Implantar e gerenciar um Nano Server Tabela 13-1. Funções e recursos do Nano Server (Continuação) Função ou Recurso Opções Drivers de convidado do Hyper-V para hospedagem do Nano Server como máquina virtual -GuestDrivers Drivers básicos para uma variedade de adaptadores de rede e controladores de armazenamento. É o mesmo conjunto de drivers incluídos em uma instalação do Server Core do Windows Server 2016 Technical Preview.
13–Windows Server 2016 Implantar e gerenciar um Nano Server As próximas seções descrevem como configurar uma imagem do Nano Server com os pacotes necessários e como adicionar drivers de dispositivo adicionais específicos para os dispositivos da QLogic. Também explicam como usar o Console de Recuperação do Nano Server, como gerenciar um Nano Server remotamente e como executar o tráfego Ntttcp a partir de um Nano Server.
13–Windows Server 2016 Implantar e gerenciar um Nano Server Exemplo: New-NanoServerImage –DeploymentType Host –Edition Datacenter -MediaPath C:\tmp\TP4_iso\Bld_10586_iso -BasePath ".\Base" -TargetPath "C:\Nano\PhysicalSystem\Nano_phy_vhd.vhd" -ComputerName "Nano-server1" –Compute -Storage -Cluster -OEMDrivers -DriversPath "C:\Nano\Drivers" No exemplo anterior, C:\Nano\Drivers é o caminho para os drivers da QLogic. Esse comando leva cerca de 10 a 15 minutos para criar um arquivo VHD.
13–Windows Server 2016 Implantar e gerenciar um Nano Server 9. Para copiar o VHD para o servidor físico e configurá-lo para inicializar pelo novo VHD: a. Vá para Gerenciamento do computador > Armazenamento > Gerenciamento de disco. b. Clique com o botão direito em Gerenciamento de disco e selecione Anexar VHD. c. Forneça o caminho do arquivo VHD. d. Clique em OK. e. Execute bcdboot d:\windows. NOTA Nesse exemplo, o VHD é anexado em D:\. f.
13–Windows Server 2016 Implantar e gerenciar um Nano Server Import-Module .\NanoServerImageGenerator.psm1 -Verbose 7. Use o seguinte comando do Windows PowerShell para criar um VHD que define um nome de computador e inclui os drivers de convidado do Hyper-V: NOTA Este comando a seguir solicitará uma senha de administrador para o novo VHD. New-NanoServerImage –DeploymentType Guest –Edition -MediaPath -BasePath .\Base -TargetPath .\NanoServerPhysical\NanoServe
13–Windows Server 2016 Implantar e gerenciar um Nano Server INFO : System volume location: G: INFO : Applying image to VHD. This could take a while... INFO : Image was applied successfully. INFO : Making image bootable... INFO : Fixing the Device ID in the BCD store on VHD... INFO : Drive is bootable. INFO : Closing VHD... INFO : Deleting pre-existing VHD : Base.vhd... INFO : Closing Windows image... INFO : Done. Cleaning up... Done. The log is at: C:\Users\ADMINI~1\AppData\Local\Temp\
13–Windows Server 2016 Implantar e gerenciar um Nano Server 2. Adicione a conta que você está usando para os administradores do Nano Server. 3. (Opcional) Habilite o CredSSP, se aplicável. Adicionar o Nano Server a uma lista de hosts confiáveis Em um prompt do Windows PowerShell elevado, adicione o Nano Server à lista de hosts confiáveis usando o seguinte comando: Set-Item WSMan:\localhost\Client\TrustedHosts "" Exemplos: Set-Item WSMan:\localhost\Client\TrustedHosts "172.
13–Windows Server 2016 Implantar e gerenciar um Nano Server Configuração de RoCE Para gerenciar o Nano Server com a comunicação remota do Windows PowerShell: 1. Conecte-se ao Nano Server a partir de outra máquina através da comunicação remota do Windows PowerShell. Por exemplo: PS C:\Windows\system32> $1p="172.28.41.152" PS C:\Windows\system32> $user="172.28.41.152\Administrator" PS C:\Windows\system32> Enter-PSSession -ComputerName $ip -Credential $user NOTA No exemplo anterior, o endereço IP do Nano Se
13–Windows Server 2016 Implantar e gerenciar um Nano Server 4. Para atribuir um endereço IP e um ID da VLAN a todas as interfaces do adaptador, use os seguintes comandos do Windows PowerShell: [172.28.41.152]: PS C:\> Set-NetAdapterAdvancedProperty -InterfaceAlias "slot 1 port 1" -RegistryKeyword vlanid -RegistryValue 5 [172.28.41.152]: PS C:\> netsh interface ip set address name="SLOT 1 Port 1" static 192.168.10.10 255.255.255.0 5.
13–Windows Server 2016 Implantar e gerenciar um Nano Server 7. Para executar uma leitura/gravação no SMBShare e verificar as estatísticas de RDMA no Nano Server, use o seguinte comando do Windows PowerShell: [172.28.41.152]: PS C:\> (Get-NetAdapterStatistics).RdmaStatistics A Figura 13-23 mostra a saída do comando. Figura 13-23.
14 Solução de problemas Este capítulo contém as seguintes informações de solução de problemas: Lista de verificação para solução de problemas “Verificar se os drivers atuais estão carregados” na página 263 “Testar a conectividade de rede” na página 264 “Microsoft Virtualization com Hyper-V” na página 265 “Problemas específicos do Linux” na página 265 “Outros problemas” na página 265 “Coletar dados de depuração” na página 266 Lista de verificação para solução de problemas CUIDADO
14–Solução de problemas Verificar se os drivers atuais estão carregados Substitua o adaptador com defeito por um em bom estado. Se o segundo adaptador funcionar na entrada onde o primeiro falhou, o adaptador original provavelmente apresenta defeitos. Instale o adaptador em outro sistema em funcionamento e execute os testes novamente. Se o adaptador passar nos testes no novo sistema, o sistema original pode estar com defeito.
14–Solução de problemas Testar a conectividade de rede Se você carregou um novo driver mas ainda não realizou a reinicialização, o comando modinfo não mostrará as informações do driver atualizado. Em vez disso, use o comando dmesg a seguir para ver os logs. Neste exemplo, a última entrada identifica que o driver estará ativo após a reinicialização. # dmesg | grep -i "Cavium" | grep -i "qede" [ 10.097526] QLogic FastLinQ 4xxxx Ethernet Driver qede x.x.x.x [ 23.
14–Solução de problemas Microsoft Virtualization com Hyper-V Teste da conectividade de rede para Linux Para verificar se a interface Ethernet está em funcionamento: 1. Para verificar o status da interface Ethernet, use o comando ifconfig. 2. Para verificar as estatísticas na interface Ethernet, use o comando netstat -i. Para verificar se a conexão foi estabelecida: 1. Envie um ping em um host IP na rede. Na linha de comando, use o seguinte comando: ping 2. Pressione ENTER.
14–Solução de problemas Coletar dados de depuração Problema: Em um ambiente ESXi, com o driver iSCSI (qedil) instalado, às vezes, o cliente VI não pode acessar o host. Isso é devido à terminação do hostd daemon, que afeta a conectividade com o cliente VI. Solução: Entre em contato com o suporte técnico da VMware. Coletar dados de depuração Use as informações da Tabela 14-1 para coletar dados de depuração. Tabela 14-1.
A LEDS do adaptador A Tabela A-1 apresenta uma lista dos LEDs indicadores para o estado de conexão e de atividade da porta do adaptador. Tabela A-1.
B Cabos e módulos ópticos Este apêndice fornece as seguintes informações para os cabos e módulos ópticos suportados: Especificações suportadas “Cabos e módulos ópticos testados” na página 269 “Comutadores testados” na página 273 Especificações suportadas Os Adaptadores 41xxx Series oferecem suporte a uma variedade de cabos e módulos ópticos compatíveis com SFF8024.
B–Cabos e módulos ópticos Cabos e módulos ópticos testados Cabos e módulos ópticos testados A Cavium não garante que todos os cabos ou módulos ópticos que cumprem os requisitos de conformidade funcionarão com os Adaptadores 41xxx Series. A Cavium testou os componentes listados na Tabela B-1 e apresenta esta lista para a sua conveniência. Tabela B-1.
B–Cabos e módulos ópticos Cabos e módulos ópticos testados Tabela B-1.
B–Cabos e módulos ópticos Cabos e módulos ópticos testados Tabela B-1.
B–Cabos e módulos ópticos Cabos e módulos ópticos testados Tabela B-1.
B–Cabos e módulos ópticos Comutadores testados Comutadores testados A Tabela B-2 lista os comutadores que foram testados quanto à interoperabilidade com o Adaptadores 41xxx Series. Esta lista é baseada nos comutadores que estavam disponíveis no momento do lançamento do produto e está sujeita a alterações ao longo do tempo à medida que comutadores novos entrarem no mercado ou comutadores existentes saiam de linha. Tabela B-2.
C Configuração do comutador Dell Z9100 Os Adaptadores 41xxx Series oferecem suporte a conexões com o comutador Ethernet Dell Z9100. No entanto, até o processo de autonegociação ser padronizado, o comutador precisa ser configurado explicitamente para se conectar ao adaptador em 25 Gbps. Para configurar uma porta do comutador Dell Z9100 para conectá-lo ao Adaptador 41xxx Series a 25 Gbps: 1. Estabeleça uma conexão de porta serial entre sua estação de trabalho de gerenciamento e o comutador. 2.
C–Configuração do comutador Dell Z9100 25G Quad port mode with 25G speed Dell(conf)#stack-unit 1 port 5 portmode quad speed 25G Para obter informações sobre como alterar a velocidade do link do adaptador, consulte “Testar a conectividade de rede” na página 264. 5. Verifique se a porta está operando a 25 Gbps: Dell# Dell#show running-config | grep "port 5" stack-unit 1 port 5 portmode quad speed 25G 6. Para desativar a autonegociação na porta 5 do comutador, execute estas etapas: a.
D Restrições de recursos Este apêndice fornece informações sobre restrições de recursos implementadas na versão atual. Essas restrições de coexistência de recursos devem ser removidas em uma versão futura. Quando isso acontecer, você deve poder usar as combinações de recursos sem quaisquer etapas de configuração adicionais além daquelas normalmente necessárias para ativar os recursos.
D–Restrições de recursos NIC e SAN Boot to Base é suportado apenas em algumas PFs Ethernet e inicialização PXE são atualmente suportados apenas na PF0 e na PF1. Na configuração NPAR, as demais PFs não suportam Ethernet e inicialização PXE. Quando Virtualization Mode (Modo de virtualização) está definido como NPAR, a inicialização FCoE não descarregada é suportada na Partição 2 (PF2 e PF3) e a inicialização iSCSI é suportada na Partição 3 (PF4 e PF5).
Glossário BAR Registro de endereços de base. Usado para armazenar endereços de memória usados por um dispositivo, ou deslocamentos para endereços de porta. Normalmente, os BARs de endereço de memória precisam estar na RAM física, enquanto os BARs de espaço de E/S podem residir em qualquer endereço de memória (mesmo além da memória física). acesso remoto direto à memória Consulte RDMA.
Guia do Usuário—Adaptadores de rede convergente 41xxx Series computador com conjunto de instruções reduzido Consulte RISC. destino O endpoint de um dispositivo de armazenamento em uma sessão SCSI. Os iniciadores solicitam dados dos destinos. Normalmente, os destinos são unidades de disco, unidades de fita ou outros dispositivos de mídia. Normalmente, um dispositivo periférico SCSI é o destino, mas um adaptador pode, em alguns casos, ser um destino. Um destino pode conter muitos LUNs.
Guia do Usuário—Adaptadores de rede convergente 41xxx Series ETS Seleção de transmissão avançada. Um padrão que especifica o aprimoramento da seleção de transmissão para suportar a alocação de largura de banda entre classes de tráfego. Quando a carga oferecida em uma classe de tráfego não usa sua largura de banda alocada, a seleção de transmissão avançada permite que outras classes de tráfego usem a largura de banda disponível.
Guia do Usuário—Adaptadores de rede convergente 41xxx Series IP HII Internet Protocol (Protocolo Internet). Um método pelo qual os dados são enviados de um computador para outro através da Internet. O protocolo IP especifica o formato dos pacotes, também chamados de datagramas, e o esquema de endereçamento. Infraestrutura de interface humana. Uma especificação (parte da UEFI 2.
Guia do Usuário—Adaptadores de rede convergente 41xxx Series A MSI-X (definida na PCI 3.0) permite a um dispositivo alocar qualquer número de interrupções entre 1 e 2.048 e dar a cada interrupção dados separados e registros de endereço. Recursos opcionais na MSI (endereçamento de 64 bits e mascaramento de interrupções) são obrigatórios com o MSI-X. LSO Descarregamento de envio grande. O recurso de adaptador LSO Ethernet que permite que a pilha de rede TCP\IP crie uma mensagem TCP grande (até 64 KB) antes
Guia do Usuário—Adaptadores de rede convergente 41xxx Series NVRAM Memória de acesso aleatório não volátil. Um tipo de memória que retém os dados (parâmetros de configuração) mesmo quando a alimentação é removida. Você pode configurar manualmente as configurações da NVRAM ou restaurá-las a partir de um arquivo. protocolo de datagramas do usuário Consulte UDP. protocolo de transferência de arquivo Consulte FTP. QoS Qualidade de serviço.
Guia do Usuário—Adaptadores de rede convergente 41xxx Series small computer system interface Consulte SCSI. RISC Computador com conjunto de instruções reduzido. Um microprocessador de computador que realiza um número menor de tipos de instruções de computador, operando assim em velocidades maiores. SR-IOV Virtualização de entrada/saída de raiz única. Uma especificação do PCI SIG que permite que um único dispositivo PCIe apareça como vários dispositivos PCIe físicos separados.
Guia do Usuário—Adaptadores de rede convergente 41xxx Series troca de ponte de data center Consulte DCBX. VLAN rede lógica virtual (LAN). Um grupo de hosts com um conjunto comum de requisitos que se comunicam como se estivessem conectados ao mesmo fio, independentemente da localização física. Embora uma VLAN tenha os mesmos atributos de uma LAN física, ela permite que as estações finais sejam agrupadas mesmo que não estejam localizadas no mesmo segmento LAN.
Sede corporativa Cavium, Inc. 2315 N. First Street San Jose, CA, EUA 95131 408-943-7100 Escritórios internacionais RU | Irlanda | Alemanha | França | Índia | Japão | China | Hong Kong | Cingapura | Taiwan | Israel Copyright © 2017, 2018 Cavium, Inc. Todos os direitos reservados no mundo todo. A QLogic Corporation é uma subsidiária integral da Cavium, Inc. Cavium, FastLinQ, QConvergeConsole, QLogic e SmartAN são marcas registradas da Cavium, Inc.