Resumen de contenidos para Dell EMC Marvell 41 Serie
Página 1
Cubierta Guía del usuario Adaptadores de red convergente Serie 41xxx Información de terceros que se le ofrece por cortesía de Dell. AH0054602-09 M 16 de octubre de 2019 Marvell. Avanzando más rápidamente...
Página 2
Guía del usuario Adaptadores de red convergente Si desea obtener más información, visite nuestra página web en: http://www.marvell.com Aviso: ESTE DOCUMENTO Y LA INFORMCIÓN PROVISTA EN ESTE DOCUMENTO SE SUMINISTRAN "TAL CUAL" SIN NINGUNA GARANTÍA. MARVELL RENUNCIA EXPRESAMENTE Y NO DA GARANTÍAS NI GARANTIZA EN RELACIÓN CON EL PRODUCTO, YA SEA EXPLÍCITA, ORAL, IMPLÍCITA, ESTATURARIA, QUE SURJA CONFORME A LA LEY, O COMO RESULTADO DEL USO COMERCIAL, DURANTE LA NEGOCIACIÓN, O EL TRANSCURSO DE LA EJECUCIÓN, INCLUIDAS LAS GARANTÍAS IMPLÍCITAS DE COMERCIABILIDAD E IDONEIDAD PARA UN FIN PARTICULAR Y LA NO INFRACCIÓN DE DERECHOS.
Tabla de contenido Prefacio Productos compatibles ......... xviii Público previsto .
Página 4
Guía del usuario—Adaptadores de red convergente Serie 41xxx Instalación de controladores para Linux mediante el paquete RPM kmp/kmod ........Instalación de controladores para Linux mediante el archivo TAR .
Página 5
Guía del usuario—Adaptadores de red convergente Serie 41xxx Configuración de inicio previo del adaptador Introducción ..........Visualización de las propiedades de imagen de firmware .
Página 6
Guía del usuario—Adaptadores de red convergente Serie 41xxx Asignación del CD o DVD para la instalación del sistema operativo......... . Inicio FCoE desde SAN .
Página 7
Guía del usuario—Adaptadores de red convergente Serie 41xxx Identificación del índice GID de RoCE v2 o la dirección ..Comprobación del índice GID de RoCE v1 o v2, y de la dirección desde los parámetros sys y class ....Comprobación de la función de RoCE v1 o RoCE v2 a través de aplicaciones perftest .
Página 8
Guía del usuario—Adaptadores de red convergente Serie 41xxx Configuración de iSER Antes de empezar ..........Configuración de iSER para RHEL .
Página 9
Guía del usuario—Adaptadores de red convergente Serie 41xxx Configuración de NVMe-oF con RDMA Instalación de los controladores de dispositivo en los dos servidores ..Configuración del servidor de destino ......Configuración del servidor iniciador .
Página 10
Guía del usuario—Adaptadores de red convergente Serie 41xxx Creación de una máquina virtual y activación de VMMQ en VMNetworkAdapters en la máquina virtual ....Activación y desactivación de VMMQ en un NIC de administración .
Página 11
Guía del usuario—Adaptadores de red convergente Serie 41xxx LED del adaptador Módulos ópticos y cables Especificaciones compatibles ........Módulos ópticos y cables probados .
Guía del usuario—Adaptadores de red convergente Serie 41xxx Lista de ilustraciones Ilustración Página Ventana Dell Update Package (Paquete de actualización de Dell) ... . . Asistente QLogic InstallShield: Ventana de bienvenida ..... . Asistente QLogic InstallShield: Ventana License Agreement (Contrato de licencia) .
Página 13
Guía del usuario—Adaptadores de red convergente Serie 41xxx 5-15 NIC Partitioning Configuration, Global Bandwidth Allocation (Configuración del particionamiento NIC, Asignación global de ancho de banda) ....5-16 Página Global Bandwidth Allocation (Asignación del ancho de banda global) .
Página 14
Guía del usuario—Adaptadores de red convergente Serie 41xxx 6-22 NIC integrado: BIOS del sistema, Configuración de conexión 1 para VMware ..6-23 NIC integrado: BIOS del sistema, Configuración de conexión 1 (destino) para VMware ............6-24 VMware iSCSI BFS: Selección de un disco que instalar .
Página 15
Guía del usuario—Adaptadores de red convergente Serie 41xxx Iface Transport Confirmado ......... . . Comprobación de nuevo dispositivo iSCSI .
Página 16
Guía del usuario—Adaptadores de red convergente Serie 41xxx 15-10 Propiedades avanzadas: Configuración del Id. de VLAN ....15-11 Propiedades avanzadas: Activación de QoS ......15-12 Propiedades avanzadas: Configuración del Id.
Guía del usuario—Adaptadores de red convergente Serie 41xxx Lista de tablas Tabla Página Requisitos del hardware del host ........Requisitos mínimos del sistema operativo del host .
Prefacio En este prefacio se enumeran los productos compatibles, se especifica el público previsto, se explican las convenciones tipográficas utilizadas en esta guía y se describen los avisos legales. Productos compatibles NOTA ® La GUI QConvergeConsole (QCC) es la única herramienta de ®...
Prefacio Público previsto Adaptador de red convergente de 10 Gb QL41162HFRJ-DE, soporte de altura completa Adaptador de red convergente de 10 Gb QL41162HLRJ-DE, soporte de perfil bajo Adaptador de red convergente de 10 Gb QL41162HMRJ-DE Adaptador de red convergente de 10 Gb QL41164HMCU-DE Adaptador de red convergente de 10 Gb QL41164HMRJ-DE ...
Prefacio Contenido de esta guía Contenido de esta guía Después del prefacio, el resto de la guía se organiza en los siguientes capítulos y apéndices: Capítulo 1 Visión general del producto proporciona una descripción funcional del producto, una lista de características y las especificaciones del adaptador.
Prefacio Convenciones de la documentación Capítulo 15 Windows Server 2016 describe las características de Windows Server 2016. Capítulo 16 Windows Server 2019 describe las características de Windows Server 2019. Capítulo 17 Solución de problemas describe una amplia variedad de ...
Página 22
Prefacio Convenciones de la documentación Consulte la “Lista de comprobación de la instalación” en la página Para obtener más información, visite www.marvell.com. El texto en negrita indica elementos de la interfaz de usuario como, por ejemplo, elementos de menú, botones, casillas de verificación o encabezados de columna.
Página 23
Prefacio Convenciones de la documentación Estas son algunas de las convenciones de sintaxis de la interfaz de línea de comando (CLI): El texto sin formato indica elementos que debe escribir tal como se muestran. Por ejemplo: qaucli -pr nic -ei <...
Prefacio Convenciones de la documentación Descarga de actualizaciones y documentación El sitio web de Marvell ofrece actualizaciones periódicas a firmware, software, y documentación de los productos. Para descargar el firmware, el software y la documentación de Marvell: Vaya a www.marvell.com. Señale a Support (Soporte) y, a continuación, en Driver Downloads (Descargas de controladores), haga clic en Marvell QLogic/FastLinQ Drivers (Controladores QLogic/FastinQ).
Prefacio Avisos legales Avisos legales Los avisos legales que se mencionan en esta sección incluyen seguridad del láser (aviso de la FDA), la certificación por agencia y el cumplimiento de seguridad del producto. Seguridad del láser, Aviso FDA El producto cumple con las reglas DHHS 21 CFR Capítulo 1, Subcapítulo J. Este producto se ha diseñado y fabricado según el IEC60825-1 en la etiqueta de seguridad del producto láser.
Prefacio Avisos legales Cumplimiento con la Directiva EMC 2014/30/EU, 2014/35/EU Marca CE: EN55032:2012/ CISPR 32:2015 Clase A EN55024: 2010 EN61000-3-2: Emisión de corriente armónica EN61000-3-3: Fluctuación de voltaje y parpadeo Estándares de inmunidad EN61000-4-2: ESD EN61000-4-3: Campo electromagnético RF EN61000-4-4: Prorrumpir/Transitorio Rápido EN61000-4-5: Sobretensión Rápida Común/Diferencial EN61000-4-6: Susceptibilidad Conducida RF EN61000-4-8: Campo magnético de frecuencia de potencia...
Prefacio Avisos legales VCCI: Clase A Es un producto de Clase A basado en la normativa del Voluntary Control Council for Interference (Consejo de Control Voluntario de las Interferencias - VCCI). Este equipo se utiliza en un entorno doméstico, en caso de producirse interferencias de radio, el usuario podría necesitar tomar acciones correctivas.
Visión general del producto Este capítulo ofrece la siguiente información sobre los Adaptadores de la serie 41xxx: Descripción funcional Características “Especificaciones del adaptador” en la página 3 Descripción funcional Los adaptadores de la serie 41000 FastLinQ de Marvell incluyen adaptadores de red convergente de 10 y 25 Gb y adaptadores Ethernet inteligentes que están diseñados para realizar la conexión acelerada en red de datos para sistemas de servidor.
Página 29
1–Visión general del producto Características Características de rendimiento: Descargas de la suma de comprobación de TCP, IP, UDP Descarga de segmentación TCP (TSO) Descarga de segmentos grandes (LSO) Descarga de segmentos genéricos (GSO) Descarga de recepción grande (LRO) ...
1–Visión general del producto Especificaciones del adaptador Compatibilidad para E/S de VMDirectPath Compatibilidad para E/S de VMDirectPath para Adaptadores de la serie 41xxx FastLinQ en entornos Linux y ESX. La E/S de VMDirectPath no es compatible en entornos de Windows. Se pueden asignar los Adaptadores de la serie 41xxx FastLinQ a máquinas virtuales para la operación de paso a través de PCI.
Página 31
1–Visión general del producto Especificaciones del adaptador 802.1q (VLAN) 802.3-2015 IEEE Standard for Ethernet (Estándar Ethernet IEEE 802.3-2015) (control de flujo) 802.3-2015 Cláusula 78 Ethernet eficiente en energía (EEE) 1588-2002 PTPv1 (Precision Time Protocol [Protocolo de tiempo de precisión]) ...
Instalación del hardware Este capítulo ofrece la siguiente información sobre la instalación de software: Requisitos del sistema “Precauciones de seguridad” en la página 6 “Lista de verificación de preinstalación” en la página 7 “Instalación del adaptador” en la página 7 ...
2–Instalación del hardware Precauciones de seguridad Tabla 2-2. Requisitos mínimos del sistema operativo del host Sistema Requisito operativo Windows Server 2012 R2, 2019 ® RHEL 7.6, 7.7, 8.0, 8.1 Linux ® SLES 12 SP4, SLES 15, SLES 15 SP1 CentOS 7.6 VMware ®...
2–Instalación del hardware Lista de verificación de preinstalación Lista de verificación de preinstalación Antes de instalar el adaptador, realice los siguientes pasos: Asegúrese de que el sistema cumpla los requisitos de hardware y software enumerados en “Requisitos del sistema” en la página Asegúrese de que el sistema utilice el BIOS más reciente.
Página 35
2–Instalación del hardware Instalación del adaptador Alinee el borde del conector del adaptador con la ranura del conector PCIe en el sistema. Aplicando presión pareja en ambos extremos de la tarjeta, empuje la tarjeta del adaptador hasta que quede correctamente asentada. Cuando el adaptador esté...
Instalación del controlador Este capítulo proporciona la siguiente información sobre la instalación del controlador: Instalación del software del controlador para Linux “Instalación del software del controlador de Windows” en la página 20 “Instalación del software del controlador de VMware” en la página 34 Instalación del software del controlador para Linux Esta sección describe cómo instalar los controladores para Linux con o sin...
3–Instalación del controlador Instalación del software del controlador para Linux En la Tabla 3-1 se describen los controladores para Linux del Adaptador de la serie 41xxx. Tabla 3-1. Controladores Linux de los Adaptadores de la serie 41xxx FastLinQ de Marvell Controlador Descripción Linux:...
3–Instalación del controlador Instalación del software del controlador para Linux El siguiente módulo de kernel RPM (kmod) instala los controladores para Linux en los hosts SLES que ejecutan el hipervisor Xen: qlgc-fastlinq-kmp-xen-<version>.<OS>.<arch>.rpm El siguiente RMP de origen instala el código de biblioteca RDMA en los hosts RHEL y SLES: ...
3–Instalación del controlador Instalación del software del controlador para Linux Cómo eliminar los controladores para Linux Existen dos procedimientos para eliminar controladores para Linux: uno para un entorno que no sea RDMA y otro para un entorno RDMA. Seleccione el procedimiento que coincida con su entorno.
Página 40
3–Instalación del controlador Instalación del software del controlador para Linux Si los controladores para Linux se instalaron con un archivo TAR, emita los siguientes comandos: modprobe -r qede depmod -a NOTA Si está presente qedr, emita en su lugar el comando modprobe -r qedr Elimine los archivos...
3–Instalación del controlador Instalación del software del controlador para Linux Para SLES: cd /lib/modules/<version>/updates/qlgc-fastlinq rm -rf qed.ko qede.ko qedr.ko Instalación de controladores para Linux mediante el paquete RPM src Para instalar controladores para Linux mediante el paquete RPM src: Escriba lo siguiente en el indicador de comandos: rpm -ivh RPMS/<arch>/qlgc-fastlinq-<version>.src.rpm Cambie el directorio a la ruta de acceso del RPM y cree el RPM binario para el núcleo.
3–Instalación del controlador Instalación del software del controlador para Linux Active todas las interfaces ethX como sigue: ifconfig <ethX> up Para SLES, utilice YaST para configurar las interfaces Ethernet de modo que se inicien automáticamente durante el inicio, configurando una dirección IP estática o activando DHCP en la interfaz.
3–Instalación del controlador Instalación del software del controlador para Linux Instalación de los controladores para Linux con RDMA Para obtener más información sobre iWARP, consulte el Capítulo 8 Configuración iWARP. Para instalar los controladores para Linux en un entorno con OFED integrada: Descargue los controladores para Linux del Adaptador de la serie 41xxx desde Dell:...
3–Instalación del controlador Instalación del software del controlador para Linux Parámetros opcionales de los controladores para Linux Tabla 3-2 describe los parámetros opcionales de los controladores qede. Tabla 3-2. Parámetros opcionales de los controladores de qede Parámetro Descripción Controla que el nivel de detalle del controlador sea igual que ethtool debug -s <dev>...
3–Instalación del controlador Instalación del software del controlador para Linux Tabla 3-3. Valores predeterminados de funcionamiento de los controladores para Linux (Continuación) Valor predeterminado del Valor predeterminado del Funcionamiento controlador qed controlador qede — 1000 Rx Ring Size (Tamaño del anillo Rx) —...
Página 46
3–Instalación del controlador Instalación del software del controlador para Linux Para instalar la clave pública, emita el siguiente comando: # mokutil --root-pw --import cert.der Donde la opción permite el uso directo del usuario raíz. --root-pw Reinicie el sistema. Revise la lista de certificados que están preparados para su inscripción: # mokutil --list-new Reinicie de nuevo el sistema.
3–Instalación del controlador Instalación del software del controlador de Windows Instalación del software del controlador de Windows Para obtener más información sobre iWARP, consulte el Capítulo 8 Configuración iWARP. Instalación de controladores de Windows Cómo eliminar los controladores de Windows ...
Página 48
3–Instalación del controlador Instalación del software del controlador de Windows En la ventana Dell Update Package (Paquete de actualización de Dell) (Ilustración 3-1), haga clic en Install (Instalar). Ilustración 3-1. Ventana Dell Update Package (Paquete de actualización de Dell) En la ventana de bienvenida del superinstalador de QLogic: Asistente ®...
Página 49
3–Instalación del controlador Instalación del software del controlador de Windows Realice lo siguiente en la ventana de Contrato de licencia del asistente (Ilustración 3-3): Lea el contrato de licencia de software del usuario final. Para continuar, seleccione I accept the terms in the license agreement (Acepto los términos del contrato de licencia).
Página 50
3–Instalación del controlador Instalación del software del controlador de Windows Ilustración 3-4. Asistente InstallShield: Ventana Setup Type (Tipo de configuración) Si ha seleccionado Custom (Personalizada) en el paso 5, complete la ventana Custom Setup (Configuración personalizada) (Ilustración 3-5) de la siguiente forma: Seleccione las características que vaya a instalar.
Página 51
3–Instalación del controlador Instalación del software del controlador de Windows Ilustración 3-5. Asistente InstallShield: Ventana Custom Setup (Configuración personalizada) En la ventana Ready To Install (Listo para instalar) del asistente InstallShield (Ilustración 3-6), haga clic en Install (Instalar). El Asistente InstallShield instala los controladores del adaptador de QLogic y el instalador de software de administración.
Página 52
3–Instalación del controlador Instalación del software del controlador de Windows Cuando finalice la instalación, aparecerá la ventana InstallShield Wizard Completed (Asistente InstallShield completado) (Ilustración 3-7). Haga clic en Finish (Finalizar) para retirar el instalador. Ilustración 3-7. Asistente InstallShield: Ventana Completed (Completada) En la ventana Dell Update Package (Paquete de actualización de Dell) (Ilustración 3-8), el mensaje “Update installer operation was successful”...
3–Instalación del controlador Instalación del software del controlador de Windows Ilustración 3-8. Ventana Dell Update Package (Paquete de actualización de Dell) Opciones de instalación del DUP Para personalizar el comportamiento de instalación del DUP, utilice las siguientes opciones de línea de comando. ...
3–Instalación del controlador Instalación del software del controlador de Windows NOTA Este comando requiere la opción /s. Ejemplos de instalación del DUP En los siguientes ejemplos se muestra cómo funcionan las opciones de instalación. Para actualizar el sistema en modo silencioso: <DUP_file_name>.exe /s Para extraer el contenido de la actualización en el directorio C:\mydir\: <DUP_file_name>.exe /s /e=C:\mydir...
Página 55
3–Instalación del controlador Instalación del software del controlador de Windows En la página Advanced (Avanzado) (Ilustración 3-9), seleccione un elemento en Property (Propiedad) y, a continuación, cambie el Value (Valor) de dicho elemento según sea necesario. Ilustración 3-9. Configuración de Advanced Adapter Properties (Propiedades avanzadas del adaptador) AH0054602-09 M...
3–Instalación del controlador Instalación del software del controlador de Windows Configuración de las opciones de administración de energía Podrá configurar las opciones de administración de energía para permitir que el sistema operativo apague la controladora para ahorrar energía o para que la controladora active el equipo.
3–Instalación del controlador Instalación del software del controlador de Windows Configuración del protocolo de comunicación a utilizar con QCCla GUIQCC PowerKity QCS CLI Las aplicaciones de administración de la GUI de QCC, el QCC PowerKit y la CLI de QCS tienen dos componentes principales: el agente RPC y el software cliente. Se ha instalado un agente RPC en un servidor o “host administrado”...
3–Instalación del controlador Instalación del software del controlador de Windows Modo Link Control (Control del enlace) Existen dos modos para controlar la configuración del enlace: Preboot Controlled (Preinicio controlado) es el modo predeterminado. En este modo, el controlador utiliza la configuración del enlace del dispositivo, que es configurable desde componentes de preinicio.
3–Instalación del controlador Instalación del software del controlador de Windows Velocidad y dúplex del enlace La propiedad Speed & Duplex (Velocidad y dúplex) (en la pestaña Advanced [Avanzado] del Administrador de dispositivos) se puede configurar en cualquier selección del menú Value (Valor) (consulte la Ilustración 3-12).
Página 60
3–Instalación del controlador Instalación del software del controlador de Windows Establezca Speed & Duplex (Velocidad y Dúplex). En la pestaña Advanced (Avanzado) del Administrador de dispositivos: En el menú Property (Propiedad), seleccione Speed & Duplex (Velocidad y dúplex). En el menú Value (Valor), seleccione una velocidad fija. La configuración del modo FEC está...
3–Instalación del controlador Instalación del software del controlador de VMware Instalación del software del controlador de VMware Esta sección describe el controlador qedentv de VMware ESXi para los Adaptadores de la serie 41xxx: Controladores y paquetes de controladores de VMware ...
3–Instalación del controlador Instalación del software del controlador de VMware Los controladores ESXi se incluyen como paquetes de controladores individuales y no están empaquetados juntos, excepto los indicados. Los controladores de VMware están disponibles para descarga solo en el sitio web de VMware: https://www.vmware.com/resources/compatibility/search.php?deviceCategory=io &details=1&keyword=QL41&page=1&display_interval=10&sortColumn=Partner&...
Página 63
3–Instalación del controlador Instalación del software del controlador de VMware Ponga el host en modo de mantenimiento emitiendo el siguiente comando: # esxcli --maintenance-mode NOTA El número máximo de interfaces Ethernet de qedentv admitidas en un host ESXi es 32 porque el vmkernel permite solo que se registren 32 interfaces para la devolución de llamada de administración.
3–Instalación del controlador Instalación del software del controlador de VMware Parámetros opcionales del controlador NIC de VMware Tabla 3-5 describe los parámetros opcionales que se pueden proporcionar como argumentos de línea de comando al comando esxcfg-module Tabla 3-5. Parámetros opcionales del controlador NIC de VMware Parámetro Descripción Activa globalmente (1) o desactiva (0) la inserción y eliminación de la vLAN...
3–Instalación del controlador Instalación del software del controlador de VMware Tabla 3-5. Parámetros opcionales del controlador NIC de VMware (Continuación) Parámetro Descripción Especifica el nivel de datos que el controlador registra en el archivo de debug registro vmkernel. debug puede tener los siguientes valores, mostrados en cantidades en aumento de los datos: ...
3–Instalación del controlador Instalación del software del controlador de VMware Tabla 3-6. Valores predeterminados de los parámetros de los controladores de VMware (Continuación) Parámetro Predeterminado Autonegociación con los RX y TX anunciados Flow Control (Control de flujo) 1,500 (el rango es 46–9,600) 8,192 (el rango es 128-8,192) Rx Ring Size (Tamaño del anillo Rx)
3–Instalación del controlador Instalación del software del controlador de VMware Compatibilidad con FCoE El controlador qedf FCoE de VMware Marvell incluido en el paquete de software de VMware admite los controladores de interfaz de red convergente (C-NIC) FCoE de Marvell FastLinQ. El controlador es un controlador de modo kernel que proporciona una capa de traducción entre la pila SCSI de VMware y el firmware y hardware de FCoE de Marvell.
Actualización del firmware Este capítulo proporciona información sobre cómo actualizar el firmware con Dell Update Package (Paquete de actualización Dell [DUP]). El DUP del firmware es solo una utilidad de actualización de la memoria Flash; no se utiliza para la configuración del adaptador. Puede ejecutar el DUP del firmware haciendo doble clic en el archivo ejecutable.
Página 69
4–Actualización del firmware Ejecución del DUP haciendo doble clic Aparece la pantalla de presentación Dell Update Package (Paquete de actualización Dell), como se muestra en la Ilustración 4-1. Haga clic en Install (Instalar) para continuar. Ilustración 4-1. Dell Update Package (Paquete de actualización Dell): Ventana de presentación Siga las instrucciones que aparecen en la pantalla.
Página 70
4–Actualización del firmware Ejecución del DUP haciendo doble clic El instalador indica que está cargando el nuevo firmware, según se muestra en la Ilustración 4-2. Ilustración 4-2. Dell Update Package (Paquete de actualización Dell): Cargando nuevo firmware Cuando haya terminado, el instalador indica el resultado de la instalación, según se muestra en la Ilustración 4-3.
4–Actualización del firmware Ejecución de DUP desde la línea de comando Haga clic en Yes (Sí) para reiniciar el sistema. Haga clic en Finish (Finalizar) para completar la instalación, según se muestra en la Ilustración 4-4. Ilustración 4-4. Dell Update Package (Paquete de actualización Dell): Finalizar instalación Ejecución de DUP desde la línea de comando La ejecución del DUP del firmware desde la línea de comando, sin especificar...
4–Actualización del firmware Ejecución del DUP mediante el archivo .bin Ilustración 4-5 muestra las opciones que puede utilizar para personalizar la instalación del Dell Update Package (Paquete de actualización Dell). Ilustración 4-5. Opciones de línea de comando del DUP: Ejecución del DUP mediante el archivo .bin El siguiente procedimiento solo es admitido por el sistema operativo Linux.
Página 73
4–Actualización del firmware Ejecución del DUP mediante el archivo .bin Ejemplo de salida de SUT durante la actualización del DUP: ./Network_Firmware_NJCX1_LN_08.07.26.BIN Collecting inventory... Running validation... BCM57810 10 Gigabit Ethernet rev 10 (p2p1) The version of this Update Package is the same as the currently installed version.
Configuración de inicio previo del adaptador Durante el proceso de inicio del host, tiene la oportunidad de hacer una pausa y realizar las tareas de administración del adaptador utilizando la aplicación de Interfaz de infraestructura humana (HI). Estas tareas son las siguientes: “Introducción”...
5–Configuración de inicio previo del adaptador Introducción Introducción Para iniciar la aplicación HII: Abra la ventana de configuración del sistema de su plataforma. Para obtener información sobre cómo iniciar la configuración del sistema, consulte la guía del usuario de su sistema. En la ventana de configuración del sistema (Ilustración 5-1), seleccione...
Página 76
5–Configuración de inicio previo del adaptador Introducción En la Main Configuration Page (Página de configuración principal) (Ilustración 5-3) aparecen las opciones de administración del adaptador mediante las cuales puede definir el modo de particionamiento. Ilustración 5-3. Main Configuration Page (Página de configuración principal) En Device Level Configuration (Configuración de nivel del dispositivo), establezca el Partitioning Mode (Modo de particionamiento) en NPAR, para agregar la opción NIC Partitioning Configuration (Configuración del...
Página 77
5–Configuración de inicio previo del adaptador Introducción NOTA NPAR no está disponible en los puertos con una velocidad máxima de 1G. Ilustración 5-4. Main Configuration Page, Setting Partitioning Mode to NPAR (Página de configuración principal, establecer el modo de particionamiento en NPAR) En la Ilustración 5-3...
5–Configuración de inicio previo del adaptador Introducción NIC Partitioning Configuration (Configuración del particionamiento NIC) (si se selecciona NPAR en la página de configuración de nivel del dispositivo) (consulte “Configuración de las particiones” en la página Además, la Main Configuration Page (Página de configuración principal) ofrece las propiedades del adaptador mostradas en la Tabla 5-1.
5–Configuración de inicio previo del adaptador Visualización de las propiedades de imagen de firmware Tabla 5-1. Propiedades del adaptador (Continuación) Propiedad del Descripción adaptador FCoE WWPN WWPN (nombre mundial del puerto) FCoE Offload (Descarga FCoE) del dispositivo permanente asignado por (WWPN FCoE) el fabricante FCoE Virtual WWPN...
5–Configuración de inicio previo del adaptador Configuración de parámetros del dispositivo EFI Driver Version (Versión del controlador EFI) es la versión del controlador de la interfaz del firmware extensible (EFI). L2B Firmware Version (Versión de firmware L2B) es la versión de firmware de descarga NIC para el inicio.
Página 81
5–Configuración de inicio previo del adaptador Configuración de parámetros del dispositivo En la página Device Level Configuration (Configuración de nivel de dispositivo), seleccione valores para los parámetros del dispositivo, tal como se muestra en la Ilustración 5-6. Ilustración 5-6. Device Level Configuration (Configuración de nivel de dispositivo) NOTA Los adaptadores QL41264HMCU-DE (número de pieza 5V6Y4) y QL41264HMRJ-DE (número de pieza 0D1WT) han demostrado...
5–Configuración de inicio previo del adaptador Configuración de parámetros de NIC Configuración de parámetros de NIC La configuración NIC incluye los parámetros siguientes: Velocidad de enlace NIC + Modo RDMA Compatibilidad con el protocolo RDMA Modo de inicio ...
Página 83
5–Configuración de inicio previo del adaptador Configuración de parámetros de NIC 25 Gbps activa un modo de velocidad fija de 25GbE en el puerto. Este modo no está disponible en todos los adaptadores. SmartAN (valor predeterminado) activa un modo de velocidad de ™...
Página 84
5–Configuración de inicio previo del adaptador Configuración de parámetros de NIC Para el Boot Mode (Modo de inicio), seleccione uno de los valores siguientes: PXE activa el inicio PXE. FCoE activa el inicio FCoE desde SAN a través de la vía de descarga ...
Página 85
5–Configuración de inicio previo del adaptador Configuración de parámetros de NIC Si se le pregunta, haga clic en Yes (Sí) para guardar los cambios. Los cambios surten efecto tras restablecer el sistema. Para configurar el puerto para que utilice RDMA: NOTA Siga estos pasos para activar el RDMA en todas las particiones del puerto de modo de un NPAR.
5–Configuración de inicio previo del adaptador Configuración del puente del centro de datos Configuración del puente del centro de datos La configuración del Puente de centros de datos (DCB) incluye el protocolo DCBX y la prioridad RoCE. Para configurar los valores de DCB: En la Main Configuration Page (Página de configuración principal) (Ilustración 5-3 en la página 49) seleccione Data Center Bridging (DCB)
5–Configuración de inicio previo del adaptador Configuración de inicio FCoE Si se le pregunta, haga clic en Yes (Sí) para guardar los cambios. Los cambios surten efecto tras restablecer el sistema. NOTA Cuando se activa DCBX, el adaptador envía periódicamente paquetes de Protocolo de detección de nivel de vínculo (LLDP) con una dirección unicast dedicada que sirve como dirección MAC de origen.
Página 88
5–Configuración de inicio previo del adaptador Configuración de inicio FCoE Elija los valores de los parámetros FCoE General (Parámetros generales FCoE) o FCoE Target Configuration (Configuración de destino FCoE). Ilustración 5-9. FCoE General Parameters (Parámetros generales FCoE) Ilustración 5-10. FCoE Target Configuration (Configuración de destino FCoE) Haga clic en Back (Atrás).
5–Configuración de inicio previo del adaptador Configuración del inicio iSCSI Configuración del inicio iSCSI NOTA El menú iSCSI Boot Configuration (Configuración de inicio de iSCSI) solo es visible si iSCSI Offload Mode (Modo Descarga iSCSI) se ha activado en la tercera partición en modo NPAR (consulte la Ilustración 5-19 en la página...
Página 90
5–Configuración de inicio previo del adaptador Configuración del inicio iSCSI IPv4 Primary DNS (DNS primario de IPv4) IPv4 Secondary DNS (DNS secundario de IPv4) VLAN ID (Id. de VLAN) iSCSI Name (Nombre de iSCSI) CHAP ID (Id. de CHAP) ...
Página 91
5–Configuración de inicio previo del adaptador Configuración del inicio iSCSI Ilustración 5-11. iSCSI General Parameters (Parámetros generales iSCSI) AH0054602-09 M...
Página 92
5–Configuración de inicio previo del adaptador Configuración del inicio iSCSI Ilustración 5-12. iSCSI Initiator Configuration Parameters (Parámetros de configuración del iniciador iSCSI) AH0054602-09 M...
Página 93
5–Configuración de inicio previo del adaptador Configuración del inicio iSCSI Ilustración 5-13. iSCSI First Target Parameters (Parámetros de destino primario iSCSI) AH0054602-09 M...
Página 94
5–Configuración de inicio previo del adaptador Configuración del inicio iSCSI Ilustración 5-14. iSCSI Second Target Parameters (Parámetros de destino secundario iSCSI) AH0054602-09 M...
5–Configuración de inicio previo del adaptador Configuración de las particiones Configuración de las particiones Puede configurar los rangos de ancho de banda para cada partición del adaptador. Para obtener información específica sobre la configuración de la partición en VMware ESXi 6.5, consulte Particionamiento para VMware ESXi 6.5 y ESXi 6.7.
Página 96
5–Configuración de inicio previo del adaptador Configuración de las particiones En la página Global Bandwidth Allocation (Asignación de ancho de banda global) (Ilustración 5-16), haga clic en el campo de ancho de banda TX mínimo y máximo de cada partición para la que desee asignar ancho de banda.
Página 97
5–Configuración de inicio previo del adaptador Configuración de las particiones Partition n Maximum TX Bandwidth (Ancho de banda TX máximo de partición N) es el ancho de banda de transmisión máximo de la partición seleccionada expresado como porcentaje de la velocidad de enlace de puerto físico máxima.
Página 98
5–Configuración de inicio previo del adaptador Configuración de las particiones Para configurar la segunda partición, seleccione Partition 2 Configuration (Configuración de la partición 2) para abrir la página de configuración de la partición 2. Si hay Descarga FCoE, la configuración de la partición 2 (Ilustración 5-18) muestra los parámetros siguientes: ...
Página 99
5–Configuración de inicio previo del adaptador Configuración de las particiones Ilustración 5-18. Partition 2 Configuration: FCoE Offload (Configuración de la partición 2: Descarga FCOE) Para configurar la tercera partición, seleccione Partition 3 Configuration (Configuración de la partición 3) para abrir la página de configuración de la partición 3 (Ilustración 5-19).
5–Configuración de inicio previo del adaptador Configuración de las particiones Para configurar las particiones Ethernet restantes, incluidas las anteriores (si no se han activado para descarga), abra la página para una partición 2 o para una partición mayor (consulte Ilustración 5-20).
Página 101
5–Configuración de inicio previo del adaptador Configuración de las particiones Se requiere volver a instalar el controlador porque las funciones de almacenamiento pueden mantener la enumeración en lugar de vmnicX vmhbaX como se muestra cuando se emite el comando siguiente en el sistema: # esxcfg-scsidevs -a vmnic4 qedf...
Configuración del inicio desde SAN El inicio de SAN permite el despliegue de servidores sin disco en un entorno en el que el disco de inicio se encuentre en almacenamiento conectado a SAN. El servidor (iniciador) se comunica con el dispositivo de almacenamiento (destino) a través de SAN mediante el adaptador de bus de host (HBA) del adaptador de red convergente (CNA) de Marvell.
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN Asistencia integrada y lista para usar iSCSI Tabla 6-1 muestra la asistencia integrada y lista para usar de los sistemas operativos para el inicio iSCSI desde SAN (BFS). Tabla 6-1. Asistencia de inicio desde SAN integrada y lista para usar iSCSI Lista para usar Incluido Asistencia...
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN Para los sistemas operativos Windows y Linux, el inicio iSCSI puede configurarse con dos métodos específicos: iSCSI SW (también conocida como ruta de acceso de no descarga con el iniciador de Microsoft/Open-iSCSI) Siga la guía Dell BIOS para la instalación de software iSCSI.
Página 105
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN Ilustración 6-1. System Setup: Boot Settings (Configuración del sistema: Configuración de inicio) AH0054602-09 M...
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN Activación de NPAR y del iSCSI HBA Para activar NPAR y el iSCSI HBA: En System Setup (Configuración del sistema), en Device Settings (Configuración del dispositivo), seleccione el dispositivo QLogic (Ilustración 6-2).
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN Configuración del destino de almacenamiento La configuración del destino de almacenamiento varía según los proveedores de destino. Para obtener más información sobre la configuración del destino de almacenamiento, consulte la documentación proporcionada por el proveedor. Para configurar el destino de almacenamiento: Elegir el procedimiento correspondiente basándose en su destino de almacenamiento, ya sea:...
Página 108
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN Ilustración 6-3. System Setup: NIC Configuration (Configuración del sistema: Configuración NIC) NOTA El inicio desde SAN solo se admite en el modo NPAR y se configura en UEFI y no en el BIOS heredado. AH0054602-09 M...
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN En la página NIC Configuration (Configuración de NIC) (Ilustración 6-4), para la opción Boot Protocol (Protocolo de inicio), seleccione UEFI iSCSI HBA (requiere el modo NPAR). Ilustración 6-4. System Setup: NIC Configuration, Boot Protocol (Configuración NIC, Protocolo de inicio) NOTA Utilice las opciones Virtual LAN Mode (Modo LAN virtual) y Virtual LAN ID...
Página 110
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN Configuración estática de inicio iSCSI En una configuración estática, debe introducir los datos correspondientes a: Dirección IP del iniciador IQN de iniciador Los parámetros de destino (obtenidos en “Configuración del destino de almacenamiento”...
Página 111
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN En la página iSCSI Configuration (Configuración iSCSI), seleccione iSCSI General Parameters (Parámetros generales iSCSI) (Ilustración 6-6) y, a continuación, pulse INTRO. Ilustración 6-6. System Setup: Selecting General Parameters (Configuración del sistema: Selección de parámetros generales) En la página iSCSI General Parameters (Parámetros generales de iSCSI) (Ilustración 6-7), pulse la tecla de FLECHA HACIA ABAJO para seleccionar...
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN Ilustración 6-7. System Setup: iSCSI General Parameters (Configuración del sistema: Parámetros generales iSCSI) Tabla 6-2. iSCSI General Parameters (Parámetros generales iSCSI) Opción Descripción Esta opción es específica para IPv4. Controla si el software del TCP/IP Parameters via DHCP (Parámetros TCP/IP mediante host de inicio iSCSI adquiere la información sobre la dirección IP...
Página 113
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN Tabla 6-2. iSCSI General Parameters (Parámetros generales iSCSI) (Continuación) Opción Descripción Esta opción es específica para IPv6. Alterna entre IPv4 e IP Version (Versión IP) IPv6. Todos los valores IP se pierden si pasa de una versión de protocolo a la otra.
Página 114
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN Seleccione iSCSI Initiator Parameters (Parámetros del iniciador iSCSI) (Ilustración 6-8) y, a continuación, pulse INTRO. Ilustración 6-8. System Setup: Selecting iSCSI Initiator Parameters (Configuración del sistema: Selección de los parámetros del iniciador iSCSI) En la página iSCSI Initiator Parameters (Parámetros del iniciador iSCSI) (Ilustración 6-9), seleccione los siguientes parámetros y escriba un valor...
Página 115
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN NOTA Para los elementos precedentes con asteriscos (*), tenga en cuenta lo siguiente: La etiqueta cambiará a IPv6 o IPv4 (predeterminado) según la versión IP que se haya definido en la página iSCSI General Parameters (Parámetros generales iSCSI) (Ilustración 6-7 en la página...
Página 116
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN Seleccione iSCSI First Target Parameters (Parámetros de destino primario iSCSI) (Ilustración 6-10) y, a continuación, pulse INTRO. Ilustración 6-10. System Setup: Selecting iSCSI First Target Parameters (Configuración del sistema: Selección de Parámetros de destino primario iSCSI) En la página iSCSI First Target Parameters (Parámetros de destino primario iSCSI), establezca la opción Connect (Conectar) en Enabled (Activado) para el destino iSCSI.
Página 117
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN Ilustración 6-11. System Setup: iSCSI First Target Parameters (Parámetros de destino primario iSCSI) Vuelva a la página iSCSI Boot Configuration (Configuración de inicio de iSCSI) y pulse ESC. AH0054602-09 M...
Página 118
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN Si quiere configurar un segundo dispositivo de destino iSCSI, seleccione iSCSI Second Target Parameters (Parámetros de destino secundario iSCSI) (Ilustración 6-12) e introduzca los valores del parámetro como hizo en el paso 10.
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN Ilustración 6-13. System Setup: Saving iSCSI Changes (Configuración del sistema: Guardar cambios de iSCSI) Una vez que se hayan realizado todos los cambios, reinicie el sistema para aplicarlos a la configuración en ejecución del adaptador. Configuración dinámica de inicio iSCSI En una configuración dinámica, asegúrese de que la información sobre la dirección IP y el destino (o el iniciador) del sistema es proporcionada por un...
Página 120
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN NOTA Al utilizar un servidor DHCP, los valores proporcionados por este servidor sobrescriben las entradas del servidor DNS. Esta anulación sucede incluso cuando los valores proporcionados localmente son válidos y el servidor DHCP no proporciona información sobre el servidor DNS.
Página 121
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN DHCP Vendor ID (Id. de proveedor de DHCP): Lo que corresponda HBA Boot Mode (Modo de inicio de HBA): Lo que corresponda Virtual LAN ID (Id. de LAN virtual): Lo que corresponda ...
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN Pulse ESC para volver a la página iSCSI Boot Configuration (Configuración de inicio de iSCSI). En iSCSI Boot Configuration Menu (Menú de configuración de iSCSI), seleccione iSCSI First Target Parameters (Parámetros de destino primario iSCSI).
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN En la Tabla 6-3 se muestran los parámetros de la Opción 17 de DHCP. Tabla 6-3. Definiciones de los parámetros de la Opción 17 de DHCP Parámetro Definición Una cadena literal "iscsi:"...
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN En la Tabla 6-4 se muestran las subopciones de la opción 43 de DHCP. Tabla 6-4. Definiciones de las subopciones de la Opción 43 de DHCP Subopción Definición Información sobre el destino iSCSI primario en el formato estándar de ruta de acceso de raíz: "iscsi:"<servername>":"<protocol>":"<port>":"<LUN>": "<targetname>"...
Página 125
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN NOTA La opción DHCPv6 standard Root Path (Ruta de raíz estándar de DHCPv6) aún no está disponible. Marvell sugiere que se utilice la Opción 16 o la Opción 17 para el inicio dinámico de iSCSI IPv6. Opción 16 de DHCPv6, opción de clase de proveedor La Opción 16 de DHCPv6 (opción de clase de proveedor) debe estar presente y debe contener una cadena que coincida con su parámetro DHCP Vendor ID (Id.
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN Configuración de vLAN para el inicio iSCSI El tráfico iSCSI en la red se puede aislar en una red vLAN Capa 2 para separarlo del tráfico general. Si es el caso, haga que la interfaz iSCSI del adaptador sea miembro de dicha red vLAN.
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN La información del inicio iSCSI desde SAN para Windows incluye lo siguiente: Antes de empezar Selección del modo de inicio iSCSI preferido Configuración de los parámetros generales iSCSI ...
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN Para establecer los parámetros generales iSCSI en Windows: En la página Main Configuration (Configuración principal), seleccione iSCSI Configuration (Configuración iSCSI) y, a continuación, seleccione iSCSI General Parameters (Parámetros generales de iSCSI). En la página iSCSI General Parameters (Parámetros generales de iSCSI) (consulte la Ilustración 6-7 en la página...
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN iSCSI Name (Nombre de iSCSI). Se corresponde con el nombre del iniciador iSCSI que utilizará el sistema del cliente. CHAP ID (Id. de CHAP) CHAP Secret (Secreto CHAP) NOTA Para los elementos precedentes con asteriscos (*), tenga en cuenta lo siguiente:...
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN NOTA En los parámetros arriba enumerados que tienen un asterisco (*), la etiqueta cambiará a IPv6 o IPv4 (predeterminado) según la versión IP que se haya definido en la página iSCSI General Parameters (Parámetros generales iSCSI), tal como se muestra en la Ilustración 6-7 en la página Si quiere configurar un segundo dispositivo de destino iSCSI, seleccione...
Página 131
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN En la ventana de configuración de Windows (Ilustración 6-17), seleccione el nombre de la unidad en el que instalar el controlador. Ilustración 6-17. Configuración de Windows: Selección de destino de instalación Inyecte los últimos controladores Marvell montando controladores en los soportes virtuales: Haga clic en Load driver (Controlador de carga) y, a continuación,...
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN Repita el paso 4 para cargar el controlador qeios (controlador iSCSI L4 de Marvell). Después de inyectar los controladores qevbd y qeios, haga clic en Next (Siguiente) para iniciar la instalación en el LUN de iSCSI. A continuación, siga las instrucciones que aparecen en la pantalla.
Página 133
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN Si es necesario para su configuración, cargue el disco de actualización del controlador FastLinQ cuando se solicite para discos de controlador adicionales. En caso contrario, si no tiene otros discos de actualización de controlador que instalar, pulse la tecla C.
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN Cree un nuevo archivo emitiendo el siguiente comando: grub.cfg # grub2-mkconfig -o /boot/efi/EFI/redhat/grub.cfg Vuelva a generar ramdisk emitiendo el comando dracut -f y reinicie. NOTA Cuando se instale BFS iSCSI en Linux con una configuración de E/S de múltiples rutas (MPIO) y una ruta única activa, utilice los siguientes valores en el archivo multipath.conf: defaults {...
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN Complete los pasos de instalación especificados por el sistema operativo SLES 12 SP3. Problema conocido en la configuración DHCP En la configuración DHCP para SLES 12 SP3 y posteriores, el primer inicio tras la instalación del SO puede fallar si la dirección IP del iniciador adquirida del servidor DHCP está...
Página 136
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN Inicio desde SAN con un iniciador de software Para iniciar desde SAN utilizando un iniciador de software con Dell OEM Solutions: NOTA El paso anterior es necesario porque los DUD contienen qedi, que enlaza con la PF de iSCSI.
Página 137
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN Migración a iSCSI de descarga para RHEL 6.9/6.10 Para migrar de una instalación iSCSI de software a iSCSI de descarga para RHEL 6.9 o 6.10: Inicie en el sistema operativo iSCSI de no descarga/inicio desde SAN L2. Emita los comandos siguientes para instalar los RPM iscsiuio y Open-iSCSI: # rpm -ivh --force qlgc-open-iscsi-2.0_873.111-1.x86_64.rpm # rpm -ivh --force iscsiuio-2.11.5.2-1.rhel6u9.x86_64.rpm...
Página 138
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN initrd /initramfs-2.6.32-696.el6.x86_64.img kernel /vmlinuz-2.6.32-696.el6.x86_64 ro root=/dev/mapper/vg_prebooteit-lv_root rd_NO_LUKS iscsi_firmware LANG=en_US.UTF-8 rd_NO_MD SYSFONT=latarcyrheb-sun16 crashkernel=auto rd_NO_DM rd_LVM_LV=vg_prebooteit/lv_swap KEYBOARDTYPE=pc KEYTABLE=us rd_LVM_LV=vg_prebooteit/lv_root selinux=0 initrd /initramfs-2.6.32-696.el6.x86_64.img Compile el archivo emitiendo el siguiente comando: initramfs # dracut -f Reinicie el servidor y, a continuación, abra UEFI HII.
Página 139
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN Migración a iSCSI de descarga para SLES 11 SP4 Para migrar de una instalación iSCSI de software a iSCSI de descarga para SLES 11 SP4: Actualice las herramientas Open-iSCSI e iscsiuio a las versiones más recientes disponibles emitiendo los comandos siguientes: # rpm -ivh qlgc-open-iscsi-2.0_873.111.sles11sp4-3.x86_64.rpm --force # rpm -ivh iscsiuio-2.11.5.3-2.sles11sp4.x86_64.rpm --force...
Página 140
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN Ubique y elimine los archivos siguientes: /etc/init.d/boot.d/K01boot.open-iscsi /etc/init.d/boot.open-iscsi Cree una copia de seguridad de initrd y genere un nuevo initrd emitiendo los comandos siguientes. cd /boot/ mkinitrd Reinicie el servidor y, a continuación, abra UEFI HII. En UEFI HII, desactive el inicio iSCSI desde BIOS y, a continuación, active iSCSI HBA o el inicio para los adaptadores de la siguiente forma: Seleccione el puerto del adaptador y, a continuación, seleccione...
Página 141
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN NOTA Para conservar el contenido original del RPM integrado durante la instalación, debe utilizar la opción (en lugar de la opción -ivh -Uvh seguida de la opción --force Recargue todos los servicios de daemon emitiendo el siguiente comando: # systemctl daemon-reload Active los servicios iscsid e iscsiuio (si no están activados) emitiendo los comandos siguientes:...
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN Reemplace el archivo original por el nuevo archivo grub.cfg grub.cfg Compile el archivo emitiendo el siguiente comando: initramfs # dracut -f Reinicie el servidor y, a continuación, abra UEFI HII. En UEFI HII, desactive el inicio iSCSI desde BIOS y, a continuación, active iSCSI HBA o el inicio para los adaptadores de la siguiente forma: Seleccione el puerto del adaptador y, a continuación, seleccione Device Level Configuration (Configuración de nivel de dispositivo).
Página 143
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN Migración y configuración de MPIO a la interfaz descargada para RHEL 6.9/6.10 Para migrar de L2 a L4 y configurar MPIO para iniciar el sistema operativo a través de la interfaz descargada para RHEL 6.9/6.10: Configure la configuración de inicio iSCSI para BFS L2 en ambos puertos del adaptador.
Página 144
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN Vuelva a generar con soporte de múltiples rutas. initramfs # dracut --force --add multipath --include /etc/multipath Reinicie el servidor e inicie en SO con múltiples rutas. NOTA Para que surtan efecto los cambios adicionales en el archivo , debe volver a generar la imagen initrd y reiniciar el /etc/multipath.conf servidor.
Página 145
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN Inicie los servicios de múltiples rutas de la siguiente forma: # /etc/init.d/boot.multipath start # /etc/init.d/multipathd start Ejecute para mostrar la configuración de múltiples multipath –v2 –d rutas con un simulacro. Localice el archivo multipath.conf /etc/multipath.conf NOTA...
Página 146
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN Inicie en el sistema operativo con L2. Actualice las herramientas Open-iSCSI emitiendo los comandos siguientes: # rpm -ivh qlgc-open-iscsi-2.0_873.111.sles12sp1-3.x86_64.rpm --force # rpm -ivh iscsiuio-2.11.5.5-6.sles12sp1.x86_64.rpm --force Edite el archivo cambiando el parámetro /etc/default/grub y, a continuación, guarde el rd.iscsi.ibft...
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN Reinicie el sistema. Ahora el sistema operativo se iniciará a través de la interfaz de descarga. NOTA Para que surtan efecto los cambios adicionales en el archivo , debe volver a generar la imagen initrd y reiniciar el /etc/multipath.conf servidor.
Página 148
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN Complete la página Device Level Configuration (Configuración de nivel de dispositivo) (consulte la Ilustración 6-19) de la siguiente forma: Para Virtualization Mode (Modo de virtualización), seleccione None (Ninguno), NPar o NPar_EP para la instalación de IBFT a través de la interfaz NIC.
Página 149
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN Complete la página de configuración de la partición 2 (consulte la Ilustración 6-20) de la siguiente forma: Para FCoE Mode (Modo FCoE), seleccione Disabled (Desactivado). Para iSCSI Offload Mode (Modo de descarga iSCSI), seleccione Disabled (Desactivado).
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN Configuración del BIOS del sistema para inicio iSCSI (L2) Para configurar el BIOS del sistema en VMware: En la página System BIOS Settings (Configuración del BIOS del sistema), seleccione Boot Settings (Configuración del BIOS). Complete la página Boot Settings (Configuración de inicio) según aparecen en la Ilustración...
Página 151
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN Para VLAN, seleccione Disabled (Desactivado) (el valor predeterminado) o Enabled (Activado) (si desea probar IBFT con una vLAN). Para DHCP, seleccione Enabled (Activado) (si la dirección IP es del servidor DHCP) o Disabled (Desactivado) (para usar la configuración IP estática).
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN Ilustración 6-23. NIC integrado: BIOS del sistema, Configuración de conexión 1 (destino) para VMware Guarde todos los cambios de configuración y reinicie el servidor. Durante el arranque del sistema, pulse la tecla F11 para iniciar el Administrador de arranque.
Página 153
6–Configuración del inicio desde SAN Inicio iSCSI desde SAN En la ventana Select a Disk To Install Or Upgrade (Seleccionar un disco para instalar o actualizar), en Storage Device (Dispositivo de almacenamiento), seleccione el disco 3PARdata W y, a continuación, pulse la tecla INTRO.
6–Configuración del inicio desde SAN Inicio FCoE desde SAN Una vez finalizada correctamente la instalación del sistema operativo ESXi, el sistema se reinicia en el sistema operativo, tal como se muestra en la Ilustración 6-25. Ilustración 6-25. Inicio iSCSI de WMware desde SAN correcto Inicio FCoE desde SAN Marvell Adaptadores de la serie 41xxx admiten el inicio FCoE, lo que permite el arranque de redes de sistemas operativos en sistemas sin disco.
6–Configuración del inicio desde SAN Inicio FCoE desde SAN Asistencia integrada y lista para usar FCoE Tabla 6-6 muestra la asistencia integrada y lista para usar de los sistemas operativos para el inicio FCoE desde SAN (BFS). Tabla 6-6. Asistencia de inicio desde SAN integrada y lista para usar FCoE Incluido Lista para usar...
6–Configuración del inicio desde SAN Inicio FCoE desde SAN Especificación del protocolo de inicio del BIOS El inicio FCoE desde SAN solo se admite en modo UEFI. Establezca la plataforma en modo de inicio (protocolo) utilizando la configuración BIOS del sistema en UEFI.
Página 157
6–Configuración del inicio desde SAN Inicio FCoE desde SAN En la página Device Settings (Configuración del dispositivo), seleccione el adaptador FastLinQ de Marvell (Ilustración 6-27). Ilustración 6-27. System Setup: Device Settings, Port Selection (Configuración del sistema: Configuración del dispositivo, Selección del puerto) AH0054602-09 M...
Página 158
6–Configuración del inicio desde SAN Inicio FCoE desde SAN En la Main Configuration Page (Página de configuración principal), seleccione NIC Configuration (Configuración NIC) (Ilustración 6-28) y, a continuación, pulse INTRO. Ilustración 6-28. System Setup: NIC Configuration (Configuración del sistema: Configuración NIC) En la página NIC Configuration (Configuración NIC), seleccione Boot Mode (Modo de inicio) y, a continuación, pulse INTRO para seleccionar FCoE como modo de inicio preferido.
Página 159
6–Configuración del inicio desde SAN Inicio FCoE desde SAN Ilustración 6-29. System Setup: FCoE Mode Enabled (Configuración del sistema: Modo FCoE activado) Para configurar los parámetros de inicio FCoE: En la Device UEFI HII Main Configuration Page (Página de configuración principal de la HII del dispositivo), seleccione FCoE Configuration (Configuración FCoE) y, a continuación, pulse INTRO.
Página 160
6–Configuración del inicio desde SAN Inicio FCoE desde SAN Ilustración 6-30. System Setup: FCoE General Parameters (Configuración del sistema: Parámetros generales FCoE) Vuelva a la página FCoE Configuration (configuración FCoE). Pulse ESC y, a continuación,seleccione FCoE Target Parameters (Parámetros de destino FCoE). Pulse INTRO.
6–Configuración del inicio desde SAN Inicio FCoE desde SAN Ilustración 6-31. System Setup: FCoE General Parameters (Configuración del sistema: Parámetros generales FCoE) Configuración del inicio FCoE desde SAN en Windows La información relativa a Windows sobre el inicio FCoE desde SAN incluye: ...
6–Configuración del inicio desde SAN Inicio FCoE desde SAN Para configurar el inicio FCoE en Windows Server 2012 R2/2016: Retire los discos duros locales en el sistema que se iniciará (sistema remoto). Prepare el soporte de instalación del sistema operativo Windows siguiendo los pasos de integración de la solución que se describen en “Inyección (Integración de la solución) de los controladores del adaptador en los...
6–Configuración del inicio desde SAN Inicio FCoE desde SAN Volcado para caída del sistema FCoE en Windows Actualmente, la función de volcado de memoria solo está admitida para el inicio FCoE con los Adaptadores de la serie 41xxx FastLinQ. No es necesario configurar nada más para configurar la generación del volcado de memoria FCoE cuando se utiliza el modo de inicio FCoE.
6–Configuración del inicio desde SAN Inicio FCoE desde SAN Requisitos previos para el inicio FCoE desde SAN de Linux Lo siguiente es necesario para que el inicio FCoE desde SAN de Linux funcione correctamente con la controladora 41xxx Marvell FastLinQ de 10/25GbE. General Ya no es necesario utilizar las pestañas de disco FCoE en los instaladores Red Hat y SUSE porque las interfaces FCoE no se exponen desde la interfaz de red y...
6–Configuración del inicio desde SAN Inicio FCoE desde SAN Configuración del inicio FCoE desde SAN en VMware Para la instalación del inicio desde SAN de VMware ESXi 6.5/6.7, Marvell requiere que se utilice una imagen ISO ESXi personalizada que se crea con el último paquete del adaptador de red convergente Marvell inyectado.
6–Configuración del inicio desde SAN Inicio FCoE desde SAN Ilustración 6-32 muestra un ejemplo. Ilustración 6-32. Cuadro de diálogo ESXi-Customizer (Personalizador ESXi) Grabe un DVD que contenga el archivo de imagen ISO personalizado ubicado en el directorio de trabajo especificado en el paso Utilice un nuevo DVD para instalar el sistema operativo ESXi.
Página 167
6–Configuración del inicio desde SAN Inicio FCoE desde SAN En la ventana que muestra la lista de discos disponibles para la instalación, el disco de destino FCOE debería estar visible porque el paquete del adaptador de red convergente inyectado está dentro del ISO ESXi personalizado.
Página 168
6–Configuración del inicio desde SAN Inicio FCoE desde SAN Ilustración 6-34 ofrece dos ejemplos. Ilustración 6-34. Opciones de inicio USB para VMware AH0054602-09 M...
Configuración de RoCE En este capítulo se describe la configuración de RDMA sobre Ethernet convergente (RoCE v1 y v2) en el Adaptador de la serie 41xxx, el conmutador Ethernet y el host de Windows, Linux o VMware, lo que incluye: ...
7–Configuración de RoCE Planificación para RoCE Tabla 7-1. Compatibilidad del SO con RoCE v1, RoCE v2, iWARP, iSER y OFED (Continuación) Sistema operativo Incluido OFED-4.17-1 GA Windows Server 2016 Windows Server 2019 RoCE v1, RoCE v2, iWARP RHEL 7.6 RoCE v1, RoCE v2, iWARP, iSER RoCE v1, RoCE v2, iWARP RHEL 7.7 RoCE v1, RoCE v2, iWARP, iSER...
7–Configuración de RoCE Prepación de un adaptador Las aplicaciones OFED y RDMA que dependan de libibverbs, también requieren la biblioteca de espacio de usuario RDMA de Marvell, libqedr. Instale libqedr mediante libqedr RPM o paquetes de origen. RoCE solo admite little endian. Prepación de un adaptador Siga los siguientes pasos para activar DCBX y especificar la prioridad de RoCE mediante la aplicación de administración HII.
7–Configuración de RoCE Preparación del conmutador Ethernet Configuración del conmutador Ethernet Cisco Nexus 6000 Los pasos para la configuración del conmutador Ethernet Cisco Nexus 6000 para RoCE incluyen la configuración de mapas de clase, la configuración de mapas de políticas, la aplicación de la política, y la asignación de un Id. de vLAN al puerto de conmutador.
7–Configuración de RoCE Preparación del conmutador Ethernet Aplique la nueva política en el nivel del sistema de la siguiente manera: switch(config)# system qos switch(config)# service-policy type qos input roce switch(config)# service-policy type queuing output roce switch(config)# service-policy type queuing input roce switch(config)# service-policy type network-qos roce Asigne un Id.
Página 174
7–Configuración de RoCE Preparación del conmutador Ethernet Configure la prioridad de PFC para que coincida con el número de prioridad de clase de tráfico del adaptador (5). Dell(conf-dcbmap-roce)# priority-pgid 0 0 0 0 0 1 0 0 Compruebe el grupo de prioridad de configuración de mapa DCB. Dell(conf-dcbmap-roce)# do show qos dcb-map roce ----------------------- State...
Página 175
7–Configuración de RoCE Preparación del conmutador Ethernet Interface twentyFiveGigE 1/8/1 Admin mode is on Admin is enabled, Priority list is 5 Remote is enabled, Priority list is 5 Remote Willing Status is enabled Local is enabled, Priority list is 5 Oper status is init PFC DCBX Oper status is Up State Machine Type is Feature...
7–Configuración de RoCE Configuración de RoCE en el adaptador para Windows Server Configuración de RoCE en el adaptador para Windows Server La configuración de RoCE en el adaptador para el host de Windows Server incluye la activación de RoCE en el adaptador y la comprobación del tamaño de MTU directa de red.
Página 177
7–Configuración de RoCE Configuración de RoCE en el adaptador para Windows Server Ilustración 7-1 muestra un ejemplo de cómo configurar un valor de propiedad. Ilustración 7-1. Configuración de las propiedades de RoCE Al utilizar Windows PowerShell, compruebe si RDMA está activado en el adaptador.
Página 178
7–Configuración de RoCE Configuración de RoCE en el adaptador para Windows Server Al utilizar Windows PowerShell, compruebe si está NetworkDirect activado en el sistema operativo host. El comando muestra que está Get-NetOffloadGlobalSetting NetworkDirect activado. PS C:\Users\Administrators> Get-NetOffloadGlobalSetting ReceiveSideScaling : Activado ReceiveSegmentCoalescing : Activado Chimney...
7–Configuración de RoCE Configuración de RoCE en el adaptador para Windows Server Visualización de Contadores RDMA El procedimiento siguiente también se aplica a iWARP. Para visualizar contadores RDMA para RoCE: Inicie el Supervisor de rendimiento. Abra el cuadro de diálogo Add Counters (Agregar contadores). La Ilustración 7-2 muestra un ejemplo.
Página 180
7–Configuración de RoCE Configuración de RoCE en el adaptador para Windows Server NOTA Si los contadores RDMA de Marvell no aparecen en el cuadro de diálogo del Monitor de rendimiento de Agregar contadores, agréguelos manualmente emitiendo el siguiente comando desde la ubicación del controlador: Lodctr /M:qend.man Seleccione uno de los siguientes tipos de contadores:...
7–Configuración de RoCE Configuración de RoCE en el adaptador para Windows Server Ilustración 7-3 muestra tres ejemplos del resultado de supervisión del contador. Ilustración 7-3. Monitorización de rendimiento: Contadores FastLinQ de Marvell Tabla 7-3 proporciona información acerca de los contadores de errores. Tabla 7-3.
Página 182
7–Configuración de RoCE Configuración de RoCE en el adaptador para Windows Server Tabla 7-3. Contadores de errores RDMA de FastLinQ de Marvell (Continuación) ¿Se ¿Se Contadores de aplica Descripción aplica a Solución de problemas errores RDMA iWARP? RoCE? El respondedor ha devuelto Sí...
Página 183
7–Configuración de RoCE Configuración de RoCE en el adaptador para Windows Server Tabla 7-3. Contadores de errores RDMA de FastLinQ de Marvell (Continuación) ¿Se ¿Se Contadores de aplica Descripción aplica a Solución de problemas errores RDMA iWARP? RoCE? Se ha producido un error de Sí...
Página 184
7–Configuración de RoCE Configuración de RoCE en el adaptador para Windows Server Tabla 7-3. Contadores de errores RDMA de FastLinQ de Marvell (Continuación) ¿Se ¿Se Contadores de aplica Descripción aplica a Solución de problemas errores RDMA iWARP? RoCE? Las solicitudes del trabajo Sí...
7–Configuración de RoCE Configuración de RoCE en el adaptador para Windows Server Tabla 7-3. Contadores de errores RDMA de FastLinQ de Marvell (Continuación) ¿Se ¿Se Contadores de aplica Descripción aplica a Solución de problemas errores RDMA iWARP? RoCE? El respondedor ha detectado Sí...
Página 186
7–Configuración de RoCE Configuración de RoCE en el adaptador para Windows Server Configure Windows Hyper-V para VF RDMA: Active SR-IOV en HII y en la pestaña Advanced (Avanzado) del Administrador de dispositivos de Windows. Abra el Windows Hyper-V Manager (Administrador de Hyper-V de Windows) en el host.
Página 187
7–Configuración de RoCE Configuración de RoCE en el adaptador para Windows Server Haga clic en el botón External network (Red externa) y, a continuación, seleccione el adaptador adecuado. Haga clic en Enable single-root I/O virtualization (SR-IOV) (Activar virtualización de E/S de raíz única [SR-IOV]).
Página 188
7–Configuración de RoCE Configuración de RoCE en el adaptador para Windows Server Cree una VM y abra la configuración de VM. Ilustración 7-6 muestra un ejemplo. Ilustración 7-6. Configuración de VM Seleccione Add Hardware (Agregar hardware) y, a continuación, seleccione Network Adapter (Adaptador de red) para asignar los adaptadores de red virtual (VMNIC) a la VM.
Página 189
7–Configuración de RoCE Configuración de RoCE en el adaptador para Windows Server Active VLAN en el adaptador de red. Ilustración 7-7 muestra un ejemplo. Ilustración 7-7. Activación de VLAN en el adaptador de red AH0054602-09 M...
Página 190
7–Configuración de RoCE Configuración de RoCE en el adaptador para Windows Server Expanda la configuración del adaptador de red. En Single-root I/O Virtualization (Virtualización de E/S de raíz única), seleccione Enable SR-IOV (Activar SR-IOV) para activar las capacidades SR-IOV para VMNIC.
Página 191
7–Configuración de RoCE Configuración de RoCE en el adaptador para Windows Server Actualice los controladores de Marvell en la VM iniciando la VM e instalando los últimos controladores que utiliza el superinstalador de Windows en el CD de Marvell. Ilustración 7-9 muestra un ejemplo.
Página 192
7–Configuración de RoCE Configuración de RoCE en el adaptador para Windows Server Active RMDA en el dispositivo de red de Microsoft asociado con VF dentro de la VM. Ilustración 7-10 muestra un ejemplo. Ilustración 7-10. Activación de RDMA en VMNIC Inicie el tráfico RMDA de VM.
7–Configuración de RoCE Configuración de RoCE en el adaptador para Windows Server Compruebe que el tráfico RDMA se esté ejecutando. Ilustración 7-11 ofrece un ejemplo. Ilustración 7-11. Tráfico de RDMA Limitaciones La RDMA de VF tiene las siguientes limitaciones: VF RDMA solo es compatible con dispositivos basados en 41xxx. ...
7–Configuración de RoCE Configuración de RoCE en el adaptador para Linux En algunas plataformas de servidor más antiguas, los dispositivos VF podrían no estar enumerados para una de las funciones PCI de NIC (PF). Esta limitación se debe al aumento de los requisitos del registro de dirección base (BAR) de PCI para admitir VF RDMA, lo que implica que el SO/BIOS no puede asignar el BAR necesario para cada VF.
7–Configuración de RoCE Configuración de RoCE en el adaptador para Linux yum install tcl tcl-devel tk zlib-devel libibverbs libibverbs-devel NOTA Durante la instalación, si ya ha seleccionado los paquetes previamente mencionados, no necesitará volver a instalarlos. La OFED integrada y los paquetes de compatibilidad pueden variar en función de la versión del sistema operativo.
7–Configuración de RoCE Configuración de RoCE en el adaptador para Linux Comprobación de la configuración de RoCE en Linux Después de instalar OFED, instalar el controlador para Linux y cargar los controladores de RoCE, compruebe que los dispositivos RoCE hayan sido detectados en todos los sistemas operativos Linux.
Página 197
7–Configuración de RoCE Configuración de RoCE en el adaptador para Linux Configure la dirección IP y active el puerto mediante un método de configuración como, por ejemplo, ifconfig. Por ejemplo: # ifconfig ethX 192.168.10.10/24 up Emita el comando . Por cada función PCI, debería ver un ibv_devinfo independiente, como se muestra en el siguiente ejemplo: hca_id...
7–Configuración de RoCE Configuración de RoCE en el adaptador para Linux A continuación se muestran ejemplos de pruebas de ping pong correctas en el servidor y el cliente. Ping del servidor: root@captain:~# ibv_rc_pingpong -d qedr0 -g 0 local address: LID 0x0000, QPN 0xff0000, PSN 0xb3e07e, GID fe80::20e:1eff:fe50:c7c0 remote address: LID 0x0000, QPN 0xff0000, PSN 0x934d28, GID fe80::20e:1eff:fe50:c570...
7–Configuración de RoCE Configuración de RoCE en el adaptador para Linux NOTA El valor de GID predeterminado es cero (0) para la configuración fondo con fondo o de pausa. Para configuraciones de servidor y conmutador, debe identificar el valor de GID correcto. Si utiliza un conmutador, consulte los documentos de configuración del conmutador correspondiente para obtener la configuración correcta.
7–Configuración de RoCE Configuración de RoCE en el adaptador para Linux GID[ fe80:0000:0000:0000:020e:1eff:fec4:1b20 GID[ 0000:0000:0000:0000:0000:ffff:1e01:010a GID[ 0000:0000:0000:0000:0000:ffff:1e01:010a GID[ 3ffe:ffff:0000:0f21:0000:0000:0000:0004 GID[ 3ffe:ffff:0000:0f21:0000:0000:0000:0004 GID[ 0000:0000:0000:0000:0000:ffff:c0a8:6403 GID[ 0000:0000:0000:0000:0000:ffff:c0a8:6403 Comprobación del índice GID de RoCE v1 o v2, y de la dirección desde los parámetros sys y class Utilice una de las siguientes opciones para comprobar el Índice de GID de RoCE v1 o RoCE v2 y la dirección desde los parámetros sys y class: ...
7–Configuración de RoCE Configuración de RoCE en el adaptador para Linux NOTA Debe especificar los valores de índice GID para RoCE v1 o RoCE v2 en función de la configuración del servidor o el conmutador (Pause/PFC). Utilice el índice GID para la dirección local IPv6 de enlace, direcciones IPv4, o IPv6 Para utilizar tramas etiquetadas vLAN para el tráfico RoCE, debe especificar los valores de índice GID derivados de la dirección IPv4 o IPv6 de vLAN.
Página 202
7–Configuración de RoCE Configuración de RoCE en el adaptador para Linux Para comprobar RoCE v2 a través de diferentes subredes: Establezca la configuración de ruta para el servidor y el cliente mediante la configuración de DCBX-PFC. Parámetros del sistema: Server VLAN IP (IP de VLAN del servidor): 192.168.100.3 y Gateway (Puerta de acceso): 192.168.100.1 Client VLAN IP (IP de VLAN de cliente): 192.168.101.3 y Gateway...
Página 203
7–Configuración de RoCE Configuración de RoCE en el adaptador para Linux Configuración del conmutador del servidor: Ilustración 7-12. Configuración del conmutador, Servidor Configuración del conmutador del cliente: Ilustración 7-13. Configuración del conmutador, Cliente AH0054602-09 M...
7–Configuración de RoCE Configuración de RoCE en el adaptador para Linux Configuración de los parámetros de RoCE v1 o RoCE v2 para las aplicaciones RDMA_CM Para configurar RoCE, utilice los siguientes scripts del paquete de origen FastLinQ. # ./show_rdma_cm_roce_ver.sh qedr0 is configured to IB/RoCE v1 qedr1 is configured to IB/RoCE v1 # ./config_rdma_cm_roce_ver.sh v2 configured rdma_cm for qedr0 to RoCE v2...
7–Configuración de RoCE Configuración de RoCE en el adaptador para Linux Tabla 7-4 enumera las combinaciones SO de Linux compatibles. Tabla 7-4. SO de Linux compatible para VF RDMA SO invitado RHEL RHEL RHEL SLES12 SLES15 SLES15 Hipervisor Sí Sí Sí...
Página 206
7–Configuración de RoCE Configuración de RoCE en el adaptador para Linux vf 1 MAC 00:00:00:00:00:00, spoof checking off, link-state auto Asignar la dirección MAC estática: ip link set dev p6p1 vf 0 mac 3c:33:44:55:66:77 ip link set dev p6p1 vf 1 mac 3c:33:44:55:66:89 #ip link show 14: p6p1: <BROADCAST,MULTICAST,UP,LOWER_UP>...
7–Configuración de RoCE Configuración de RoCE en el adaptador para Linux # ibv_devices device node GUID ------ ---------------- qedr0 1602ecfffececfa0 qedr1 1602ecfffececfa1 qedr_vf0 b81aadfffe088900 qedr_vf1 944061fffe49cd68 Número de VF compatibles con RDMA Para Adaptadores de la serie 41xxx, se comparte el número de VF para L2 y RDMA según la disponibilidad de recursos.
7–Configuración de RoCE Configuración de RoCE en el adaptador para VMware ESX Limitaciones La RDMA de VF tiene las siguientes limitaciones: No hay compatibilidad iWARP No hay compatibilidad NPAR El SO Cross no es compatible; por ejemplo, un hipervisor Linux no puede usar un SO invitado de Windows (VM) ...
7–Configuración de RoCE Configuración de RoCE en el adaptador para VMware ESX NOTA Asignar velocidades de Ethernet a velocidades de RDMA no es siempre correcto, porque los valores que se pueden especificar mediante el ® controlador RoCE están alineados con Infiniband Por ejemplo, si RoCE está...
7–Configuración de RoCE Configuración de RoCE en el adaptador para VMware ESX Por ejemplo: # esxcli network vswitch standard add -v roce_vs Esto crea un nuevo conmutador virtual llamado roce_vs. Para asociar el puerto NIC de Marvell a vSwitch, emita el siguiente comando: # esxcli network vswitch standard uplink add -u <uplink device>...
7–Configuración de RoCE Configuración de RoCE en el adaptador para VMware ESX Por ejemplo: # esxcfg-vswitch -m 4000 roce_vs # esxcli rdma device list Name Driver State Speed Paired Uplink Description ------- ------- ------ ---- ------- ------------- ------------------------------- vmrdma0 qedrntv Active 2048 25 Gbps...
7–Configuración de RoCE Configuración de RoCE en el adaptador para VMware ESX Completion queues allocated: 1 Completion queue events: 0 Shared receive queues allocated: 0 Shared receive queue events: 0 Protection domains allocated: 1 Memory regions allocated: 3 Address handles allocated: 0 Memory windows allocated: 0 Configuración de un dispositivo RDMA paravirtual (PVRDMA) Consulte la documentación de VMware (por ejemplo,...
Página 213
7–Configuración de RoCE Configuración de RoCE en el adaptador para VMware ESX Ilustración 7-16 muestra un ejemplo. Ilustración 7-16. Configuring a New Distributed Switch (Configurar un nuevo conmutador distribuido) Configurar un nuevo conmutador virtual distribuido como sigue: En el cliente VMware vSphere Web Client, expanda el nodo RoCE en el panel izquierdo de la ventana del navegador.
Página 214
7–Configuración de RoCE Configuración de RoCE en el adaptador para VMware ESX Ilustración 7-17 muestra un ejemplo. Ilustración 7-17. Asignación de un vmknic en PVRDMA Establezca la regla del firewall para el PVRDMA: Haga clic con el botón derecho en un host, y después haga clic en Settings (Configuración).
Página 215
7–Configuración de RoCE Configuración de RoCE en el adaptador para VMware ESX Ilustración 7-18 muestra un ejemplo. Ilustración 7-18. Cómo establecer las reglas del Firewall Configure la VM para PVRDMA como sigue: Instale los siguientes sistemas operativos invitados compatibles: RHEL 7.5, 7.6 y 8.0 Instale OFED4.17-1.
7–Configuración de RoCE Configuración de DCQCN Configuración de DCQCN Data Center Quantized Congestion Notification (DCQCN) es una característica que determina cómo el receptor RoCE notifica a un transmisor que un conmutador entre ellos ha proporcionado una notificación de congestión explícita (punto de notificación) y cómo un transmisor reacciona a dicha notificación (punto de reacción).
7–Configuración de RoCE Configuración de DCQCN VLAN Priority (Prioridad de vLAN) es un campo en la cabecera de vLAN L2. El campo son los tres MSB de la etiqueta de vLAN. PFC (control de flujo basado en la prioridad) es un mecanismo de control de flujo que se aplica al tráfico que lleva una prioridad de vLAN específica.
7–Configuración de RoCE Configuración de DCQCN DCQCN soluciona todos estos inconvenientes. La ECN ofrece indicación de congestión al punto de reacción. El punto de reacción envía un paquete CNP al transmisor, que reacciona reduciendo su velocidad de transmisión y evitando la congestión.
7–Configuración de RoCE Configuración de DCQCN Establecer DSCP en el tráfico RDMA Utilice el nodo rdma_glob_dscp para controlar DSCP. Por ejemplo, para establecer DSCP en el tráfico RoCE con prioridad 5, emita el siguiente comando: ./debugfs.sh -n eth0 -t rdma_glob_dscp 6 Este comando es necesario normalmente si está...
7–Configuración de RoCE Configuración de DCQCN Tabla 7-5. Parámetros de algoritmo de DCQCN (Continuación) Parámetro Descripción y valores Prioridad de vLAN que se utilizará en CNP. El dcqcn_cnp_vlan_priority rango de valores está entre 0..7. La descarga FCoE utiliza 3 y la TLV de descarga iSCSI normalmente utiliza 4.
7–Configuración de RoCE Configuración de DCQCN # This example is using two DCBX traffic class priorities to better demonstrate DCQCN in operation debugfs.sh -n ens6f0 -t dscp_pfc_enable 1 debugfs.sh -n ens6f0 -t dscp_pfc_set 20 5 debugfs.sh -n ens6f0 -t dscp_pfc_set 22 6 # static DCB configurations.
Configuración de iWARP El protocolo RDMA de área amplia de Internet (iWARP) es un protocolo para redes de equipos que implementa RDMA para transferir datos de forma eficiente a través de redes IP. El iWARP está diseñado para diversos entornos, incluidas redes LAN, redes de almacenamiento, redes de centros de datos y redes de áreas amplias (WAN).
8–Configuración de iWARP Configuración de iWARP en Windows En la página NIC Configuration (Configuración NIC): Establezca NIC + RDMA Mode (NIC + Modo RDMA) en Enabled (Activado). Establezca RDMA Protocol Support (Compatibilidad de protocolo RDMA) RoCE/iWARP o iWARP. Haga clic en Back (Atrás). En la Main Configuration Page (Página de configuración principal), haga clic en Finish (Finalizar).
Página 224
8–Configuración de iWARP Configuración de iWARP en Windows Seleccione Network Direct Functionality (Funcionalidad directa de red) y, a continuación, seleccione Enabled (Activado) en el Value (Valor). Seleccione NetworkDirect Technology (Tecnología NetworkDirect) y, a continuación, seleccione iWARP para Value (Valor).
Página 225
8–Configuración de iWARP Configuración de iWARP en Windows Ilustración 8-3 muestra un ejemplo. Ilustración 8-3. Perfmon: Add Counters (Agregar contadores) AH0054602-09 M...
Página 226
8–Configuración de iWARP Configuración de iWARP en Windows Si se está ejecutando el tráfico iWARP, los contadores tendrán el aspecto que se muestra en el ejemplo de la Ilustración 8-4. Ilustración 8-4. Perfmon: Comprobación del tráfico iWARP NOTA Para obtener más información sobre cómo visualizar los contadores del RDMA de Marvell en Windows, consulte “Visualización de Contadores RDMA”...
8–Configuración de iWARP Configuración de iWARP en Linux Kernel 56 Connection 192.168.11.20:15903 192.168.11.10:445 Kernel 56 Connection 192.168.11.20:16159 192.168.11.10:445 Kernel 56 Connection 192.168.11.20:15903 192.168.11.10:445 Kernel 60 Listener [fe80::e11d:9ab5:a47d:4f0a%56]:445 NA Kernel 60 Listener 192.168.11.20:445 Kernel 60 Listener [fe80::71ea:bdd2:ae41:b95f%60]:445 NA Kernel 60 Listener 192.168.11.20:16159 192.168.11.10:445 Configuración de iWARP en Linux Marvell Adaptadores de la serie 41xxx compatibles con iWARP en las Open...
8–Configuración de iWARP Configuración de iWARP en Linux Utilice la sintaxis de comandos siguiente para cambiar el protocolo RDMA mediante la carga del controlador con una Id. PCI de interfaz de puerto ) y un valor de protocolo RDMA (p). xx:xx.x # modprobe -v qed rdma_protocol_map=<xx:xx.x-p>...
8–Configuración de iWARP Configuración de iWARP en Linux Emita el comando y, a continuación, compruebe el tipo de ibv_devinfo transporte. Si el comando se realiza correctamente, cada función PCI mostrará un distinto. Por ejemplo (si comprueba el segundo puerto del hca_id adaptador de dos puertos anterior): [root@localhost ~]# ibv_devinfo -d qedr1...
8–Configuración de iWARP Configuración de iWARP en Linux NVMe-oF (para obtener más información, consulte el Capítulo 13 Configuración de NVMe-oF con RDMA) Ejecución de Perftest para iWARP Todas las herramientas perftest se admiten en el tipo de transporte iWARP. Debe ejecutar las herramientas utilizando el administrador de conexiones RDMA (con la opción Ejemplo:...
8–Configuración de iWARP Configuración de iWARP en Linux NOTA Para aplicaciones de latencia (enviar/escribir), si la versión de perftest es la última (por ejemplo, ), utilice perftest-3.0-0.21.g21dc344.x86_64.rpm el valor de tamaño de línea admitido: 0-128 Configuración de NFS-RDMA NFS-RDMA para iWARP incluye pasos de configuración tanto para el servidor como para el cliente.
Página 232
8–Configuración de iWARP Configuración de iWARP en Linux Para configurar el cliente NFS: NOTA Este procedimiento para la configuración del cliente NFS también se aplica a RoCE. Cree un directorio nfs-client y otorgue permiso emitiendo los siguientes comandos: # mkdir /tmp/nfs-client # chmod 777 /tmp/nfs-client Cargue el módulo xprtrdma del siguiente modo: # modprobe xprtrdma...
Configuración de iSER En este capítulo se describen los procedimientos para configurar extensiones de iSCSI para RDMA (iSER) para Linux (RHEL y SLES) y VMware ESXi 6.7, lo que incluye: Antes de empezar “Configuración de iSER para RHEL” en la página 207 “Configuración de iSER para SLES 12 y posterior”...
9–Configuración de iSER Configuración de iSER para RHEL Configuración de iSER para RHEL Para configurar iSER para RHEL: Instale OFED integrada tal como se explica en “Configuración de RoCE para RHEL” en la página 167. NOTA Las OFED listas para utilizar no son compatibles con iSER porque el módulo ib_isert no está...
Página 235
9–Configuración de iSER Configuración de iSER para RHEL Ilustración 9-1 muestra un ejemplo de un ping RDMA correcto. Ilustración 9-1. Ping RDMA correcto Puede utilizar un destino TCM-LIO de Linux para probar iSER. La configuración es la misma para cualquier destino iSCSI, salvo que emita el comando en los portales correspondientes.
Página 236
9–Configuración de iSER Configuración de iSER para RHEL Para cambiar el modo de transporte a iSER, emita el comando . Por ejemplo: iscsiadm iscsiadm -m node -T iqn.2015-06.test.target1 -o update -n iface.transport_name -v iser Para iniciar sesión o conectar con el destino iSER, emita el comando .
9–Configuración de iSER Configuración de iSER para SLES 12 y posterior Ilustración 9-4. Comprobación de nuevo dispositivo iSCSI Configuración de iSER para SLES 12 y posterior Puesto que targetcli no está integrado en SLES 12 y posterior, que debe seguir el siguiente procedimiento.
9–Configuración de iSER Uso de iSER con iWARP en RHEL y SLES Antes de configurar los destinos de iSER, configure las interfaces NIC y ejecute el tráfico de L2 y RoCE tal como se describe en el paso 7 de la página 170.
Página 239
9–Configuración de iSER Uso de iSER con iWARP en RHEL y SLES Ilustración 9-5 muestra la configuración de destino para LIO. Ilustración 9-5. Configuración de destino LIO Para configurar un iniciador para iWARP: Para detectar el destino LIO de iSER utilizando el puerto 3261, emita el comando como se muestra a continuación: iscsiadm...
9–Configuración de iSER Optimización del rendimiento de Linux Optimización del rendimiento de Linux Tenga en cuenta las siguientes mejoras en la configuración del rendimiento de Linux descritas en esta sección. Configuración de las CPU en modo de rendimiento máximo ...
9–Configuración de iSER Configuración de iSER para ESXi 6.7 Configuración de los parámetros de afinidad de IRQ En el siguiente ejemplo se establecen los núcleos de CPU 0, 1, 2 y 3 para interrumpir la solicitud (IRQ) XX, YY, ZZ y XYZ respectivamente. Realice estos pasos para cada IRQ asignada a un puerto (el valor predeterminado es ocho colas por puerto) systemctl disable irqbalance...
9–Configuración de iSER Configuración de iSER para ESXi 6.7 Interface Port Group/DVPort/Opaque Network IP Family IP Address Netmask Broadcast MAC Address TSO MSS Enabled Type NetStack vmk0 Management Network IPv4 172.28.12.94 255.255.240.0 172.28.15.255 e0:db:55:0c:5f:94 1500 65535 true DHCP defaultTcpipStack vmk0 Management Network IPv6 fe80::e2db:55ff:fe0c:5f94...
Página 243
9–Configuración de iSER Configuración de iSER para ESXi 6.7 esxcli network vswitch standard uplink add -u vmnic5 -v vSwitch_iser1 esxcli network vswitch standard portgroup add -p "rdma_group1" -v vSwitch_iser1 esxcli network ip interface add -i vmk1 -p "rdma_group1" esxcli network ip interface ipv4 set -i vmk1 -I 192.168.10.100 -N 255.255.255.0 -t static esxcfg-vswitch -p "rdma_group1"...
Página 244
9–Configuración de iSER Configuración de iSER para ESXi 6.7 Indique el destino adjunto del siguiente modo: esxcfg-scsidevs -l mpx.vmhba0:C0:T4:L0 Device Type: CD-ROM Size: 0 MB Display Name: Local TSSTcorp CD-ROM (mpx.vmhba0:C0:T4:L0) Multipath Plugin: NMP Console Device: /vmfs/devices/cdrom/mpx.vmhba0:C0:T4:L0 Devfs Path: /vmfs/devices/cdrom/mpx.vmhba0:C0:T4:L0 Vendor: TSSTcorp Model: DVD-ROM SN-108BB Revis: D150...
Configuración iSCSI Este capítulo ofrece la siguiente información sobre la configuración iSCSI: Inicio iSCSI “Descarga de iSCSI en Windows Server” en la página 219 “Descarga de iSCSI en entornos Linux” en la página 229 NOTA Es posible que algunas características de iSCSI no se puedan activar completamente en esta versión.
10–Configuración iSCSI Descarga de iSCSI en Windows Server Descarga de iSCSI en Windows Server La descarga iSCSI es una tecnología que permite descargar la sobrecarga de procesamiento del protocolo iSCSI de los procesadores host al iSCSI HBA. La descarga iSCSI aumenta el rendimiento de la red ayudando a optimizar la utilización del procesador del servidor.
10–Configuración iSCSI Descarga de iSCSI en Windows Server Configuración de Microsoft Initiator para utilizar la descarga iSCSI de Marvell Una vez que haya configurado la dirección IP para el adaptador iSCSI, debe utilizar Microsoft Initiator para configurar y agregar una conexión al destino iSCSI utilizando el adaptador iSCSI de Marvell FastLinQ.
Página 248
10–Configuración iSCSI Descarga de iSCSI en Windows Server En el cuadro de diálogo iSCSI Initiator Name (Nombre del iniciador iSCSI) escriba el nuevo nombre IQN del iniciador y, a continuación, haga clic en OK (Aceptar). (Ilustración 10-2) Ilustración 10-2. Cambio del nombre del nodo del iniciador iSCSI En iSCSI Initiator Properties (Propiedades del iniciador iSCSI), haga clic en la pestaña Discovery (Detección).
Página 249
10–Configuración iSCSI Descarga de iSCSI en Windows Server En la página Discovery (Detección) (Ilustración 10-3), en Target portals (Portales de destino), haga clic en Discover Portal (Portal de detección). Ilustración 10-3. Iniciador iSCSI: Detección del portal de destino En el cuadro de diálogo Discover Target Portal (Detectar portal de destino) (Ilustración 10-4): En el cuadro IP address or DNS name (Dirección IP o nombre del...
Página 250
10–Configuración iSCSI Descarga de iSCSI en Windows Server Ilustración 10-4. Dirección IP del portal de destino En el cuadro de diálogo Advanced Settings (Configuración avanzada) (Ilustración 10-5), complete los siguientes valores en Connect using (Conectar mediante): En Local adapter (Adaptador local), seleccione QLogic <name or model>...
Página 251
10–Configuración iSCSI Descarga de iSCSI en Windows Server Ilustración 10-5. Selección de la dirección IP del iniciador En la página iSCSI Initiator Properties, Discovery (Propiedades del iniciador iSCSI, Detectar), haga clic en OK (Aceptar). AH0054602-09 M...
Página 252
10–Configuración iSCSI Descarga de iSCSI en Windows Server Haga clic en la pestaña Targets (Destinos) y, a continuación, en la página Targets (Destinos) (Ilustración 10-6), haga clic en Connect (Conectar). Ilustración 10-6. Conexión al destino iSCSI AH0054602-09 M...
Página 253
10–Configuración iSCSI Descarga de iSCSI en Windows Server En el cuadro de diálogo Connect To Target (Conectar al destino) (Ilustración 10-7), haga clic en Advanced (Avanzado). Ilustración 10-7. Cuadro de diálogo Connect To Target (Conectar al destino) En el cuadro de diálogo Local Adapter (Adaptador local), seleccione QLogic <name or model>...
10–Configuración iSCSI Descarga de iSCSI en Windows Server Para formatear la partición de iSCSI, utilice el administrador de discos. NOTA Estas son algunas de las limitaciones de la funcionalidad de equipos: Los equipos no son compatibles con adaptadores iSCSI. ...
10–Configuración iSCSI Descarga de iSCSI en Windows Server Pregunta: ¿Qué configuraciones deben evitarse? Respuesta: La dirección IP no debe ser igual a la de LAN. Instalación de inicio iSCSI para Windows 2012 R2, 2016 y 2019 Es posible iniciar o instalar Windows Server 2012 R2, Windows Server 2016 y Windows Server 2019 tanto en las rutas de acceso de descarga como en las de no descarga.
10–Configuración iSCSI Descarga de iSCSI en entornos Linux Para realizar la instalación de Windows Server 2012 R2/2016, haga clic en Next (Siguiente), y siga las instrucciones en pantalla. El servidor se reiniciará varias veces como parte del proceso de instalación. Después de que el servidor se inicie en el sistema operativo, se recomienda ejecutar el instalador del controlador para completar la instalación de la aplicación y los controladores Marvell.
10–Configuración iSCSI Descarga de iSCSI en entornos Linux Diferencias con bnx2i Hay algunas diferencias fundamentales entre qedi, el controlador del Adaptador de la serie 41xxx Marvell FastLinQ (iSCSI), y bnx2i, el anterior controlador de descarga iSCSI de Marvell para los adaptadores de la serie 8400 de Marvell. Estas son algunas de las diferencias: ...
Página 258
10–Configuración iSCSI Descarga de iSCSI en entornos Linux iscsi_boot_sysfs 16000 1 qedi Para comprobar si las interfaces iSCSI se han detectado correctamente, emita el siguiente comando. En este ejemplo, se detectan dos dispositivos CNA iSCSI con los números de host SCSI 4 y 5. # dmesg | grep qedi [0000:00:00.0]:[qedi_init:3696]: QLogic iSCSI Offload Driver v8.15.6.0.
Página 259
10–Configuración iSCSI Descarga de iSCSI en entornos Linux 192.168.25.100:3260,1 iqn.2003-04.com.sanblaze:virtualun.virtualun.target-05000012 192.168.25.100:3260,1 iqn.2003-04.com.sanblaze:virtualun.virtualun.target-0500000c 192.168.25.100:3260,1 iqn.2003- 04.com.sanblaze:virtualun.virtualun.target-05000001 192.168.25.100:3260,1 iqn.2003-04.com.sanblaze:virtualun.virtualun.target-05000002 Inicie sesión en el destino iSCSI mediante the IQN obtenido en el paso Para iniciar el procedimiento de inicio de sesión, emita el comando siguiente (donde el último carácter en el comando es una letra “L”...
Configuración FCoE Este capítulo ofrece la siguiente información sobre la configuración de Fibre Channel a través de Ethernet (FCoE): “Configuración de la descarga FCoE de Linux” en la página 233 NOTA La descarga FCoE se admite en todos los Adaptadores de la serie 41xxx. Es posible que algunas características de FCoE no se puedan activar completamente en esta versión.
11–Configuración FCoE Configuración de la descarga FCoE de Linux scsi_transport_fc.ko es la biblioteca de transporte para FC SCSI de Linux que se utiliza para administrar el puerto remoto y el destino SCSI. Para que qedf sea funcional, es necesario cargar antes dichos módulos, de lo contrario es posible que se obtengan errores como “unresolved symbol”...
11–Configuración FCoE Configuración de la descarga FCoE de Linux Configuración de qedf.ko No es necesario realizar una configuración explícitamente para qedf.ko. El controlador enlaza automáticamente con las funciones FCoE expuestas del CNA y empieza a detectar. Esta funcionalidad se parece a la funcionalidad y al funcionamiento del controlador FC de Marvell, qla2xx, al contrario de lo que sucedía con el antiguo controlador bnx2fc.
Configuración de SR-IOV La virtualización de entrada/salida de raíz única (SR-IOV) es una especificación de PCI SIG que permite que un único dispositivo PCI Express (PCIe) aparezca como varios dispositivos PCI físicos distintos. La SR-IOV permite aislar los recursos de PCI para obtener rendimiento, interoperabilidad y capacidad de administración.
Página 265
12–Configuración de SR-IOV Configuración de SR-IOV en Windows Ilustración 12-1. System Setup for SR-IOV: Integrated Devices (Configuración del sistema para SR-IOV: Dispositivos integrados) En la Main Configuration Page (Página de configuración principal) del adaptador seleccionado, haga clic en Device Level Configuration (Configuración de nivel de dispositivo).
Página 266
12–Configuración de SR-IOV Configuración de SR-IOV en Windows En la Main Configuration Page (Página de configuración principal), haga clic en Finish (Finalizar). En el cuadro de mensaje Warning - Saving Changes (Advertencia - Guardar cambios) haga clic en Yes (Sí) para guardar la configuración. En el cuadro de mensaje Success - Saving Changes (Correcto - Guardar cambios) haga clic en OK (Aceptar).
Página 267
12–Configuración de SR-IOV Configuración de SR-IOV en Windows Para crear un conmutador de máquina virtual (vSwitch) con SR-IOV (Ilustración 12-4 en la página 241): Inicie el Hyper-V Manager. Seleccione Virtual Switch Manager (Administrador de conmutadores virtuales). En el cuadro Name (Nombre) escriba un nombre para el conmutador virtual.
Página 268
12–Configuración de SR-IOV Configuración de SR-IOV en Windows Ilustración 12-4. Administrador de conmutadores virtuales: Activar SR-IOV El cuadro de mensaje Apply Networking Changes (Aplicar cambios red) le advierte de que Pending changes may disrupt network connectivity (Los cambios pendientes pueden interrumpir la conectividad de la red).
Página 269
12–Configuración de SR-IOV Configuración de SR-IOV en Windows Para obtener la capacidad de conmutador de la máquina virtual, emita el siguiente comando en Windows PowerShell: PS C:\Users\Administrator> Get-VMSwitch -Name SR-IOV_vSwitch | fl La salida del comando incluye las siguientes capacidades Get-VMSwitch SR-IOV: IovVirtualFunctionCount...
Página 270
12–Configuración de SR-IOV Configuración de SR-IOV en Windows Ilustración 12-5. Configuración de VM: Activar SR-IOV Instale los controladores Marvell para los adaptadores detectados en la VM. Utilice los controladores más actualizados disponibles de su vendedor para el SO del host (no utilice controladores integrados). NOTA Asegúrese de utilizar el mismo paquete de controladores en ambas VM y en el sistema host.
Página 271
12–Configuración de SR-IOV Configuración de SR-IOV en Windows Una vez que se han instalado los controladores, el adaptador aparece en la VM. La Ilustración 12-6 muestra un ejemplo. Ilustración 12-6. Administrador de dispositivos: Máquina virtual con adaptador QLogic Para ver los detalles de la función virtual (VF) de SR-IOV, emita el siguiente comando en Windows PowerShell: PS C:\Users\Administrator>...
12–Configuración de SR-IOV Configuración de SR-IOV en Linux Configuración de SR-IOV en Linux Para configurar SR-IOV en Linux: Acceda a BIOS System Setup (Configuración del sistema BIOS) del servidor y haga clic en System BIOS Settings (Configuración del BIOS del sistema). En la página System BIOS Settings (Configuración del BIOS del sistema), haga clic en Integrated Devices (Dispositivos integrados).
Página 273
12–Configuración de SR-IOV Configuración de SR-IOV en Linux Ilustración 12-8. System Setup: processor Settings for SR-IOV (Configuración del sistema: Configuración del procesador para SR-IOV) En la página System Setup (Configuración del sistema), seleccione Device Settings (Configuración del dispositivo). En la página Device Settings (Configuración del dispositivo), seleccione Port 1 (Puerto 1) para el adaptador Marvell.
12–Configuración de SR-IOV Configuración de SR-IOV en Linux En la página Device Level Configuration (Configuración de nivel de dispositivo) (Ilustración 12-9): Establezca Virtualization Mode (Modo de virtualización) en SR-IOV. Haga clic en Back (Atrás). Ilustración 12-9. System Setup for SR-IOV: Integrated Devices (Configuración del sistema para SR-IOV: Dispositivos integrados) En la Main Configuration Page (Página de configuración principal), haga clic en Finish (Finalizar) para guardar sus parámetros y, a continuación, reinicie...
Página 275
12–Configuración de SR-IOV Configuración de SR-IOV en Linux Ilustración 12-10. Edición del archivo grub.conf para SR-IOV Guarde el archivo y reinicie el sistema. grub.conf Para comprobar si los cambios se han aplicado, emita el siguiente comando: dmesg | grep -i iommu Un ejemplo de salida de comando correcta de la unidad de administración de memoria de E/S (IOMMU) sería: Intel-IOMMU: enabled...
Página 276
12–Configuración de SR-IOV Configuración de SR-IOV en Linux Revise la salida del comando (Ilustración 12-11) para confirmar que el VF actual se creó en bus 4, dispositivo 2 (del parámetro 0000:00:02.0), funciones 0 a través de 7. Tenga en cuenta que la Id. de dispositivo actual es diferente en los PF (8070 en este ejemplo) y las VF (8090 en este ejemplo).
Página 277
12–Configuración de SR-IOV Configuración de SR-IOV en Linux Asigne y compruebe las direcciones MAC: Para asignar una dirección MAC a VF, emita el siguiente comando: ip link set <pf device> vf <vf index> mac <mac address> Asegúrese de que la interfaz VF esté activa y en funcionamiento con la dirección MAC asignada.
12–Configuración de SR-IOV Configuración de SR-IOV en Linux Ilustración 12-14. Add New Virtual Hardware (Agregar nuevo hardware virtual) Encienda la VM y emita el siguiente comando: check lspci -vv|grep -I ether Instale los controladores para los adaptadores detectados en la VM. Utilice los controladores más actualizados disponibles de su vendedor para el SO del host (no utilice controladores integrados).
12–Configuración de SR-IOV Configuración de SR-IOV en VMware Para activar IOMMU para SR-IOV en RHEL 6.x: En el archivo , localice la línea de /boot/efi/EFI/redhat/grub.conf kernel y, a continuación, anexe el parámetro de inicio intel_iommu=on Para activar IOMMU para SR-IOV en RHEL 7.x y posteriores: En el archivo , localice y, a...
Página 280
12–Configuración de SR-IOV Configuración de SR-IOV en VMware En la página Integrated Devices (Dispositivos integrados) (consulte la Ilustración 12-1 en la página 238): Establezca la opción SR-IOV Global Enable (Activación global de SR-IOV) en Enabled (Activado). Haga clic en Back (Atrás). En la ventana System Setup (Configuración del sistema), haga clic en Device Settings (Configuración del dispositivo).
Página 281
12–Configuración de SR-IOV Configuración de SR-IOV en VMware 0000:05:02.0 Network controller: QLogic Corp. QLogic FastLinQ QL41xxx Series 10/25 GbE Controller (SR-IOV VF) [PF_0.5.0_VF_0] 0000:05:02.1 Network controller: QLogic Corp. QLogic FastLinQ QL41xxx Series 10/25 GbE Controller (SR-IOV VF) [PF_0.5.0_VF_1] 0000:05:02.2 Network controller: QLogic Corp. QLogic FastLinQ QL41xxx Series 10/25 GbE Controller (SR-IOV VF) [PF_0.5.0_VF_2] 0000:05:02.3 Network controller: QLogic Corp.
Página 282
12–Configuración de SR-IOV Configuración de SR-IOV en VMware Para guardar los cambios realizados en la configuración y cerrar este cuadro de diálogo, haga clic en OK (Aceptar). Ilustración 12-15. VMware Host Edit Settings (Edición de la configuración de host VMware) AH0054602-09 M...
Página 283
12–Configuración de SR-IOV Configuración de SR-IOV en VMware Para validar las VF por puerto, emita el comando tal como se esxcli muestra a continuación: [root@localhost:~] esxcli network sriovnic vf list -n vmnic6 VF ID Active PCI Address Owner World ID ----- ------ -----------...
Configuración de NVMe-oF con RDMA La Non-Volatile Memory Express over Fabrics (Memoria no volátil rápida a través de la estructura - NVMe-oF) permite utilizar transportes alternativos a PCIe para extender la distancia a través de la cual pueda conectar un dispositivo host NVMe y una unidad de almacenamiento NVMe o un subsistema.
Página 285
13–Configuración de NVMe-oF con RDMA En la Ilustración 13-1 se muestra una red de ejemplo. Adaptador de la Adaptador de la serie 41xxx serie 41xxx Ilustración 13-1. Red NVMe-oF El proceso de configuración de NVMe-oF cubre los procedimientos siguientes: Instalación de los controladores de dispositivo en los dos servidores Configuración del servidor de destino ...
13–Configuración de NVMe-oF con RDMA Instalación de los controladores de dispositivo en los dos servidores Instalación de los controladores de dispositivo en los dos servidores Tras la instalación del sistema operativo (SLES 12 SP3), instale los controladores de dispositivo en los dos servidores. Para actualizar el kernel al kernel ascendente de Linux más reciente, vaya a: https://www.kernel.org/pub/linux/kernel/v4.x/ Instale y cargue los controladores FastLinQ (qed, qede, libqedr/qedr) más...
13–Configuración de NVMe-oF con RDMA Configuración del servidor de destino Si se han realizado cambios en el kernel, reinicie en el nuevo kernel de sistema operativo. Para obtener instrucciones sobre cómo establecer el kernel de inicio predeterminado, vaya a: https://wiki.centos.org/HowTos/Grub2 Active e inicie el servicio RDMA del modo siguiente.
Página 288
13–Configuración de NVMe-oF con RDMA Configuración del servidor de destino Tabla 13-1. Parámetros de destino (Continuación) Comando Descripción Establece la ruta de acceso al dispositivo NVMe. # echo -n /dev/nvme0n1 >namespaces/ La ruta de acceso al dispositivo NVMe puede 1/device_path diferir entre sistemas.
13–Configuración de NVMe-oF con RDMA Configuración del servidor iniciador Configuración del servidor iniciador Debe configurar el servidor iniciador después del proceso de reinicio. Cuando el servidor está en funcionamiento, no puede cambiar la configuración sin reiniciar. Si está utilizando un script de inicio para configurar el servidor iniciador, considere pausar el script (utilizando el comando o alguno similar) según proceda wait...
Página 290
13–Configuración de NVMe-oF con RDMA Configuración del servidor iniciador Anote el NQN del subsistema ( ) del destino detectado subnqn (Ilustración 13-2) para utilizarlo en el paso Ilustración 13-2. NQN del subsistema Conecte con el destino NVMe-oF detectado ( ) mediante nvme-qlogic-tgt1 NQN.
13–Configuración de NVMe-oF con RDMA Preacondicionamiento del servidor de destino Preacondicionamiento del servidor de destino Los servidores de destino NVMe que se prueban de fábrica muestran un rendimiento mayor de lo previsto. Antes de ejecutar una prueba comparativa, el servidor de destino tiene que estar prellenado o preacondicionado. Para preacondicionar el servidor de destino: Efectúe un borrado seguro del servidor de destino con las herramientas específicas del proveedor (es similar a formatear).
Página 292
13–Configuración de NVMe-oF con RDMA Prueba de los dispositivos NVMe-oF Ejecute la utilidad FIO para medir la latencia del dispositivo NVMe-oF iniciador. Emita el siguiente comando: # fio --filename=/dev/nvme0n1 --direct=1 --time_based --rw=randread --refill_buffers --norandommap --randrepeat=0 --ioengine=libaio --bs=4k --iodepth=1 --numjobs=1 --runtime=60 --group_reporting --name=temp.out FIO informa sobre dos tipos de latencia: envío y finalización.
13–Configuración de NVMe-oF con RDMA Optimización del rendimiento Optimización del rendimiento Para optimizar el rendimiento tanto en el servidor iniciador como en el servidor de destino: Configure los siguientes parámetros de BIOS del sistema: Perfiles de alimentación = “Maximum Performance” (Rendimiento máximo) o equivalente ...
13–Configuración de NVMe-oF con RDMA Optimización del rendimiento Configure la frecuencia de la CPU. El archivo es un script que cpufreq.sh aparece en “Frecuencia de la CPU (cpufreq.sh)” en la página 268. # ./cpufreq.sh En las secciones siguientes se muestran los scripts que se utilizan en el paso 3 y 4.
13–Configuración de NVMe-oF con RDMA Optimización del rendimiento done done Frecuencia de la CPU (cpufreq.sh) El script siguiente establece la frecuencia de la CPU. #Usage "./nameofscript.sh" grep -E '^model name|^cpu MHz' /proc/cpuinfo cat /sys/devices/system/cpu/cpu0/cpufreq/scaling_governor for CPUFREQ in /sys/devices/system/cpu/cpu*/cpufreq/scaling_governor; do [ -f $CPUFREQ ] || continue;...
Configuración de VXLAN En este capítulo se proporcionan instrucciones para: Configuración de VXLAN en Linux “Configuración de VXLAN en VMware” en la página 271 “Configuración de VXLAN en Windows Server 2016” en la página 272 Configuración de VXLAN en Linux Para configurar VXLAN en Linux: Descargue, extraiga, y configure el tar ball de openvswitch (OVS).
Página 297
14–Configuración de VXLAN Configuración de VXLAN en Linux Cree el puente. Para configurar el host 1, emita los siguientes comandos: ovs-vsctl add-br br0 ovs-vsctl add-br br1 ovs-vsctl add-port br0 eth0 ifconfig eth0 0 && ifconfig br0 192.168.1.10 netmask 255.255.255.0 route add default gw 192.168.1.1 br0 ifconfig br1 10.1.2.10 netmask 255.255.255.0 ovs-vsctl add-port br1 vx1 -- set interface vx1 type=vxlan (dirección IP del equipo)
14–Configuración de VXLAN Configuración de VXLAN en VMware Configure el puente como acceso directo a las máquinas virtuales (VM) y, a continuación, compruebe la conectividad de la VM al equipo. Cree una VM a través de virt-manager. Como no hay opción de fijar el puente br1 a través de virt-manager, cambie el archivo xml de la siguiente forma Emita el siguiente comando: comando:...
14–Configuración de VXLAN Configuración de VXLAN en Windows Server 2016 https://www.vmware.com/content/dam/digitalmarketing/vmware/en/pdf/products/n sx/vmw-nsx-network-virtualization-design-guide.pdf https://pubs.vmware.com/nsx-63/topic/com.vmware.nsx.troubleshooting.doc/GUI D-EA1DB524-DD2E-4157-956E-F36BDD20CDB2.html https://communities.vmware.com/api/core/v3/attachments/124957/data Configuración de VXLAN en Windows Server 2016 La configuración de VXLAN en Windows Server 2016 incluye: Activación de la descarga VXLAN en el adaptador ...
14–Configuración de VXLAN Configuración de VXLAN en Windows Server 2016 Establezca el Value (Valor) en Enabled (Activado). Haga clic en OK (Aceptar). Implementación de una red definida por software Para beneficiarse de la descarga de tareas de encapsulación VXLAN en las máquinas virtuales, debe implementar una pila de Software Defined Networking (SDN) que utilice la controladora de red de Microsoft.
Windows Server 2016 Este capítulo ofrece la siguiente información sobre Windows Server 2016: Configuración de interfaces RoCE con Hyper-V “RoCE sobre Switch Embedded Teaming (SET)” en la página 280 “Configuración de QoS para RoCE” en la página 281 “Configuración de VMMQ”...
15–Windows Server 2016 Configuración de interfaces RoCE con Hyper-V Creación de un conmutador virtual Hyper-V con un NIC virtual RDMA Siga los procedimientos que se explican en esta sección para crear un conmutador virtual Hyper-V y después activar RDMA en el NIC virtual del host. Para crear un conmutador virtual Hyper-V con un NIC virtual RDMA: En todas las interfaces físicas, establezca el valor del parámetro NetworkDirect Functionality (Funcionalidad directa de red) en Enabled...
Página 303
15–Windows Server 2016 Configuración de interfaces RoCE con Hyper-V Para activar RDMA en NIC virtual de host: Abra la ventana Virtual Ethernet Adapter Properties (Propiedades del adaptador Ethernet Virtual) de Hyper-V. Haga clic en Advanced (Avanzado). En la página Advanced (Avanzado) (Ilustración 15-2): En Property (Propiedad), seleccione Network Direct (RDMA).
15–Windows Server 2016 Configuración de interfaces RoCE con Hyper-V Cómo agregar un Id. de vLAN al NIC virtual del host Para agregar un Id. de vLAN al NIC virtual de host: Para encontrar el nombre del NIC virtual de host, emita el siguiente comando en Windows PowerShell: PS C:\Users\Administrator>...
15–Windows Server 2016 Configuración de interfaces RoCE con Hyper-V La salida del comando muestra los adaptadores compatibles con RDMA, tal y como se muestra en la Ilustración 15-4. Ilustración 15-4. Comando Windows PowerShell: Get-NetAdapterRdma Cómo agregar NIC virtuales de host (puertos virtuales) Para agregar NIC virtuales de host: Para agregar un NIC virtual de host, emita el siguiente comando: Add-VMNetworkAdapter -SwitchName "New Virtual Switch"...
Página 306
15–Windows Server 2016 Configuración de interfaces RoCE con Hyper-V Ilustración 15-5. Cuadro de diálogo Add Counters (Agregar contadores) Si se está ejecutando el tráfico de RoCE, los contadores tendrán el aspecto que se muestra en la Ilustración 15-6. Ilustración 15-6. El monitor de rendimiento muestra el tráfico RoCE AH0054602-09 M...
15–Windows Server 2016 RoCE sobre Switch Embedded Teaming (SET) RoCE sobre Switch Embedded Teaming (SET) Switch Embedded Teaming (SET) es una solución de equipos NIC alternativa de Microsoft que se puede utilizar en entornos que tienen Hyper-V y la pila de Software Defined Networking (SDN) en una vista previa técnica de Windows Server 2016.
15–Windows Server 2016 Configuración de QoS para RoCE Ilustración 15-8 muestra la salida del comando. Ilustración 15-8. Comando Windows PowerShell: Get-NetAdapter Para activar RDMA en SET, emita el siguiente comando en Windows PowerShell: PS C:\Users\Administrator> Enable-NetAdapterRdma "vEthernet (SET)" Asignación de un Id. de vLAN en SET Para asignar un Id.
15–Windows Server 2016 Configuración de QoS para RoCE Configuración de QoS desactivando DCBX en el adaptador Es necesario realizar la configuración de todos los sistemas en uso antes de configurar la calidad de servicio (QoS) desactivando DCBX en el adaptador. La configuración del control de flujo basado en prioridades (PFC), los servicios de transición mejorada (ETS) y las clases de tráfico debe ser la misma en el conmutador y en el servidor.
Página 310
15–Windows Server 2016 Configuración de QoS para RoCE Ilustración 15-9. Propiedades avanzadas: Activación de la QoS Asigne el Id. de vLAN a la interfaz del siguiente modo: Abra las propiedades del minipuerto y haga clic en la pestaña Advanced (Avanzado). En la página Advanced (Avanzado) de las propiedades del adaptador (Ilustración 15-10) en Property (Propiedad), seleccione VLAN ID (Id.
Página 311
15–Windows Server 2016 Configuración de QoS para RoCE Ilustración 15-10. Propiedades avanzadas: Configuración del Id. de VLAN Para activar PFC para RoCE en una prioridad específica, emita el siguiente comando: PS C:\Users\Administrators> Enable-NetQoSFlowControl -Priority 5 NOTA Si está configurando RoCE sobre Hyper-V, no asigne un Id. de vLAN a la interfaz física.
Página 312
15–Windows Server 2016 Configuración de QoS para RoCE False Global True Global False Global False Global Para configurar QoS y asignar la prioridad correspondiente a cada tipo de tráfico, emita los siguientes comandos (en los que la Prioridad 5 está etiquetada para RoCE y Prioridad 0 está...
Página 313
15–Windows Server 2016 Configuración de QoS para RoCE Name Algorithm Bandwidth(%) Priority PolicySet IfIndex IfAlias ---- --------- ------------ -------- --------- ------- ------- [Default] 1-4,6-7 Global RDMA class Global TCP class Global Para ver el adaptador de red QoS desde la configuración anterior, emita el siguiente comando en Windows PowerShell: PS C:\Users\Administrator>...
15–Windows Server 2016 Configuración de QoS para RoCE Configuración de QoS activando DCBX en el adaptador Es necesario realizar la configuración de todos los sistemas en uso. La configuración de PFC, ETS y las clases de tráfico debe ser la misma en el conmutador y en el servidor.
Página 315
15–Windows Server 2016 Configuración de QoS para RoCE Ilustración 15-11. Propiedades avanzadas: Activación de QoS Asigne el Id. de vLAN a la interfaz (necesario para PFC) del siguiente modo: Abra las propiedades del minipuerto y haga clic en la pestaña Advanced (Avanzado).
Página 316
15–Windows Server 2016 Configuración de QoS para RoCE Ilustración 15-12. Propiedades avanzadas: Configuración del Id. de VLAN Para configurar el conmutador, emita el siguiente comando en Windows PowerShell: PS C:\Users\Administrators> Get-NetAdapterQoS Name : Ethernet 5 Enabled : True Capabilities Hardware Current -------- -------...
15–Windows Server 2016 Configuración de VMMQ Activación de VMMQ en el adaptador Para activar VMMQ en el adaptador: Abra las propiedades del minipuerto y haga clic en la pestaña Advanced (Avanzado). En la página Advanced (Avanzado) de las propiedades del adaptador (Ilustración 15-13), en Property (Propiedad), seleccione Virtual Switch RSS (RSS conmutador virtual) y después establezca el valor en Enabled...
Página 319
15–Windows Server 2016 Configuración de VMMQ En Connection type (Tipo de conexión): Haga clic en External network (Red externa). Seleccione la casilla de verificación Allow management operating system to share this network adapter (Permitir que el sistema operativo comparta este adaptador de red). Ilustración 15-14.
15–Windows Server 2016 Configuración de VMMQ Activación de VMMQ en el conmutador de máquina virtual Para activar VMMQ en el conmutador de máquina virtual: Emita el siguiente comando en Windows PowerShell: PS C:\Users\Administrators> Set-VMSwitch -name q1 -defaultqueuevmmqenabled $true -defaultqueuevmmqqueuepairs 4 Cómo obtener la capacidad del conmutador de máquina virtual Para obtener la capacidad del conmutador de máquina virtual:...
15–Windows Server 2016 Configuración de VMMQ Creación de una máquina virtual y activación de VMMQ en VMNetworkAdapters en la máquina virtual Para crear una máquina virtual (VM) y activar VMMQ en VMNetworksadapters en la VM: Cree una VM. Agregue el VMNetworkadapter a la VM. Asigne un conmutador virtual al VMNetworkadapter.
15–Windows Server 2016 Configuración de Storage Spaces Direct Supervisión de las estadísticas de tráfico Para supervisar el tráfico de la función virtual de una máquina virtual, emita el siguiente comando en Windows PowerShell: PS C:\Users\Administrator> Get-NetAdapterStatistics | fl NOTA Marvell admite el parámetro nuevo agregado a Windows Server 2016 y Windows Server 2019 para configurar la cantidad máxima de pares de colas en un puerto virtual.
15–Windows Server 2016 Configuración de Storage Spaces Direct Configuración del hardware Ilustración 15-16 muestra un ejemplo de configuración de hardware. Ilustración 15-16. Ejemplo de configuración de hardware NOTA Los discos que se utilizan en este ejemplo son discos 4 × 400 G NVMe ™...
15–Windows Server 2016 Configuración de Storage Spaces Direct Implementación del sistema operativo Para implementar sistemas operativos: Instale el sistema operativo. Instale los roles de Windows Server (Hyper-V). Instale las siguientes características: Tolerancia a errores Clúster Puente del centro de datos (DCB) ...
Página 325
15–Windows Server 2016 Configuración de Storage Spaces Direct dcbx version cee no shutdown Activación de Network Quality of Service (Calidad de servicio de la red). NOTA La calidad de servicio de la red se utiliza para garantizar que el sistema de almacenamiento definido por software tenga suficiente ancho de banda para permitir la comunicación entre los nodos y garantizar la resiliencia y el rendimiento.
15–Windows Server 2016 Configuración de Storage Spaces Direct Set-VMNetworkAdapterVlan -VMNetworkAdapterName "SMB_2" -VlanId 5 -Access -ManagementOS NOTA Dichos comandos pueden estar en la misma VLAN o en varias vLAN. Para comprobar si se ha establecido el Id. de vLAN, emita el siguiente comando: Get-VMNetworkAdapterVlan -ManagementOS Para desactivar y activar cada adaptador de NIC virtual de host para...
Página 327
15–Windows Server 2016 Configuración de Storage Spaces Direct Paso 1. Ejecución de una herramienta de validación de clústeres Ejecute la herramienta de validación de clústeres para asegurarse de que los nodos del servidor están configurados correctamente para crear un clúster utilizando Storage Spaces Direct.
Página 328
15–Windows Server 2016 Configuración de Storage Spaces Direct El siguiente comando de Windows PowerShell puede ponerse en un archivo de script de Windows PowerShell ( ) y ejecutarse desde el sistema de .PS1 administración de una consola abierta de Windows PowerShell (o Windows PowerShell ISE) que tenga privilegios de Administrador.
Página 329
15–Windows Server 2016 Configuración de Storage Spaces Direct Paso 5. Activación de Storage Spaces Direct Una vez que haya creado el clúster, emita el comando cmdlet de de Windows PowerShell. Dicho comando cmdlet hace que Enable-ClusterS2D el sistema de almacenamiento se ponga en modo Storage Spaces Direct y realiza las siguientes operaciones automáticamente: ...
Windows Server 2019 Este capítulo ofrece la siguiente información sobre Windows Server 2019: RSSv2 para Hyper-V “Comportamientos de Windows Server 2019” en la página 304 “Nuevas propiedades del adaptador” en la página 305 RSSv2 para Hyper-V En Windows Server 2019, Microsoft ha agregado compatibilidad para Receive Side Scaling (Escala en lado de recepción) versión 2 (RSSv2) con Hyper-V (RSSv2 por vPort).
16–Windows Server 2019 Comportamientos de Windows Server 2019 Errores de registro de eventos conocidos En condiciones de funcionamiento normales, el algoritmo dinámico de RSSv2 puede iniciar una actualización de tabla de indirección que sea incompatible con el controlador y devolver un código de estado inadecuado. En tales casos, se produce un error del registro de eventos, aunque no exista ningún problema de funcionamiento.
16–Windows Server 2019 Nuevas propiedades del adaptador Inbox Driver Network Direct (RDMA) está desactivado de forma predeterminada En el controlador integrado de Windows Server 2019, la opción Network Direct (RDMA) está desactivada de forma predeterminada en las propiedades de NIC. No obstante, al actualizar el controlador a un controlador listo para usar, Network Direct se activa de forma predeterminada.
16–Windows Server 2019 Nuevas propiedades del adaptador Max Queue Pairs for Non-Default vPort (Pares de colas máx para vPort no predeterminado) = valor Si selecciona un valor superior a 8, entonces: Max Queue Pairs for Default vPort (Pares de colas máx para vPort ...
16–Windows Server 2019 Nuevas propiedades del adaptador Aceleraciones predeterminadas de VMQ y VMMQ Tabla 16-2 muestra el valor predeterminado de VMQ y VMMQ y otros valores para aceleraciones en Windows Server 2019 para adaptador de la serie 41xxx. Tabla 16-2. Aceleraciones de Windows 2019 VMQ y VMMQ NIC de dos puertos-solo función Valor Otros posibles valores...
16–Windows Server 2019 Nuevas propiedades del adaptador Agrupación de VPort única El Adaptador de la serie 41xxx admite el parámetro Single VPort Pool (Agrupación de VPort única), que permite al administrador del sistema asignar cualquier IOVQueuePair disponible a VPort predeterminado, VPort no predeterminado de PF o VPort no predeterminado de VF.
Solución de problemas Este capítulo proporciona la siguiente información de solución de problemas: Lista de comprobación de solución de problemas “Cómo asegurarse de que los controladores actuales estén cargados” en la página 310 “Prueba de conectividad de red” en la página 311 “Microsoft Virtualization con Hyper-V”...
17–Solución de problemas Cómo asegurarse de que los controladores actuales estén cargados Intente introducir el adaptador en otra ranura. Si la nueva posición funciona, la ranura original de su sistema puede estar defectuosa. Reemplace el adaptador dañado por uno que sepa que funciona correctamente.
17–Solución de problemas Prueba de conectividad de red version: 8.4.7.0 firmware-version: mfw 8.4.7.0 storm 8.4.7.0 bus-info: 0000:04:00.2 Si cargó un controlador nuevo, pero todavía no lo ha reiniciado, el comando no mostrará la información del controlador actualizado. En su lugar, modinfo emita el siguiente comando para ver los registros.
17–Solución de problemas Microsoft Virtualization con Hyper-V Emita el siguiente comando y, a continuación, pulse INTRO. ping <ip_address> Las estadísticas de ping que se muestran indican si la conexión de red está funcionando o no. Cómo probar la conectividad de red en Linux Para comprobar si la interfaz Ethernet esté...
17–Solución de problemas Problemas varios Problemas varios Problema: El Adaptador de la serie 41xxx se ha apagado y aparece un mensaje de error que indica que ha fallado el ventilador del adaptador. Solución: El Adaptador de la serie 41xxx puede apagarse de forma intencionada para evitar daños permanentes.
LED del adaptador En la Tabla A-1 se muestran los indicadores LED que informan sobre el estado de la actividad y del enlace del puerto del adaptador. Tabla A-1. LED de actividad y enlace del puerto del adaptador LED de Apariencia del LED Estado de red puerto...
Módulos ópticos y cables Este apéndice proporciona la siguiente información sobre los módulos ópticos y los cables compatibles: Especificaciones compatibles “Módulos ópticos y cables probados” en la página 316 “Conmutadores probados” en la página 320 Especificaciones compatibles Los Adaptadores de la serie 41xxx son compatibles con una serie de módulos ópticos y cables que cumplen con SFF8024.
B–Módulos ópticos y cables Módulos ópticos y cables probados Módulos ópticos y cables probados Marvell no garantiza que todos los cables o módulos ópticos que satisfagan los requisitos de cumplimiento funcionen con los Adaptadores de la serie 41xxx. Marvell ha probado los componentes que se enumeran en la Tabla B-1 y ofrece esta lista para su comodidad.
Página 344
B–Módulos ópticos y cables Módulos ópticos y cables probados Tabla B-1. Módulos ópticos y cables probados (Continuación) Velocidad/ Número de Longitud Factor de Fabricante Tipo Válvula pieza de cable forma TCPM2 QSFP+40G-to-4xSFP+10G 40G QSFP de cobre Dell 27GG5 QSFP+40G-to-4xSFP+10G Separador (4 ×...
Página 345
B–Módulos ópticos y cables Módulos ópticos y cables probados Tabla B-1. Módulos ópticos y cables probados (Continuación) Velocidad/ Número de Longitud Factor de Fabricante Tipo Válvula pieza de cable forma Soluciones ópticas AFBR-703SMZ SFP+ SR ® Avago AFBR-701SDZ SFP+ LR Y3KJN SFP+ SR 1G/10G...
Página 346
B–Módulos ópticos y cables Módulos ópticos y cables probados Tabla B-1. Módulos ópticos y cables probados (Continuación) Velocidad/ Número de Longitud Factor de Fabricante Tipo Válvula pieza de cable forma 470-ABLV SFP+ AOC 470-ABLZ SFP+ AOC 470-ABLT SFP+ AOC 470-ABML SFP+ AOC 470-ABLU SFP+ AOC...
Configuración del conmutador Dell Z9100 Los Adaptadores de la serie 41xxx admiten conexiones con el conmutador Ethernet Dell Z9100. No obstante, hasta que se estandarice el proceso de negociación automática, el conmutador debe configurarse explícitamente para que se conecte al adaptador a 25 Gbps. Para configurar un puerto de conmutador Dell Z9100 para que se conecte al Adaptador de la serie 41xxx a 25 Gbps: Establezca una conexión de puerto serie entre su estación de trabajo de...
Página 349
C–Configuración del conmutador Dell Z9100 Quad port mode with 25G speed Dell(conf)#stack-unit 1 port 5 portmode quad speed 25G Para obtener información sobre cómo cambiar la velocidad de enlace del adaptador, consulte “Prueba de conectividad de red” en la página 311.
Limitaciones de las características Este apéndice proporciona información sobre las limitaciones de las características implementadas en esta versión. Estas limitaciones de coexistencia con las características pueden eliminarse en una futura versión. En ese momento, podrá utilizar varias características a la vez sin necesidad de realizar ningún paso de configuración adicional que no sean los que normalmente hay que llevar a cabo para activar las características.
Página 351
D–Limitaciones de las características El inicio en base de SAN y NIC solo está admitido en algunas funciones físicas (PF) concretas Ethernet (por ejemplo, el inicio remoto iSCSI de software) y el inicio PXE solo son compatibles con la primera PF Ethernet de un puerto físico. En la configuración del modo NPAR, la primera PF Ethernet (es decir, no las otras PF Ethernet) admite Ethernet (por ejemplo, el inicio remoto iSCSI del software) e inicio PXE.
Historial de revisiones Historial de revisión de documentos Revisión A, 28 de abril de 2017 Revisión B, 24 de agosto de 2017 Revisión C, 1 de octubre de 2017 Revisión D, 24 de enero de 2018 Revisión E, 15 de marzo de 2018 Revisión F, 19 de abril de 2018 Revisión G, 22 de mayo de 2018 Revisión H, 23 de agosto de 2018...
Página 353
E–Historial de revisiones En la Tabla 2-2, se han actualizado los SO “Requisitos del sistema” en la página 5 compatibles para Windows Server, RHEL, SLES, XenServer. En los apartados tras el segundo párrafo, se ha “Configuración de preinicio iSCSI” en la página 76 agregado texto para describir con más detalle la instalación de Dell iSCSI HW y SW.
Página 354
E–Historial de revisiones En la Tabla 7-1, “Sistemas operativos admitidos y OFED” en la Se ha eliminado RHEL 7.5; se ha agregado página 142 RHEL 7.7. Para RHEL7.6, se ha agregado compatibilidad para OFED-4.17-1 GA. Se ha eliminado SLES 12 SP3; se ha agregado SLES 12 SP4.
Página 355
E–Historial de revisiones Se han cambiado los comandos en el paso “Configuración de VXLAN en Linux” en la parte c. Se ha agregado un ejemplo de página 269 ovsdb-server ovs-vswitchd ejecución con En el paso 4, parte c, se ha cambiado la segunda “La interfaz br1 se frase del segundo párrafo a denomina eth0, ens7;...
Página 356
Glosario ACPI Adaptador de red convergente La especificación de la Interfaz avanzada Los adaptadores de red convergente de de configuración y energía (ACPI) Marvell admiten tanto tráfico de red de proporciona un estándar abierto para datos (TCP/IP) como de red de realizar la configuración y administración almacenamiento (Fibre...
Página 357
Guía del usuario—Adaptadores de red convergente Serie 41xxx BIOS Sistema básico de entrada/salida. Puente del centro de datos. Proporciona Normalmente en Flash PROM, el mejoras a las especificaciones de puente programa (o utilidad) que sirve como una 802.1 existentes para satisfacer los interfaz entre el hardware y el sistema requisitos de protocolos y aplicaciones en operativo, y que permite el inicio desde el...
Página 358
Guía del usuario—Adaptadores de red convergente Serie 41xxx Un destino es un dispositivo que responde a una petición de un iniciador (el sistema Ethernet de eficacia energética Un principal). Los periféricos son destinos, conjunto de mejoras del par trenzado y de pero en algunos comandos (por ejemplo, la familia del plano posterior de Ethernet un comando SCSI COPY), el periférico...
Página 359
Guía del usuario—Adaptadores de red convergente Serie 41xxx Selección de transmisión mejorada. Protocolo de transferencia de archivos. Un Estándar que especifica la mejora de protocolo de red estándar utilizado para selección de transmisión para admitir la transferir archivos de un host a otro host asignación de ancho de banda entre sobre una red basada en TCP, como clases de tráfico.
Página 360
Guía del usuario—Adaptadores de red convergente Serie 41xxx interfaz de firmware extensible (EFI) LLDP Consulte EFI. Un protocolo de proveedor neutral Layer 2 que permite que un dispositivo de red interfaz de firmware extensible unificada. publique su identidad y capacidad en la Consulte UEFI.
Página 361
Guía del usuario—Adaptadores de red convergente Serie 41xxx MSI, MSI-X NVMe Interrupciones señalizadas por mensajes Método de acceso a almacenamiento MSI. Una de las dos extensiones definidas diseñado para unidades de estado sólido por PCI para permitir interrupciones (SSD). señalizadas por mensajes (MSI), en PCI NVRAM 2.2 y posteriores y PCI Express.
Página 362
Guía del usuario—Adaptadores de red convergente Serie 41xxx protocolo de configuración dinámica de host Calidad de servicio Hace referencia a los Consulte DHCP. métodos utilizados para evitar cuellos de botella y garantizar la continuidad de protocolo de control de transmisión negocio cuando se transmiten datos a Consulte TCP.
Página 363
Guía del usuario—Adaptadores de red convergente Serie 41xxx RoCE SR-IOV RDMA sobre Ethernet convergente. Un Virtualización de entrada/salida de raíz protocolo de red que permite el acceso a única. Una especificación de PCI SIG que memoria directo remoto (RDMA) a través permite que un único dispositivo PCI de una red convergente o Ethernet no aparezca como varios dispositivos PCI...
Página 364
Guía del usuario—Adaptadores de red convergente Serie 41xxx tramas gigantes Tramas de IP grandes que se utilizan en Interfaz virtual. Una iniciativa para acceso redes de alto rendimiento para aumentar a memoria directo remoto a través de el rendimiento en las distancias grandes. Fibre Channel y otros protocolos de Las tramas gigantes suelen equivaler a comunicación.
Página 365
Guía del usuario—Adaptadores de red convergente Serie 41xxx Reactivar en LAN. Un estándar para redes de equipos Ethernet que permite encender o activar un sistema que se encontraba inactivo de forma remota mediante un mensaje de red que normalmente suele enviar un programa sencillo que se ejecuta en otro equipo de la red.
Página 366
Contact Information Marvell Technology Group http://www.marvell.com Marvell. Avanzando más rápidamente...