Aunque l. a. inteligencia synthetic brinda a las empresas una ventaja competitiva en el siglo XXI, muchas empresas todavía tienen dificultades para comenzar.
Si bien las organizaciones están listas para comenzar su viaje de IA, a menudo les preocupa que no tengan los bolsillos profundos o el non-public mejor capacitado para emular las marcas globales que ya se basan en IA. Nvidia Corp. cierra esta brecha a través de LaunchPad, que ofrece a las empresas habilidades fundamentales, como desarrollar una práctica de IA y ponerla en producción, según justin boitano (en l. a. foto, a l. a. derecha), vicepresidente de EGX en Nvidia.
“Construimos… LaunchPad, para que obtengan acceso instantáneo a los servidores de IA con OpenShift, herramientas MLOps y aplicaciones de ejemplo”, afirmó Boitano. “Le da acceso a toda l. a. pila al instante con laboratorios prácticos seleccionados tanto para TI como para científicos de datos. Para que puedan salir con los planos que necesitan para configurar esto y comenzar un viaje exitoso de IA”.
Boitano y Tushar Katarki (en l. a. foto, a l. a. izquierda), director de gestión de productos, OpenShift, en Pink Hat Inc., habló con analistas de l. a. industria Dave Velante y Pablo Gillin en Cumbre de sombrero rojo, durante una transmisión exclusiva en theCUBE, el estudio de transmisión en vivo de SiliconANGLE Media. Discutieron cómo el programa LaunchPad de Nvidia ayuda a las empresas en su viaje de IA, y también dieron información sobre l. a. asociación Nvidia-Pink Hat. (* Divulgación a continuación).
Reacondicionamiento de centros de datos utilizando IA
Dado que las GPU son los motores del desarrollo de l. a. IA, Boitano cree que esta tecnología de vanguardia mejorará el rendimiento, l. a. seguridad y el rendimiento de los centros de datos.
“L. a. aceleración es realmente lo que hará avanzar a todos los centros de datos”, dijo. “Así que creo que en el futuro, todos los servidores tendrán GPU y DPU”.
Al tomar prestada una hoja de l. a. integración continua/entrega continua de aplicaciones, LaunchPad presenta una mejora continua de los modelos de IA en producción. “Estamos hablando de CI/CD del propio modelo de IA, que es una gran transformación comercial”, agregó Boitano.
L. a. asociación Pink Hat-Nvidia conecta los puntos a través de innovaciones como el concepto GPU Operator, un modelo de código abierto que realiza l. a. orquestación.
“Con el modelo de operador, Kubernetes dirá: ‘Hay una GPU en ese nodo; permítanme ejecutar el operador’ e instala todo nuestro tiempo de ejecución”, explicó Boitano. “Nuestro tiempo de ejecución obtuvo una utilidad de configuración MIG, el controlador, l. a. telemetría y l. a. medición de l. a. GPU actual y l. a. carga de trabajo. Entonces, en lugar de que alguien intente perseguir todas las pequeñas piezas y partes, simplemente sucede automáticamente en segundos”.
A través de l. a. asociación, Nvidia puede escalar a través de OpenShift, según Katarki.
“OpenShift y nuestro enfoque de nube híbrida abierta realmente forman una plataforma exitosa para basar todo su viaje de IA con socios como Nvidia, con quienes estamos trabajando muy de cerca”, afirmó.
Al colaborar con Pink Hat, Nvidia puede admitir diferentes variaciones de GPU.
“Hemos trabajado mucho con Pink Hat y tenemos una versión beta de OpenShift 4.10 que ahora es appropriate con las DPU”, afirmó Boitano. “Lo llamaré el plano de regulate, como l. a. descarga de redes definidas por instrument en el centro de datos. Por lo tanto, elimina todas las redes definidas por instrument de las CPU”.
Dado que el borde no tiene l. a. protección de guardias, puertas y armas del centro de datos, el nuevo procesador Hopper H100 de Nvidia resuelve l. a. preocupación por l. a. seguridad física del {hardware}, según Boitano.
“Existen requisitos realmente estrictos para proteger l. a. propiedad intelectual del modelo de IA en sí mismo… gastas millones de dólares para construirlo y luego lo envías a un centro de datos de borde”, señaló. “Esa es el área en l. a. que acabamos de anunciar un nuevo procesador que llamamos Hopper H100. Es appropriate con l. a. computación confidencial para que básicamente pueda asegurarse de que el modelo siempre esté encriptado en l. a. memoria del sistema a través del bus PCI a l. a. GPU, y se ejecute de manera confidencial en l. a. GPU”.
Aquí está l. a. entrevista completa en video, parte de l. a. cobertura de SiliconANGLE y theCUBE de l. a. Evento Cumbre de Red Hat:
(* Divulgación: TheCUBE es un socio de medios pagado de Pink Hat Summit. Ni Pink Hat Inc., el patrocinador de l. a. cobertura del evento de theCUBE, ni otros patrocinadores tienen regulate editorial sobre el contenido de theCUBE o SiliconANGLE).
Foto: SiliconANGLE
Muestre su apoyo a nuestra misión uniéndose a nuestra comunidad de expertos Dice Membership y Dice Match. Únase a l. a. comunidad que incluye Amazon Internet Services and products y el CEO de Amazon.com, Andy Jassy, el fundador y CEO de Dell Applied sciences, Michael Dell, el CEO de Intel, Pat Gelsinger, y muchas más luminarias y expertos.
Pasaporte En Linea