Nvidia expande la pila de inteligencia artificial, se extiende desde la nube a la coubicación

Nvidia expande la pila de inteligencia artificial, se extiende desde la nube a la coubicación

Todos quieren construir una plataforma, de ahí el nombre de esta publicación. Cuando se trata de IA, a algunas organizaciones les gusta agrupar su plataforma, ya sea a partir de software local o utilizando tanto software de código abierto y hardware básico como sea posible. Por cada comprador de una plataforma de IA, existe un vendedor de una plataforma de IA, y no es ningún secreto que, si bien Nvidia quiere proporcionar componentes a super compradores y nubes públicas, así como a OEM y ODM, que construyen plataformas de IA para roaming, Nvidia también quiere ser un proveedor de plataformas de IA artificial en sí mismo.

Puede ser, porque ha tenido que construir o mejorar los marcos de IA que respaldan su propio negocio y ha tenido que construir los sistemas distribuidos que utilizan sus investigadores y desarrolladores de software para avanzar en lo último en tecnología. Una vez que esto sucedió, Nvidia se convirtió en un proveedor de sistemas por derecho propio, y ahora está girando una vez más, construyendo planos de control para sistemas de entrenamiento e inferencia.

Antes del Mobile World Congress 2021 y los International Supercomputing Events 2021, que comenzarán dentro de unos días, y en Equinix Analyst Day, Nvidia lanzó más de su paquete de software y, al mismo tiempo, anunció un esfuerzo llamado AI Launchpad para escalar la inteligencia artificial. Hardware desde la nube pública, donde las superestrellas detrás controlan los diseños de hardware, hasta centros de datos compartidos que son similares a la nube pero que permiten a los clientes comprar e instalar servidores Nvidia DGX alojados y administrados por un tercero, y si es necesario, con precios similares a los de la nube en instancias bare metal.

Equinix, que es el operador conjunto más grande del mundo con tuberías súper rápidas en todas sus grandes nubes públicas y sus ubicaciones de Metro Edge, es el primer creador de AI Launchpad. Otros no tendrán dudas porque la nube pública es un lugar costoso para realizar cargas de trabajo de producción a lo largo del tiempo, independientemente del tamaño.

READ  Presentamos el Lotus Emera, el mini auto deportivo inspirado en Evija

Podría estar pensando que tener todas las principales nubes públicas construyendo e instalando sistemas de aceleración de GPU sería suficiente para que Nvidia controle las cargas de trabajo de entrenamiento de IA y tenga una muy buena base para expandir el uso de GPU para la inferencia de IA. Esto es necesario pero no suficiente. Por muy buenas razones económicas, las organizaciones de todo el mundo evolucionarán en la nube, pero se implementarán dentro de los centros de datos, lo que les otorga un menor costo, soberanía de datos y aislamiento de la carga de trabajo; tienen una nueva apreciación después de una década y media de nube pública. Las empresas quieren experimentar con la nube para obtener precios y capacidad de servicios públicos fácilmente escalables sin comprometer todo el control y sin tener que casarse con ningún recurso de nube en particular. Como hemos dicho durante años, esperamos que a cierta escala (alrededor del 50 por ciento del uso de tiempo de pared de la capacidad de la nube) tenga más sentido alquilar o comprar su propia infraestructura en lugar de pagar a los proveedores de la nube altos márgenes para exigir computación servicios de almacenamiento, redes y plataformas Los suyos.

Sin embargo, el proceso de compra de la infraestructura es un completo dolor de cabeza y requiere mucho tiempo. Todos los OEM intentan ofuscar todos sus dispositivos en términos de cómo se consumen, pero lo convierten en un activo físico que los clientes pueden controlar en las instalaciones o en una instalación compartida. Dado que los suscriptores de Equinix están altamente conectados a la red troncal de Internet del mundo y la columna vertebral de los constructores de supercapacidad y nube (que transportan algo tan tonto como el 70 por ciento del tráfico de Internet del mundo), el suscriptor es una respuesta mucho mejor que tratar de concretar su propia y trae tus tubos.

READ  Trilliant, Itron, Echelon - corriente de manumita

dice Justin Boitano, gerente general de informática empresarial y de borde en Nvidia. «Pueden construir la infraestructura en minutos y lanzar estos proyectos en lugar de intentar construir esa infraestructura ellos mismos. Esto ayudará a los clientes a comenzar este viaje más rápido y demostrará valor a las partes interesadas internas antes de realizar mayores inversiones de capital, y ayudará a acelerar todo el ciclo para nosotros.»

Y sí, eso pertenece a Nvidia, que tampoco quiere que las grandes nubes públicas tengan un gran impacto. Nvidia quiere que tantas empresas utilicen su plataforma de IA lo más rápido posible, y no todo el mundo quiere implementar IA en la nube pública. o permitido. El desarrollo es una cosa, la producción es otra muy distinta, ya que los co-los tienen un modelo de precios mucho más limpio que el arrastre, lo que sumerge a los clientes en la dificultad de predecir las tarifas de las redes, incluso si su computación y almacenamiento parecen relativamente económicos.

El precio de los servicios de AI Launchpad apunta a ser «dólares por hora» para los sistemas bare-metal y la suite de software Nvidia que se ejecuta encima de ellos, para controlar todo esto. Aquí también habrá una capa de VMware, pero la mayoría de las organizaciones ya están pagando el impuesto a la infraestructura virtual de VMware y están usando la misma computación, almacenamiento y redes en el AI Launchpad que solían hacer en su día. La construcción de centros de datos tiene sentido. A largo plazo, dudamos mucho de que la capa de VMware pueda eliminarse, y se eliminará, y reemplazarse con un entorno de carcasa de metal desnudo. Pero no se emocione demasiado. También es probable que esto sea caro. Y las empresas pagarán porque no tienen la capacidad o el deseo de construir su propia plataforma de contenedores de inteligencia artificial.

(Por cierto, las cargas de trabajo de HPC se benefician de toda esta innovación. Así que hay algo nuevo).

READ  Facebook quiere invertir $ 50 millones en desarrollar el metaverso de manera más responsable

Como parte del programa AI Launchpad, tanto Nvidia como Equinix están haciendo inversiones en el software, pero Equinix será el propietario del hardware implementado por los clientes, que incluye sistemas de la propia Nvidia, así como Dell, Hewlett Packard Enterprise y Lenovo, que son OEM se asocia con Equinix y también con Nvidia. Otros OEM seguirán su ejemplo, y algunos ODM de fabricación de hierro para supercondensadores y constructores de nubes también pueden jugar. (Los diseños de computación abierta pueden ser importantes aquí para las empresas que quieren algo como lo que tienen Facebook y Microsoft en lugar de lo que construye Nvidia).

Equinix lanzará sus ofertas de lanzamiento de IA «a fines del verano», dice Boitano, comenzando en los EE. UU. Y enfocándose en áreas donde hay muchas empresas grandes que quieren comenzar a usar IA en producción y luego implementarse globalmente desde allí. .

Como parte del anuncio de hoy, Nvidia está lanzando su propio software Base Command, que es parte de su paquete de inteligencia artificial que fue inventado para que Nvidia pudiera preparar sus propios datos y entrenamiento de aprendizaje automático que se ejecuta en sus supercomputadoras. Este software cuesta $ 90,000 por mes para ejecutarse en los sistemas DGX de Nvidia, y Boitano dice que la compañía está trabajando en formas de obtenerlo certificado y disponible en hardware OEM. Para los casos de uso de borde, Nvidia anuncia la disponibilidad general de Fleet Command, que se reveló en el evento GTC 2021 a principios de este año que coordina y administra los sistemas de aceleración de GPU de borde a borde que impulsan las cargas de trabajo de IA. Como muestra el diagrama anterior, AI Enterprise es el tiempo de ejecución comercial de Nvidia para desarrollar modelos y convertirlos en motores de inferencia. No se han revelado las tasas de gestión de flotas.

Custodia Zayas

"Organizador. Geek de las redes sociales. Comunicador general. Erudito de Bacon. Orgulloso pionero de la cultura pop".

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Miley Cyrus no cubre nada más para el álbum de Metallica
Previous Post Miley Cyrus no cubre nada más para el álbum de Metallica
Euro 2020: tiempo de crisis para España y construcción de Portugal contra Francia: ¡viva!  |  Fútbol
Next Post Euro 2020: tiempo de crisis para España y construcción de Portugal contra Francia: ¡viva! | Fútbol