Durante décadas, los centros de datos tradicionales han sido enormes salas de servidores con energía y refrigeración como consideraciones secundarias. El auge de la IA generativa ha transformado estas instalaciones en fábricas de IA, cambiando el guión arquitectónico. La infraestructura eléctrica, que alguna vez fue una idea de último momento, se está convirtiendo en el factor principal que dicta la escala, la ubicación y la viabilidad de nuevos despliegues.
Estamos en un punto de inflexión crítico, donde la industria ya no puede depender de mejoras incrementales y se requiere un cambio arquitectónico fundamental. Este nuevo modelo debe ser más eficiente, escalable y capaz de gestionar las demandas de energía de la IA moderna.
La solución implica un enfoque doble: implementar un sistema de distribución de energía de corriente continua (VCC) de 800 voltios junto con un almacenamiento de energía integrado en múltiples escalas de tiempo. No se trata sólo de mantener las luces encendidas, sino de sentar las bases para el futuro de la informática.
Crecientes demandas de energía de las cargas de trabajo de IA
Durante años, un avance significativo en la tecnología de procesadores significó un aumento de aproximadamente el 20% en el consumo de energía. Hoy, esa curva predecible se ha hecho añicos. El impulsor es la búsqueda incesante de rendimiento, habilitada por interconexiones de gran ancho de banda como NVIDIA NVLink, que hacen que miles de GPU funcionen como un único procesador monolítico.
Para lograr la baja latencia y el gran ancho de banda necesarios, estas conexiones se basan en cableado de cobre. Sin embargo, el alcance efectivo del cobre es limitado, lo que crea lo que se puede llamar una trampa de densidad de rendimiento. Para construir un sistema de IA más potente, debes empaquetar más GPU en un espacio físico más pequeño. Esta necesidad arquitectónica vincula directamente el rendimiento con la densidad de potencia.
El salto de la arquitectura NVIDIA Hopper a la arquitectura NVIDIA Blackwell es un buen ejemplo. Si bien el consumo de energía (TDP) de la GPU individual aumentó en un 75 %, el crecimiento del dominio NVLink a un sistema de 72 GPU resultó en un aumento de 3,4 veces en la densidad de potencia del rack. La recompensa fue un asombroso aumento de 50 veces en el rendimiento, pero también puso a los racks en un camino de decenas de kilovatios a más de 100, con un megavatio por rack ahora en el horizonte. Entregar este nivel de potencia a voltajes bajos tradicionales, como 54 VCC, no es práctico desde el punto de vista físico y económico. La inmensa corriente requerida provocaría elevadas pérdidas resistivas y requeriría un volumen insostenible de cableado de cobre.
El desafío de la volatilidad de las cargas de trabajo sincrónicas
Más allá de la pura densidad, las cargas de trabajo de IA introducen un segundo desafío igualmente formidable: la volatilidad. A diferencia de un centro de datos tradicional que ejecuta miles de tareas no correlacionadas, una fábrica de IA funciona como un sistema único y sincrónico. Al entrenar un modelo de lenguaje grande (LLM), miles de GPU ejecutan ciclos de computación intensa, seguidos de períodos de intercambio de datos, al unísono casi perfecto.
Esto crea un perfil de potencia en toda la instalación caracterizado por cambios de carga rápidos y masivos. Este desafío de volatilidad ha sido documentado en una investigación conjunta de NVIDIA, Microsoft y OpenAI sobre la estabilización de energía para centros de datos de entrenamiento de IA. La investigación muestra cómo las cargas de trabajo de GPU sincronizadas pueden provocar oscilaciones a escala de red.
El consumo de energía de un bastidor puede oscilar desde un estado «inactivo» de alrededor del 30% al 100% de utilización y viceversa en milisegundos. Esto obliga a los ingenieros a sobredimensionar los componentes para manejar la corriente máxima, no la promedio, lo que aumenta los costos y la huella. Cuando se agregan en toda una sala de datos, estas oscilaciones volátiles, que representan cientos de megavatios que aumentan y disminuyen en segundos, representan una amenaza significativa para la estabilidad de la red de servicios públicos, lo que hace que la interconexión de la red sea un cuello de botella principal para el escalamiento de la IA.
Una nueva arquitectura de entrega de energía
Abordar esta crisis multifacética requiere una solución multifacética. El plan arquitectónico propuesto es una estrategia doble que aborda los desafíos de escala y volatilidad mediante la transición a una distribución de energía de 800 VCC junto con la profunda integración del almacenamiento de energía.
Ventajas de 800 VCC
La forma más eficaz de combatir los desafíos de la distribución de alta potencia es aumentar el voltaje. La transición de un sistema trifásico tradicional de 415 o 480 VCA a una arquitectura de 800 VCC ofrece importantes beneficios, que incluyen:
Integración nativa de extremo a extremo de 800 VCC
Generar 800 VCC a nivel de instalación y entregarlos directamente a racks informáticos de 800 VCC elimina conversiones redundantes, lo que mejora la eficiencia energética general. Esta arquitectura admite clústeres de GPU de alta densidad, desbloquea un mayor rendimiento por GPU y permite más GPU por AI Factory, lo que genera un mayor rendimiento informático y potencial de ingresos para los socios. También garantiza una escalabilidad futura más allá de 1 MW por rack y una interoperabilidad perfecta en todo el ecosistema energético de AI Factory.
Cobre y costo reducidos
Con 800 VCC, el mismo calibre de cable puede transportar un 157% más de energía que 415 VCA. Al utilizar una configuración más sencilla de tres cables (POS, RTN, PE) en lugar de cuatro para CA, se requieren menos conductores y conectores más pequeños. Esto reduce el uso de cobre, reduce los costos de material e instalación y facilita la administración de cables, algo fundamental a medida que las entradas de energía de los racks escalan hacia niveles de megavatios.
Eficiencia mejorada
Una arquitectura de CC nativa elimina múltiples e ineficientes pasos de conversión de CA a CC que ocurren en los sistemas tradicionales, donde la eficiencia de un extremo a otro puede ser inferior al 90 %. Esta ruta de energía optimizada aumenta la eficiencia y reduce el calor residual.
Arquitectura simplificada y más confiable
Un sistema de distribución de CC es inherentemente más simple, con menos componentes como transformadores y equipos de equilibrio de fases. Esta reducción de la complejidad conduce a menos puntos potenciales de falla y aumenta la confiabilidad general del sistema.
Este no es un territorio inexplorado. Las industrias de vehículos eléctricos y energía solar a escala de servicios públicos ya han adoptado 800 VCC o más para mejorar la eficiencia y la densidad de energía, creando un ecosistema maduro de componentes y mejores prácticas que pueden adaptarse para el centro de datos.
Reducir las oscilaciones con almacenamiento de energía en múltiples escalas de tiempo
Si bien 800 VCC resuelve el problema de la eficiencia a escala, no aborda la volatilidad de la carga de trabajo. Para ello, el almacenamiento de energía debe tratarse como un componente activo y esencial de la arquitectura energética, no sólo como un sistema de respaldo. El objetivo es crear un buffer (un filtro de paso bajo) que desacople las caóticas demandas de energía de las GPU de los requisitos de estabilidad de la red pública.
Debido a que las fluctuaciones de energía ocurren en un amplio espectro de escalas de tiempo, se requiere una estrategia de múltiples capas que utilice:
- Almacenamiento de corta duración (de milisegundos a segundos): los condensadores y supercondensadores de alta potencia se colocan cerca de los bastidores de computación. Reaccionan rápidamente para absorber los picos de energía de alta frecuencia y llenar los breves valles creados por los períodos de inactividad de la carga de trabajo de LLM.
- Almacenamiento de larga duración (de segundos a minutos): Los grandes sistemas de almacenamiento de energía en baterías (BESS, por sus siglas en inglés) a nivel de instalación están ubicados en la interconexión de servicios públicos. Gestionan los cambios de energía más lentos y de mayor escala, como el aumento y la reducción de cargas de trabajo completas, y brindan capacidad de funcionamiento durante las transferencias a generadores de respaldo.
La arquitectura de 800 VCC es un facilitador clave para esta estrategia. El almacenamiento de energía del centro de datos actual está conectado en línea con el suministro de energía de CA. Al pasar a 800 VCC, resulta más fácil combinar el almacenamiento en la ubicación más adecuada.
Distribución de energía de 800 VCC en fábricas de IA de próxima generación

Las fábricas de IA de próxima generación pasarán de la distribución de CA actual a un modelo de distribución de 800 VCC. La arquitectura actual implica múltiples etapas de conversión de energía. El voltaje medio suministrado por la red pública (p. ej., 35 kVAC) se reduce a voltaje bajo (p. ej., 415 VAC). Luego, esta energía es acondicionada por un UPS de CA y distribuida a los racks de computación a través de PDU y buses. Dentro de cada bastidor, varias PSU convierten los 415 VCA a 54 VCC, que luego se distribuyen a bandejas de computación individuales para realizar más conversiones de CC a CC.
La visión futura centraliza toda la conversión de CA a CC a nivel de instalación, estableciendo un centro de datos de CC nativo. En este enfoque, la CA de media tensión se convierte directamente a 800 VCC mediante grandes sistemas de conversión de energía de alta capacidad. Estos 800 VCC luego se distribuyen por toda la sala de datos hasta los bastidores de computación. La arquitectura agiliza el tren de potencia al eliminar capas de aparamenta de CA, transformadores y PDU. Maximiza el espacio en blanco para la computación que genera ingresos, simplifica el sistema general y proporciona una columna vertebral de CC limpia y de alto voltaje para la integración directa del almacenamiento de energía a nivel de las instalaciones.
La transición a una arquitectura de 800 VCC completamente realizada se producirá en fases, lo que dará tiempo a la industria para adaptarse y al ecosistema de componentes para madurar.


La arquitectura NVIDIA MGX evolucionará con la próxima arquitectura de rack NVIDIA Kyber, que está diseñada para utilizar esta nueva arquitectura de 800 VCC (consulte la Figura 2). La energía se distribuye a alto voltaje directamente a cada nodo de cómputo, donde un convertidor LLC 64:1 de alta relación y última etapa la reduce eficientemente a 12 VCC inmediatamente adyacente a la GPU. Esta conversión de una sola etapa es más eficiente y ocupa un 26 % menos de área que los enfoques tradicionales de varias etapas, lo que libera valioso espacio cerca del procesador.
El camino a seguir: un llamado a la colaboración
Esta transformación no se puede lograr en el vacío. Requiere una colaboración urgente, centrada y de toda la industria. Organizaciones como Open Compute Project (OCP) proporcionan un foro vital para desarrollar estándares abiertos que garanticen la interoperabilidad, aceleren la innovación y reduzcan los costos para todo el ecosistema. La industria debe alinearse con rangos de voltaje, interfaces de conectores y prácticas de seguridad comunes para entornos de 800 VCC.
Para acelerar la adopción, NVIDIA está colaborando con socios clave de la industria en todo el ecosistema eléctrico del centro de datos, incluidos:
- Proveedores de silicio: AOS, dispositivos analógicos, conversión de energía eficiente, Infineon Technologies, Innoscience, MPS, Navitas, onsemi, Power Integrations, Renesas, Richtek, ROHM, STMicroelectronics, Texas Instruments.
- Componentes del sistema de energía: Bizlink, Delta, Flex, Lead Wealth, LITEON, Megmeet.
- Sistemas de energía del centro de datos: ABB, Eaton, GE Vernova, Heron Power, Hitachi Energy, Mitsubishi Electric, Schneider Electric, Siemens, Vertiv.
Publicaremos el documento técnico Arquitectura de 800 VDC para infraestructura de IA de próxima generación y presentaremos los detalles en la Cumbre Global OCP 2025. Cualquier empresa interesada en soportar la Arquitectura de 800 VDC puede contactarnos para más información.








