Todos los blogs

Lo que los directores técnicos deben saber sobre el almacenamiento moderno para IA

Liam Yu
Senior Product Marketing Manager, VSP One Platform, Hitachi Vantara

20 de marzo de 2026


A medida que las organizaciones pasan sus iniciativas de IA de la fase experimental a la de producción, los directores técnicos se enfrentan a un reto arquitectónico crucial: el almacenamiento se está convirtiendo en una de las limitaciones más habituales y más costosas. Aunque las organizaciones siguen invirtiendo activamente en procesamiento con GPU, los estudios demuestran sistemáticamente que las ineficiencias de la infraestructura al margen de la GPU representan la mayor parte del gasto innecesario en IA.

La transición hacia flujos de datos de gran volumen y en tiempo real requiere infraestructuras de almacenamiento diseñadas no solo para ofrecer un alto rendimiento y una baja latencia, sino también para garantizar la simplicidad operativa, la sostenibilidad y un control predecible de los costos. En otras palabras: datos más rápidos, menos sorpresas y menos tiempo para explicar al director financiero los excesos de presupuesto.

Un análisis de Microsoft sobre más de 400 tareas de aprendizaje profundo en producción reveló que el uso promedio de la GPU era del 50 % o menos, y que casi la mitad de esa infrautilización se debía a operaciones con datos (como E/S, preprocesamiento y movimiento de datos), no al diseño de modelos. En los grandes clústeres de IA basados en Kubernetes, el uso real a menudo cae a entre 15 y 25 %, lo que significa que entre el 60 y el 70 % de la capacidad de las GPU se desperdicia, en la práctica, a la espera de que la infraestructura pueda seguir el ritmo.

La modernización ya no es un ciclo de actualización periódico, sino una inversión estratégica en la preparación a largo plazo de la organización para la IA. Para los directores técnicos, esto cambia el enfoque del debate sobre el almacenamiento: cada atasco en el flujo de datos se traduce directamente en GPU inactivas, ciclos de entrenamiento más largos y una economía de tokens inflada.

Las cargas de trabajo de IA sacan a la luz los límites de las arquitecturas de almacenamiento tradicionales

El entrenamiento y la inferencia de la IA consumen una enorme cantidad de datos. Los sistemas de almacenamiento de última generación: un estudio de Google y Microsoft revela que hasta el 70 % del tiempo de entrenamiento de los modelos puede dedicarse a las operaciones de E/S y al movimiento de datos. Esto significa que sus aceleradores (diseñados para funcionar a una velocidad vertiginosa) se detienen con frecuencia a la espera de que lleguen los datos.

Mientras tanto, los datos que alimentan estos flujos están aumentando exponencialmente, tanto en volumen como en complejidad. Los datos no estructurados representan actualmente entre el 80 % y el 90 % de los datos empresariales, y crecen hasta cuatro veces más rápido que los conjuntos de datos estructurados, gracias a las entradas multimodales de IA, como imágenes, videos, datos de sensores e incrustaciones.

Las plataformas de almacenamiento tradicionales se diseñaron para cargas de trabajo transaccionales y predecibles. Esperar que soporten cientos de GiB/s de rendimiento paralelo con una latencia inferior al milisegundo es, en el mejor de los casos, demasiado optimista. En el peor, conlleva ajustes complejos, soluciones provisionales poco fiables y una infraestructura que solo una persona entiende realmente. Y es probable que esa persona esté de vacaciones.

Así es como el almacenamiento de última generación repercute en los resultados:

  1. Optimización automática para cargas de trabajo de GPU: cuando el almacenamiento alcanza una velocidad de entre 400 y más de 650 GiB/s, las GPU pasan menos tiempo inactivas, lo que mejora el valor del token y reduce el tiempo de formación.
  2. Eliminación del "impuesto al rendimiento" de los sistemas tradicionales: la reducción de los obstáculos que suponen el ajuste manual y los puntos de control reduce la carga de trabajo de ingeniería y evita costosas soluciones provisionales en las matrices tradicionales.
  3. Compatibilidad multiprotocolo para flujos de trabajo mixtos de IA: al satisfacer las necesidades de latencia inferior a un milisegundo y de alto número de IOPS para la inferencia, al tiempo que se mantiene el rendimiento del entrenamiento, se permite que los equipos de ciencia de datos, MLOps y de producto trabajen en paralelo.
  4. Operaciones simplificadas para equipos de ingeniería Lean: dedicar menos tiempo a ajustar el almacenamiento y a solucionar problemas de inestabilidad se traduce en más ciclos disponibles para iniciativas de modelos y productos que generan ingresos, lo que se refleja en el aumento de la presión sobre el gasto en infraestructura para las cargas de trabajo estructuradas.

El crecimiento de los datos de IA tampoco es lineal. Las plataformas modernas permiten un escalado incremental y sin interrupciones, lo que supone un crecimiento sin necesidad de planificar un proyecto de migración que todo el mundo teme y que nadie presupuesta correctamente.

Por qué el almacenamiento moderno mejora directamente la rentabilidad de la IA

El almacenamiento moderno de la IA no solo mejora el rendimiento, sino que también soluciona problemas económicos.

Las plataformas de alto rendimiento, capaces de mantener un rendimiento de entre 400 y más de 650 GiB/s, garantizan un suministro constante de datos a las GPU, acortan los plazos de entrenamiento y reducen drásticamente el tiempo de inactividad. Dado que el 46 % de la infrautilización de las GPU está ligada a las operaciones de datos, las mejoras en el almacenamiento tienen un impacto mucho mayor de lo que cabría esperar.

Desde un punto de vista financiero, esto es importante. El tiempo de inactividad en la nube y en las instalaciones (incluidas las ralentizaciones inducidas por el almacenamiento) alcanza actualmente un costo promedio de entre 8600 y 14 000 dólares por minuto, y las grandes empresas superan con frecuencia el millón de dólares por hora durante interrupciones críticas o eventos de degradación del rendimiento. La inestabilidad del almacenamiento agrava estas pérdidas al alargar los ciclos de formación, retrasar los lanzamientos y forzar el sobreaprovisionamiento informático para compensar las ineficiencias.

Las arquitecturas modernas, como VSP One, eliminan gran parte de esta carga sobre el rendimiento al suprimir el ajuste manual, las frágiles soluciones provisionales y la complejidad propensa a fallos. El resultado es una infraestructura que se comporta de forma predecible bajo presión, que es precisamente cuando realmente importa.

La escalabilidad elástica es ahora un requisito empresarial, no una característica de la infraestructura

El crecimiento de los datos de IA no es lineal. Las empresas suelen experimentar picos repentinos debido a nuevos modelos, nuevas modalidades o nuevas aplicaciones, como RAG y la búsqueda vectorial. Las encuestas realizadas a los líderes de TI de las empresas muestran que más del 98 % están aumentando activamente la inversión en tecnologías de datos, específicamente en IA, a menudo sin que ello vaya acompañado de los correspondientes ajustes en los presupuestos generales de TI.

Las plataformas de almacenamiento modernas admiten un escalado incremental y sin interrupciones, lo que permite a las organizaciones ampliar la capacidad y el rendimiento independientemente de la potencia de cálculo. Esta separación mejora la rentabilidad por unidad, ya que evita la adquisición de GPU inactivas o niveles de almacenamiento infrautilizados, al tiempo que se evitan los costosos tiempos de inactividad asociados a las actualizaciones radicales.

Dado que los incidentes de tiempo de inactividad afectan actualmente a más del 58 % de las organizaciones al año, con tiempos de recuperación medios superiores a una hora, la eliminación de los incidentes de escalabilidad que provocan interrupciones tiene un impacto directo en los ingresos y en la reputación.

A continuación, se explica cómo las plataformas de almacenamiento modernas permiten la escalabilidad elástica:

  1. Gestión de la expansión no lineal y multimodal de los datos: el crecimiento elástico absorbe los aumentos repentinos de datos no estructurados y multimodales (un aumento de hasta el 87 % en dos años) sin necesidad de actualizaciones radicales que desborden los presupuestos y los plazos
  2. Escalado incremental sin tiempo de inactividad: la ampliación horizontal sin interrupciones evita los costosos minutos de inactividad que se traducen en pérdidas de ingresos y daños a la reputación.
  3. Escalabilidad independiente de la capacidad de procesamiento y el almacenamiento: la disociación permite adquirir solo lo necesario y ampliar el almacenamiento a medida que crecen los datos sin tener que pagar por capacidad de procesamiento ociosa (y viceversa), lo que mejora la rentabilidad por unidad a medida que los conjuntos de datos se multiplican.
  4. Incorporación fluida de nuevas aplicaciones de IA: ahora que el almacenamiento ya no supone un obstáculo y que el mercado de unidades de almacenamiento está experimentando una tasa de crecimiento anual compuesta superior al 20 % gracias a la IA, podrá poner en marcha rápidamente aplicaciones RAG y vectoriales y aprovechar las oportunidades que surjan.

Ahora, la eficiencia y la sostenibilidad son parámetros fundamentales en la arquitectura

Los directores de tecnología equilibran cada vez más la innovación con la gestión medioambiental y fiscal. La energía (y no el espacio) se está convirtiendo rápidamente en el factor limitante de los centros de datos de IA. Según el Pew Research Center, los centros de datos estadounidenses consumieron 183 teravatios-hora (TWh) de electricidad en 2024, o el 4 % del consumo total de electricidad del país. Para 2030, se prevé que esta cifra crezca un 133 %, hasta los 426 TWh.

La modernización moderna del almacenamiento contribuye a los objetivos ambientales al maximizar la densidad, reducir el espacio ocupado por los datos y disminuir el consumo energético de dos maneras principales:

  • Reducción garantizada de datos para la gestión de costos: funciones como la reducción garantizada de datos en una proporción de 4:1 permiten pasar de una planificación del almacenamiento reactiva a una predecible. Esto proporciona líneas de referencia de costos estables para los programas de IA a largo plazo, a medida que aumentan los tamaños de los modelos, las canalizaciones de incorporación y los requisitos de retención de datos.
  • Los SSD NVMe de alta densidad reducen el espacio físico, el consumo energético y las necesidades de refrigeración: Componentes como las SSD NVMe de 60 TB permiten a las organizaciones consolidar la infraestructura en menos bastidores, lo que reduce los requisitos de energía y espacio.

Al aumentar el rendimiento por vatio, el almacenamiento moderno basado en NVMe garantiza que los recursos energéticos se destinen a tareas productivas en lugar de a infraestructura inactiva.

La gestión unificada reduce los costos ocultos de los entornos híbridos de IA

La mayoría de las infraestructuras preparadas para la IA abarcan una combinación de sistemas locales, servicios de nube pública y entornos periféricos. Los datos del sector muestran que más del 80 % de las empresas usan arquitecturas híbridas o multinube, y que casi la mitad de las cargas de trabajo se distribuyen entre estos entornos. La gestión de estas arquitecturas distribuidas puede introducir una complejidad que eleva los costos operativos. Sin una gestión unificada del almacenamiento, la complejidad operativa se convierte rápidamente en un multiplicador de costos.

A continuación, se enumeran algunas medidas de reducción de costos que suelen ir de la mano de la simplificación de la gestión de la nube híbrida:

  1. Sistemas operativos unificados: un sistema operativo común en todas las matrices de almacenamiento reduce los requisitos de formación, acelera la resolución de problemas y mejora la observabilidad en todo el conjunto de datos.
  2. Un sistema operativo común para todas las matrices reduce la fragmentación: Un sistema operativo único y unificado ofrece capacidad de observación centralizada, un rendimiento API coherente y una gestión simplificada del ciclo de vida. Esto reduce la entropía operativa, acelera la resolución de problemas y simplifica la incorporación de los equipos de plataforma, almacenamiento y SRE.
  3. Automatización y análisis inteligentes: soluciones como VSP 360 proporcionan automatización integral, desde la instalación hasta la coordinación de los flujos de trabajo. Esto se traduce en una reducción del trabajo operativo, menos errores humanos y un personal de TI con más tiempo para centrarse en iniciativas de ingeniería de mayor valor.

Las organizaciones que actualicen sus sistemas a tiempo evitarán la deuda técnica que se acumula a medida que los programas de IA ganan impulso. Las que esperen corren el riesgo de toparse con límites de rendimiento, gastos inesperados y fragilidad operativa.

Casos de uso en el sector: lo que los directores técnicos deben esperar en la práctica

IndustriaCaso práctico
Servicios financieros
  • Detección de fraudes en tiempo real: requiere arquitecturas de latencia ultrabaja y alto IOPS para evaluar millones de transacciones por segundo.
  • Retención normativa: el almacenamiento moderno permite una retención a escala de petabytes con una reducción de datos garantizada para costos predecibles de cumplimiento normativo.
Atención médica y ciencias biológicas
  • Imagen médica y genómica: la tecnología NVMe de alta densidad acelera los procesos de cálculo para conjuntos de datos de resonancia magnética, tomografía computarizada y genómica.
  • Flujos de trabajo de descubrimiento de fármacos: una gestión unificada simplifica los entornos de datos híbridos repartidos entre centros de investigación, plataformas en la nube y laboratorios HPC.
Fabricación y mantenimiento predictivo del IoT industrial
  • Mantenimiento predictivo: la incorporación en tiempo real de miles de sensores exige un rendimiento y una escala constantes.
  • Gemelos digitales: las simulaciones de larga duración requieren un almacenamiento denso y energéticamente eficiente que minimice la huella operativa.
Comercio minorista y electrónico
  • Personalización para el cliente: los motores de recomendación dependen de un acceso rápido a los conjuntos de datos conductuales, lo que requiere tiempos de respuesta constantes por debajo del milisegundo.
  • Inventario y optimización de la cadena de suministro: una información automatizada reduce la fricción del flujo de trabajo de datos en entornos híbridos.
Medios de comunicación y entretenimiento
  • Producción de alta resolución: las tareas de edición y renderización en 8K+ aprovechan las ventajas de los discos NVMe de alta densidad y los diseños de rack compactos.
  • Etiquetado de contenidos basado en IA: un sistema operativo unificado y la automatización aceleran la generación de metadatos para grandes bibliotecas multimedia.
Energía y servicios públicos
  • Análisis de redes inteligentes: el modelado de la demanda en tiempo real requiere un rendimiento constante y una incorporación de alto rendimiento.
  • Supervisión medioambiental: la reducción de datos y la densidad eficiente contribuyen directamente a las iniciativas de reducción de emisiones.

TL; DR: conclusiones para los directores técnicos sobre el almacenamiento moderno de IA

El almacenamiento moderno para IA no es una simple actualización de la infraestructura, sino una herramienta estratégica para mejorar el retorno de la inversión en IA, la sostenibilidad y la agilidad de la organización.

Los datos son claros:

  • Las GPU son costosas y a menudo están inactivas debido a cuellos de botella en el almacenamiento y los datos, y la preparación para la IA requiere bases de almacenamiento modernas, en lugar de parches incrementales para maximizar su inversión.
  • Actualmente, la eficiencia energética y operativa define la escalabilidad, por lo que la sostenibilidad y la gestión de costos deben integrarse en la arquitectura.
  • El almacenamiento unificado y optimizado mediante IA mejora directamente los niveles de uso, la previsibilidad de los costos y el tiempo de retorno de la inversión, y reduce la complejidad operativa en los ecosistemas híbridos
  • El almacenamiento de alta densidad y la reducción garantizada de datos permiten mantener la rentabilidad a largo plazo

Modernizar el almacenamiento no es renovar la infraestructura. Es una decisión que acelera la IA. Las organizaciones que se modernizan a tiempo evitan acumular deuda técnica. Las que se retrasan corren el riesgo de toparse con límites de rendimiento, gastos inesperados y fragilidad operativa precisamente cuando la IA se convierte en un elemento clave para la diferenciación competitiva.

Y si no lo soluciona, sus GPU seguirán esperando: educadamente, en silencio y a un precio muy elevado.

Descubra cómo puede Hitachi Vantara ayudar a su organización a potenciar la agilidad y la innovación informáticas con una gestión basada en operaciones de IA



Liam Yu

Liam Yu is Senior Product Marketing Manager, VSP One Platform, Hitachi Vantara