En una economía siempre activa, los datos fragmentados son un lastre. Sus informes analíticos pueden parecer impecables, pero si se basan en silos de datos dispersos por el perímetro, el núcleo y la nube, se asientan sobre una falla. Los silos de datos aumentan los costos, distorsionan las decisiones críticas destinadas a potenciar la competencia e impiden que las organizaciones alcancen un estado de singularidad de datos, en el que los datos se unifican, se transportan y se utilizan continuamente para la IA.
Según un estudio exclusivo de Hitachi Vantara, el 37 % de los directores de TI consideran que la calidad de los datos es su principal preocupación en el día a día; sin embargo, casi la mitad sigue sin etiquetar los datos para su visualización, lo que frena el rendimiento de la IA.
Para avanzar hacia la singularidad de los datos, las organizaciones necesitan un almacenamiento confiable, pero también una movilidad de datos sin interrupciones.
Escala y dispersión de datos: La paradoja de la nube híbrida
Esta medida plantea un nuevo reto, conocido como la "paradoja de la nube híbrida". Lo que comienza como un esfuerzo de modernización se convierte rápidamente en un laberinto de plataformas y niveles de almacenamiento. Los administradores de almacenamiento tienen que hacer malabarismos con plataformas fragmentadas que nunca se diseñaron para funcionar como una sola.
Según la paradoja de la nube híbrida, las empresas deben estar preparadas para enfrentarse a estos problemas habituales:
- Estancamiento de los modelos de IA: Los conjuntos de datos de formación no pueden moverse de forma eficiente entre los lagos de datos locales y los recursos informáticos en la nube. De hecho, el 95 % de las iniciativas de IA se estancan antes de superar la fase piloto, en parte debido a los silos de datos.
- Deficiencias en el cumplimiento normativo: las políticas de gobernanza no logran abarcar los entornos híbridos. Más de la mitad de las organizaciones señalan ahora explícitamente a la IA como su principal riesgo en materia de seguridad de los datos.
- Ineficiencia en los costos: Solo el 34 % de las organizaciones sabe dónde residen todos sus datos, lo que aumenta las copias redundantes, el almacenamiento infrautilizado, la demanda de energía y las tarifas de salida de datos.
Eliminación de silos mediante una movilidad de datos fluida
Uno de los principales obstáculos para el éxito de la nube híbrida es el traslado seguro de datos entre entornos periféricos, centrales y multinube. Hitachi Vantara da respuesta a este reto con VSP One, que incluye almacenamiento en bloque, de archivos y de objetos, y que integra los recursos en una única plataforma para permitir un traslado seguro de datos en tiempo real.
Desde el punto de vista de la administración, el valor aquí no es solo la conectividad, sino el bajo costo total de propiedad. VSP One no introduce capas de hardware propietarias adicionales solo para hacer que su nube "se comunique" con el centro de datos. Ofrece las siguientes ventajas:
- Aproveche los activos existentes: si ya dispone de un VSP 5000, no necesita adquirir un VSP One Block de gama alta específicamente para replicar datos en la nube.
- Replicador Universal (UR, por sus siglas en inglés): dado que utilizamos la misma tecnología UR tanto en matrices de bloques empresariales como de almacenamiento definido por software (SDS, por sus siglas en inglés), su replicación se mantiene independientemente del modelo de consumo subyacente.
- Singularidad de datos: permite que los datos fluyan contextualmente a través de las plataformas, lo que permite a la IA acceder a conjuntos de datos unificados para el aprendizaje continuo sin el "costo de almacenamiento" típicamente asociado con las migraciones híbridas.
- Gestión centralizada: VSP One proporciona un plano de control unificado con perspectivas predictivas de AIOps desde una única interfaz. Unifica el plano de datos, el aprovisionamiento y la gobernanza del ciclo de vida.
Evitar los silos de datos con la infraestructura como código (IaC, por sus siglas en inglés)
Las tareas manuales de TI limitan la capacidad de ampliación y obstaculizan la movilidad de los datos al introducir altas tasas de error. VSP One elimina estos obstáculos al admitir flujos de trabajo modernos de infraestructura como código (IaC):
- Automatización predecible: mediante los playbooks de Red Hat Ansible y los proveedores de Terraform, el departamento de TI puede definir, aprovisionar y gestionar los recursos como código.
- Integración CI/CD: Integre a la perfección el aprovisionamiento de almacenamiento en sus procesos de implementación de aplicaciones para acelerar las pruebas y la ampliación, al tiempo que reduce los errores de configuración manual.
En combinación con los servicios de consumo EverFlex de Hitachi, las organizaciones obtienen una escalabilidad de pago por uso con una gestión totalmente automatizada. VSP One SDS mejora aún más esta característica con una implementación definida por software en las principales nubes públicas, aprovisionamiento dinámico, replicación y compresión, lo que puede reducir los costos de almacenamiento hasta en un 40 %.
Superar los silos de datos para fomentar el crecimiento basado en la IA
La nube híbrida solo ofrece valor cuando los datos se mueven de manera uniforme en todos los entornos. Pero las plataformas fragmentadas y los procesos manuales convierten esa promesa en un riesgo, al crear silos, ralentizar la IA y debilitar la gobernanza. Al unificar el almacenamiento y automatizar las operaciones, las organizaciones pueden eliminar estos riesgos y crear una base sólida y escalable, preparada para un crecimiento impulsado por la IA.
Los silos de datos reducen el potencial de la nube híbrida y ralentizan la transformación digital. Descubra cómo puede ayudarle Hitachi Vantara a eliminar los silos.
Andy Gremett
Andy Gremett is Sr. Product Marketing Manager, Product Solutions Marketing, at Hitachi Vantara.