Gerente de Tecnología de Kingston destaca la necesidad de monitoreo continuo e infraestructura resiliente para evitar interrupciones operativas.

En el ecosistema corporativo actual, la integridad de los datos se ha convertido en la columna vertebral de la continuidad del negocio. Sin embargo, el escenario requiere atención. Según estudios del sector, como informes recientes de Veeam, 9 de cada 10 empresas no realizan un respaldo adecuado de sus datos, lo que deja hasta el 17% de la información organizacional completamente desprotegida frente a ciberataques y fallas de hardware.
El escenario obliga a empresas de todo el mundo a adoptar medidas de respaldo con celeridad. Pero en Chile se añade un detalle relevante: en diciembre de este año comienza a regir la Ley de Protección de Datos Personales, lo que obliga a las organizaciones que cuentan con información sensible a ser cautelosas con su uso y almacenamiento.
Incluso en empresas que mantienen rutinas de respaldo, la seguridad puede ser ilusoria. Según las investigaciones, aproximadamente el 49% de los backups fallan durante el proceso de recuperación, precisamente en el momento en que la empresa más los necesita. Para Kingston, líder mundial en soluciones de memoria y almacenamiento, el problema central radica en tratar el backup como un proceso estático y puramente técnico, ignorando las variables del día a día operativo y la confiabilidad de los componentes físicos que sostienen estos datos.
“Las fallas más comunes en los sistemas de backup no siempre ocurren por grandes desastres. Muchas veces surgen de problemas cotidianos, como copias mal configuradas, falta de pruebas de restauración y archivos corruptos debido a fallas de hardware”, explica José Luis Fernández, Gerente de Tecnología de Kingston Technology para Latinoamérica. Según el ejecutivo, el mayor riesgo es que el impacto pase de técnico a operativo. “Cuando la restauración falla, las pérdidas se acumulan con cada hora de inactividad, con equipos improductivos y clientes sin atención”.
Soluciones para garantizar la resiliencia de los datos
Para mitigar estos riesgos y elevar el nivel de madurez digital, el mercado señala caminos que van más allá de la simple copia de archivos. Entre las estrategias recomendadas por especialistas para abordar estas vulnerabilidades se encuentran:
Adopción de la regla 3-2-1: mantener al menos tres copias de los datos, en dos tipos de medios diferentes, con una de ellas almacenada fuera del entorno local (offsite o en la nube).
Monitoreo y pruebas de integridad: implementar rutinas automáticas de verificación para garantizar que los backups no solo se ejecutaron correctamente, sino que los archivos estén íntegros y listos para su restauración.
Cifrado y aislamiento: proteger las copias con cifrado de extremo a extremo y garantizar el aislamiento físico o lógico de los respaldos para evitar que malware o ransomware contaminen las copias de seguridad.
Hardware de alto rendimiento: utilizar SSDs y unidades de almacenamiento con alta durabilidad y baja tasa de fallas, como las soluciones Enterprise de Kingston, dimensionadas específicamente para soportar cargas intensivas de lectura y escritura durante procesos de restauración a gran escala. La elección de memorias con corrección de errores y SSDs con protección contra pérdida de energía es fundamental para evitar la corrupción silenciosa de datos.
Lo que los equipos de TI suelen subestimar en la infraestructura de backup
Uno de los grandes desafíos en las organizaciones surge al subestimar el crecimiento constante del volumen de datos y los cuellos de botella de infraestructura que aparecen bajo cargas intensivas. José Luis Fernánez señala que el verdadero indicador de madurez no es simplemente la existencia del backup, sino la confiabilidad de su restauración dentro del tiempo que exige el negocio.
“Los equipos de TI muchas veces subestiman la importancia de las pruebas periódicas y la necesidad de aislar las copias. Tratar el backup como un proyecto terminado es un error. Debe gestionarse como una capacidad crítica en evolución constante”, afirma. “Esta subestimación genera una falsa sensación de seguridad. El entorno parece estar protegido, pero puede fallar en lo más importante: recuperar el negocio a tiempo”.

El hardware también forma parte de la base de esta estrategia. Sin una infraestructura de almacenamiento robusta y certificada para entornos críticos, cualquier plan de recuperación queda vulnerable. Más allá de este escenario, Kingston ha desarrollado una serie de prácticas clave recomendadas para empresas que buscan construir una estrategia sólida de prevención de pérdida de datos, ya que todas las organizaciones que manejan información confidencial deben implementar una estrategia de Data Loss Prevention (DLP). Para conocer más detalles, es posible acceder al contenido disponible en el blog oficial de Kingston.