En 2025 se generarán más del doble de datos que en 2022, alcanzando unos 180 zettabytes, aproximadamente 36.000 veces más que los datos que Google almacena hoy.
Desde la década de 1990, las grandes empresas comenzaron a reconocer la importancia de los datos como un diferenciador clave en sus planes de negocio. Este fenómeno se intensificó con la democratización de Internet y el auge de los sitios web, marcando una tendencia que ha evolucionado significativamente en los últimos 30 años.
Un informe de Statista proyecta que para 2025 se generarán más del doble de datos que el año pasado, alcanzando casi 180 zettabytes, aproximadamente 36.000 veces más que el volumen de datos que Google almacena hoy.
Con motivo de su 25 aniversario, PUE, compañía tecnológica española líder en consultoría e implementación de proyectos de Data & Machine Learning, ha recopilado los principales hitos de los que ha sido testigo en la transición del antiguo big data a las capacidades actuales. Estos hitos han permitido a la empresa responder de forma innovadora a las crecientes demandas de sus clientes.
- Transición hacia una mayor eficiencia: de Hadoop a la nube de datos: en 2006, Apache Hadoop surgió como una innovación centrada en procesos ETL por lotes para entornos locales. Sin embargo, su ecosistema limitado y los complejos desarrollos de Java lo dejaron atrás como un marco rudimentario. En 2023, el Data Cloud se consolida como una evolución que mantiene el espíritu de Hadoop, centrándose en el procesamiento por lotes y el streaming. Esta ventaja del tiempo real, combinada con la inteligencia artificial, permite el desarrollo de procesos en un amplio ecosistema, tanto en la nube como en entornos híbridos, y ofrece calidad de datos y capacidades de gobierno de datos, lo que marca un avance significativo desde la época de Hadoop.
- Evolución en la gestión de datos: de modelos locales a modelos híbridos y en la nube: en los primeros proyectos de datos, las empresas estaban limitadas a la opción local. Con el desarrollo de la Nube surgió una gestión de datos más ágil, flexible y eficiente, con inversiones potencialmente menores. Hoy en día, la clave para una estrategia de datos optimizada es analizar la naturaleza de cada proyecto para determinar si los entornos en la nube, locales o híbridos son la mejor opción. Un informe de Cloudera revela que el 72% de las empresas están considerando repatriar sus datos de la nube al entorno local, mientras que el 94% planea trasladar más datos a la nube.
- Smart Data: la máxima eficiencia de Big Data: a medida que más empresas buscan aprovechar sus datos para expandir su negocio, simplemente ser una empresa basada en datos ya no es suficiente. Ahora la recopilación y el almacenamiento masivo de datos deben ir de la mano de técnicas analíticas innovadoras para un uso más útil, accesible e intuitivo. La transición del big data al smart data se convierte en el factor diferenciador. Esto impulsa la optimización de procesos, minimiza riesgos y amenazas, abre nuevas oportunidades de negocio, mejora la experiencia del usuario y, en última instancia, aporta una reputación de marca positiva.
- Nuevo desafío a corto plazo: Crecimiento de datos no estructurados: Al principio, las empresas manejaban cantidades de datos pequeñas y manejables. Sin embargo, con avances como el IoT y los dispositivos conectados, el volumen de datos ha crecido exponencialmente. Hoy en día, son comunes grandes volúmenes de datos no estructurados y representan entre el 80% y el 90% de los nuevos datos capturados por las empresas, según Gartner. Este desafío dificulta la gobernanza de datos y resalta la necesidad de contar con la tecnología y los enfoques analíticos adecuados para extraer el máximo valor de estos datos. Antonio Rentero