La empresa de análisis Xertica ha publicado una serie de predicciones respecto al futuro del “Big Data”, la capacidad actual de analizar una enorme cantidad de información en la nube y gestionar soluciones basadas en indicadores.
Cada segundo, los seres humanos producimos 83,521 GB de información en Internet, y reúne casi toda nuestra valiosa data en diferentes servicios: lo que escuchamos, nuestras preferencias, comandos por voz, compras, mensajes personales, todo. Para gestionar ese flujo, las empresas han decidido implementar un conjunto de soluciones que permitan identificar, analizar y procesar la data generada por usuarios. A ese proceso, lo llamaron “Big Data”.
Conforme la tecnología avanza y se acondicionan espacios en hogares y empresas para dispositivos conectados a Internet, la generación de información crece exponencialmente. Los procesos actuales de análisis deben evolucionar al mismo ritmo, y es importante conocer de antemano hacia dónde apunta la industria en los próximos años.
Para Dennys Mallqui, Regional Data & Analytics de Xertica, el crecimiento y evolución del “Big Data” en el mundo “impulsa la creación de nuevos servicios, estrategias e incluso hardware especializado, capaz de gestionar mayores volúmenes de datos y simplificar su procesamiento y su análisis”. Para el ejecutivo, estas son las tendencias que debemos esperar en la siguiente década:
Ningún dato se perderá. Todos los días, las organizaciones recopilan una gran cantidad de información, pero, mayormente, se usa una pequeña proporción de ella. Dado que el almacenamiento de datos es cada vez más fácil, las empresas podrán acumular grandes volúmenes que pueden ser una mina de oro si los analiza de manera efectiva para extraer insights. Según IBM, los esfuerzos para resguardar la mayor cantidad de datos posible cobrarán un impulso considerable en el 2020.
La migración a la nube es una decisión impostergable. La incorporación de soluciones asociadas a Cloud Computing ya no es una elección; es un must para las empresas.
El uso de Inteligencia Artificial y de Machine Learning se extenderá. Este dúo tecnológico que transforma grandes datos aparentemente difíciles de procesar en información simplificada y comprensible les permitirá a las compañías optimizar su rendimiento. El IDC predice que el gasto en ambas herramientas aumentará en USD 57,600 millones. Del mismo modo, las empresas que invierten en ellas son optimistas: prevén que sus ingresos incrementarán un 39 % en el 2020.
Los Chief Data Officers (CDO) tomarán un rol central en las organizaciones. El Director de Datos se convirtió en una figura predominante. En el 2016, la consultora Gartner estimó que, en el 2019, 9 de cada 10 grandes empresas tendrían un CDO. La firma NewVantage Partners retomó la investigación de Gartner y aseguró que el 62,5 % de las empresas designaron a CDOs en el último tiempo. Se espera que cada vez más organizaciones promuevan a Directores de Datos en puestos jerárquicos, ya que sus decisiones pueden ser fundamentales para potenciar los resultados de negocio.
La computación cuántica se asoma. Las computadoras cuánticas, máquinas súper potentes que se rigen por los principios de la mecánica cuántica, capaces de realizar análisis de proporciones de datos impensados, ganarán protagonismo. Las inversiones por parte del sector privado en este equipamiento crecen sin interrupción. No obstante, su uso todavía es incipiente: habrá que esperar unos años más para que su penetración sea masiva.
Si bien el tema parece prometedor en el manejo de información para la siguiente década, los desafíos crecen en la misma medida. Para Mallqui, debemos superar estas condiciones para que el “Big Data” responda a nuestra necesidad:
Escasez de espacio para el almacenamiento de datos. Pese a que las organizaciones incorporan de forma creciente novedosas tecnologías que apuntan a almacenar datos, encuentran trabas relacionadas al espacio, ya que todavía les cuesta definir la manera de gestionar grandes volúmenes en sitios que resultan insuficientes.
Frente a una mayor cantidad de datos disponible, las empresas aún no hacen un uso adecuado de ellos. Por la falta de recursos, muchas organizaciones cuentan con un importante reservorio de información que se halla inactivo. Es necesario que pongan en marcha estrategias y recurran a sistemas que faciliten el análisis de esos datos.
Falta de profesionales especializados. Aunque la búsqueda de estos perfiles es cada vez más alta, todavía es bajo el número de individuos calificados. A medida que crece el uso de estas tecnologías, aumenta la necesidad de contar con científicos de datos. Así, se produce un gap entre la demanda y la oferta en el mercado, donde la educación y la capacitación en la materia se vuelven esenciales.
Las amenazas en el mundo cibernético y la necesidad de las empresas de protegerse de ellas. El avance de los delitos informáticos obliga a las empresas a reforzar su ciberseguridad y la privacidad de sus datos. Incidentes como la reciente violación de datos de Equifax, el escándalo de Cambridge Analytica y la famosa filtración que realizó Wikileaks tiempo atrás son antecedentes que deben servir como lecciones para que las compañías entiendan a lo que se exponen si no toman recaudos.
Comparte esta noticia