Uno de los conceptos más recurrentes cuando se habla de la recolección y almacenamiento de datos es big data o grandes cantidades de datos . Aunque no es una traducción literal sí resume de forma acertada el más importante principio de este concepto.

Es interesante que este concepto no tenga una definición única, ya que depende directamente de la innovación tecnológica. Por ejemplo, las grandes caídas en los precios de almacenamiento de datos junto con las mejoras en velocidades de conexión a Internet han impactado positivamente en el establecimiento de centros de big data en las empresas. En otras palabras, se establecen repositorios de datos que recopilan cientos o miles de variables que luego son procesadas para producir información que se espera sea de alto valor para quien la requiere.

La consultora Stratecast, división de Frost & Sullivan, ha identificado como algunos de los grandes impulsores de estos grandes repositorios de datos el crecimiento de las tecnologías móviles, el mayor número de personas utilizando redes sociales y la creciente automatización de procesos dentro de los negocios. El incremento de conexiones de datos fomentará una mayor producción de datos, incrementando el tamaño de los centros de big data de las empresas.

Ante esta gran cantidad de datos, estudios hechos por entidades como la Universidad Johns Hopkins en los Estados Unidos indican que sólo una pequeña fracción de los datos almacenados logra generar algún valor. La explicación que ofrece este ente académico es que para que el big data sea de utilidad el cruce de variables tiene que responder a una pregunta específica. Como puede imaginar, si la pregunta está mal hecha o con premisas erróneas la información obtenida será de poca utilidad.

Por otro lado, la Universidad de Barcelona, en España, en sus cursos básicos de inteligencia de negocios indica que uno de los puntos más importante de la gestión de datos es el proceso establecido para la aprobación de los pedidos de información. Se debe tener como mejor practica un filtro que apruebe la solicitud y verifique si este requerimiento es viable, sobre todo si se trata de información confidencial.

De ser viable proveer la información, ésta tiene que ser certificada para asegurar su autenticidad y contextualización. Sin estos pasos se evita que se entreguen datos de poco valor. ¿Por qué este proceso? Muy sencillo: el almacenamiento de datos y el responder a pedidos de información tiene un costo. El establecimiento de un proceso de gestión es un acercamiento básico que se toma al administrar una gran base de datos para aminorar costos y mejorar la calidad de la información suministrada.

Si complementamos la información que obtenemos de Frost & Sullivan sobre algunas de las fuentes de datos que se pueden recopilar con la información de la Universidad Johns Hopkins y la Universidad de Barcelona, es claro que la cantidad de datos a ser recopilados sólo incrementará en el futuro, no todos nos son de utilidad y existe un costo por poseer estos datos para responder a pedidos de información.

Se puede concluir que es sumamente importante el almacenamiento de comunicaciones por los operadores se dé bajo reglas claras. Hay que considerar las capacidades económicas de los operadores (hay cientos de empresas regionales pequeñas), que es tecnológicamente viable y qué datos son los que merecen almacenarse. Desafortunadamente, como está escrito en la actualidad el título octavo de la Ley Federal de Telecomunicaciones y Radiodifusión se promueve un uso ineficiente de fondos y se viabiliza un libertinaje en pedidos de información, pues no se impone un filtro. Es crucial establecer un filtro para los pedidos de información que sirva para evitar sorpresas desagradables.

*José F. Otero es director de 4G Américas para América Latina y el Caribe.