Implícito en la definición de Big Data queda el que estamos tratando con grandes volúmenes de datos (o no, cómo también veremos con el Small Data). Para las organizaciones supone todo un desafío enfrentarse al problema de reparto de la información por toda la estructura de la empresa, incluso en lugares físicos distantes. Si con eso no bastara, los datos provienen de diversas fuentes, muchas de ellas desestructuradas.
Como respuesta a este desafío, aquí se exponen las cinco premisas de Big Data:
- Integrar grandes volúmenes de datos transaccional y de interacción.
- Disponer de datos validados y confiables.
- Proveer capacidades de auto servicio a usuarios, analistas, desarrolladores, data stewards, dueños de proyectos y usuarios de negocio.
- Servicios adaptativos de datos.
- Administración de datos maestros (metadatos).
Es vital que las entidades que manejan una gran cantidad de datos pongan en práctica todas las acciones disponibles para gobernar su Big Data, y de este modo utilizarla como insumo para el negocio.
¿Y donde está el problema? En disponer de herramientas (software) que hagan dicho trabajo, y esto requiere bases de datos, lenguajes de programación avanzados, estadística, ….
Como los objetivos de cada caso son diferentes, es normal que para aplicar Big Data el software sea específico para alcanzar dicho objetivo. Se requiere una plataforma diferente para solventar cada hipótesis, y las infraestructuras de software son diferentes en cada caso.
Mi particular Big Data
A veces, incluso no hace falta grandes volúmenes de datos para practicar (o aplicar) Big Data (en mi opinión), dependiendo del problema que se vaya a resolver. Intentaré hablar de esto con mi aplicación sobre el mundo de las quinielas y el futbol, que inicié por 2003 con el mero intento de almacenar datos, y ha acabado siendo otra cosa muy diferente.
Un saludo, y buen día.