Qué es el big data

Qué es el big data

diciembre 16, 2020 Desactivado Por Silvia Leal
silvia-leal

Silvia Leal es doctora en Sociología, experta en innovación y nuevas tecnologías. Asesora de la Comisión Europea en competencias digitales, e-Liderazgo y emprendimiento digital y mentora de e-Leadership en el Human y Age Institute es una investigadora, consultora y conferenciante reconocida como una de las diez expertas más influyentes de España..

  1. Naturaleza y esencia

El Big Data es la tecnología capaz de identificar, ex­traer (de fuentes diversas y dispersas), almacenar, ordenar, gestionar y analizar cantidades masivas de datos que con las aplicaciones tradicionales no se po­drían procesar.

Es, en pocas palabras, la tecnología capaz de analizar la avalancha de información que, tras la llegada de Inter­net, ha logrado impregnar todos los rincones de nuestra vida. Por ello, a menudo se habla de sus tres V: velo­cidad, volumen y variedad, variables que describen de forma muy sencilla lo que es capaz de hacer.

El Big Data explora y explota todos estos datos en tiempo real, lo que permite convertir la información en un activo muy valioso para las empresas. Por ello, recibe también otros nombres como «analítica inteli­gente» e «inteligencia del negocio».

Aunque es una tecnología caracterizada por gestionar una gran complejidad, su mecanismo esencial de fun­cionamiento es muy sencillo:

Una aplicación de Big Data está preparada, por su­puesto, para hacer muchas más cosas: gestión de la integridad de los datos, gráficos y cuadros de mandos (entre otros). No obstante, la comprensión de este mecanismo básico resulta suficiente para entender su funcionamiento, potencial y aplicación al mundo de la empresa.

Al principio, las empresas que apostaban por invertir en esta tecnología eran, casi siempre, de gran tama­ño. Sin embargo, cada día son más las pymes que se atreven a probar y que acaban incorporándola como parte de su estrategia. Logran aprovecharse así de las enormes posibilidades que esta ofrece, pudiéndose destacar las siguientes aplicaciones:

  • Predicciones: el Big Data realiza predicciones muy precisas, gracias a su eficacia para extrapolar el pa­sado hacia el futuro, añadiendo una buena dosis de inteligencia. Nos ayuda a predecir, por ejemplo, cómo evolucionará un sector, un mercado, un pro­ducto y/o un cliente.
  1. Extracción de datos (estructurados y no-estructurados) de fuentes internas y externas.
  2. Almacenamiento, procesamiento y cruce de datos.
  3. Pregunta y respuesta inmediata.
  • Toma de decisiones empresariales: el Big Data ofre­ce información muy relevante para la definición de la estrategia corporativa, así como para el lanza­miento de nuevos modelos de negocio, productos y servicios.
  • Mejoras en la eficiencia y los costes internos: el Big Data ayuda a identificar mejoras operativas que aumenten la eficiencia y que permitan reducir los costes operativos de la actividad.
  • Experiencia personalizada: dado el conocimiento que el Big Data puede llegar a tener sobre cualquiera de nosotros, ofrece una mejora sin precedentes en la personalización de la relación individual. Por ello, permite incrementar la satisfacción y el nivel de vin­culación emocional con una empresa y sus marcas.

 

  1. Historia y e-liderazgo

Las bases sobre las que se ha construido no son nue­vas en absoluto. El Big Data representa un salto cuan­titativo y cualitativo en nuestra capacidad de recopilar, gestionar y analizar información pero, en esencia, es algo que llevamos haciendo mucho tiempo.

¿Has visto alguna vez un ábaco? Es el instrumento más antiguo con el que se han realizado operaciones aritméticas. Se desconoce su origen exacto, por lo que algunos fijan su nacimiento en Madagascar (Áfri­ca) mientras que otros lo encuentran en Mesopotamia (Asia). En lo que sí están de acuerdo es en que tiene al menos 2.500 años de antigüedad.

El año 1900 fue localizado el mecanismo de Anticitera. Era una roca de 33cm de altura por 17cm de anchura y 9cm de grosor, que tenía una rueda dentada den­tro. Estaba entre los restos de un naufragio descubier­to entre las islas de Creta y Anticitera. Durante mucho tiempo se pensó que era un reloj mecanizado, pero finalmente se comprobó que había sido diseñado para predecir posiciones astronómicas y eclipses. Según investigaciones recientes, fue fabricado en el año 200 a.C., con tal complejidad que hasta el siglo XVIII no se volvió a construir ningún objeto comparable. Muchos lo describen como el primer ordenador de la historia.

John Graunt (1620-1674), inspirador comerciante de tejidos inglés, logró pasar a la historia por convertir­se en el primer demógrafo, en fundador de la bioes­tadística y precursor de la epidemiología. Desarrolló los primeros censos que se conocen y que aún sir­ven como base para la demografía moderna. En 1962 publicó su libro Observaciones políticas y naturales hechas a partir de los boletines de mortalidad en el que dejó claro su reto personal: contribuir a erradicar la peste bubónica.

El término «inteligencia del negocio» se lo debemos a Richard Millar Devens. Lo acuñó en 1865 dentro de su Encyclopaedia of Commercial and Business Anecdotes. Curiosamente, lo hizo para explicar la ventaja que suponía para un banquero obtener infor­mación antes que sus competidores.

En 1881, el estadístico americano Herman Hollerith inventó la máquina de tabulación, un equipo que re­volucionó el tratamiento de información masiva. Su invento, que utilizaba tarjetas perforadas eléctricas, fue el primero en lograr un tratamiento de datos auto­mático. Consciente del potencial de su máquina, Ho­llerith fundó en 1896 la Tabulating Machine Company. Esta se uniría años más tarde a otras tres, acabando por formar el gigante IBM en 1924.

 

  1. Las bases sobre las que se ha construido el Big Data no son nuevas en absoluto

 En 1928, el ingeniero alemán-austríaco Fritz Pfleumer patentó la cinta magnética para el almacenamiento de datos. Para lograrlo, cubrió papel muy fino con polvo de óxido de hierro usando laca como pega­mento, lo que ofrecía una interesante alternativa fren­te al método tradicional (basado en alambre). Aunque sus derechos fueron declarados nulos en 1936, tuvo un impacto clarísimo sobre la tecnología de almace­namiento actual. De hecho, aunque no se hace de forma masiva, todavía hay nostálgicos quien la siguen utilizando.

No me puedo olvidar, por supuesto, del matemático Alan Turing (1912-1954), recordado por descifrar el Código Enigma, un lenguaje secreto utilizado por los nazis, lo que contribuyó enormemente a que finali­zase la Segunda Guerra Mundial. Sin embargo, Turing hizo además grandes aportaciones en campos como las matemáticas, la inteligencia artificial e, incluso, la biología. Hoy está considerado el padre de la informá­tica moderna.

El matemático Edgar Frank Codd desarrolló un revolucionario modelo en 1970 para la organización y gestión de bases de datos. Su aportación –conocida como el «modelo relacional»– perseguía aportar mu­cha flexibilidad y sencillez al proceso. Hoy, este sigue siendo el modelo más utilizado por los proveedores de este tipo programas, permitiendo (entre otros) evi­tar duplicidades y garantizar la integridad de los datos.

En 1989, el periodista Erik Larson utilizó el término «Big Data» en un artículo que apareció en Harper’s Magazine. Publicado más tarde también por The Washington Post, afirmaba que quienes custodian el Big Data dicen que lo hacen por el bien del consumi­dor. Sin embargo estos datos podrían ser utilizados con fines más allá de los originalmente previstos. Mu­cho me temo que, a pesar de que han pasado ya casi tres décadas, sigue estando de plena actualidad.

El término se utilizó por primera vez en un artículo académico en 1999. Fue publicado por la Associa­tion for Computing Machinery (Asociación de Siste­mas Informáticos), bajo este título: «Visually Exploring Gigabyte Data sets in Real time». Hoy es un concepto muy frecuente en el mundo académico y científico.

En 2010, Eric Schmidt, presidente ejecutivo de Google, afirmó en una conferencia que la cantidad de datos creada cada dos días (5 exabytes) superaba la gene­rada desde el comienzo de la civilización hasta 2003. Desde entonces, se estima que cada dos días genera­mos más de 2,5 trillones de bytes en datos, cifra que se espera que suba hasta los 11 trillones tras la llegada de la Internet de las Cosas.

 

Extracto de la obra e-Renovarse o morir
LID Editorial Empresarial, 2015

Más información:

www.lideditorial.com