¿Se ha creado el 90% de los datos del mundo en los últimos dos años?

"Big Data" es un término de gran tendencia en Internet (especialmente en los sitios web de las grandes empresas que venden servicios de gestión de datos). Por ejemplo, encontré este artículo mientras leía el Irish Times en un aeropuerto. Contenía esta afirmación reciente de IBM que se ha repetido con frecuencia en otros lugares (mi énfasis):

Todos los días creamos 2,5 quintillones de bytes de datos, tanto que el 90 % de los datos del mundo actual se han creado solo en los últimos dos años .

¿Es esto solo una exageración de marketing o es creíble la afirmación?

NB, también podría valer la pena preguntarse si la afirmación se sostiene con algo más que una vaga definición de "datos".

Esto realmente depende de cómo defina "datos", pero dado que es de IBM, probablemente signifique "información utilizable y recuperable registrada en un medio persistente".
No estoy seguro de cómo se vería la evidencia de esto, pero como respuesta parcial, esto es más o menos cierto en bioinformática (tenga en cuenta que los datos están desactualizados, el crecimiento se ha acelerado desde entonces), que es uno de los productores de datos más grandes recientemente. Es casi seguro que también es cierto en física (piense en LHC). Pero sospecho que la mayoría de los datos provienen fácilmente de otras fuentes, a saber, personas que crean contenido.
Los pedantes de la gramática podrían querer decirme si el título debería comenzar " Tener el 90% de los datos del mundo..."
@matt_black Según wiktionary, sobre 'datos': 'Esta palabra se usa más a menudo como un sustantivo incontable con un verbo singular que como un sustantivo plural, con un dato singular'. Siendo ese el caso, y en ausencia de algo que indique que la pregunta se refiere específicamente a un conjunto de hechos individuales, 'ha' me parece correcto.
El video a 1080p60 es una enorme cantidad de datos. 15-24 Mbps es la tasa de bits típica de la mayoría de las videocámaras. La mayoría de los teléfonos inteligentes no pueden hacer videos de 1080p60, pero generalmente lo hacen en 1080p30 o 720p60. Producción de videos a 100 MB por minuto de grabación. A modo de comparación, hace unos años, la mayoría de los teléfonos inteligentes solo podían grabar videos QVGA o VGA a 30 fps o, a veces, a tan solo 15 fps. O incluso nada (por ejemplo, iPhone 3G).
El "reclamo reciente de IBM" se remonta a 2013. Originalmente, los "últimos dos años" significarían 2011-2012. Pero hoy en 2015, "los últimos dos años" podría significar 2013-2014. Entonces, cualquier respuesta dada a esta pregunta quedaría desactualizada cada dos años... ¿Cómo se respondería una pregunta tan complicada?

Respuestas (1)

No tengo fuentes de investigación rigurosas para citar, pero en base a informes como este , juzgaría que la plausibilidad básica de esta afirmación es decente si lo siguiente resiste el escrutinio:

  1. Los dispositivos con cámaras han proliferado significativamente en los últimos 4-6 años con la llegada de los llamados 'Smartphones'.
  2. Esas cámaras tienen cantidades cada vez mayores de megapíxeles en cada generación.
  3. El video también es cada vez más una característica de estos dispositivos.
  4. Los servicios en la nube y los sitios sociales en línea permiten que todos estos datos se retengan (y cuenten) de manera más confiable.
  5. El video HD también ha proliferado en línea en muchos sitios de videos populares: películas e incluso transmisión HD (que se graba) de videojuegos (eSports) y otros eventos.

Yo diría que 1-4 tienen una especie de efecto multiplicador entre sí... decenas de millones de dispositivos más (hace 2 años, Apple y Google activaron 9 millones de teléfonos al mes ) tomando fotos de 8MPix y videos HD se sumarían muy rápidamente .

Entonces, ¿la fotografía basada en películas no cuenta como datos?
@matt_black Creo que es razonable suponer para los propósitos de conteo de IBM, hasta que esté en forma digital, no lo es.
@matt_black Escuché que la película de los transformadores era muy pesada en este aspecto :)
por cierto. Diría que la foto de 8Mpx es irrelevantemente pequeña en comparación con el video Full HD.
@Mathieu 2MP por cuadro. 60 fotogramas por segundo. 3600 fotogramas por minuto. 216000 fotogramas por hora.
Sí, eso es una cantidad considerable de datos.
(Mi comentario anterior que había eliminado, lo siento: "Full HD = 1080 * (16/9 * 1080) = 1080 * 1920 = 2073600 = 2.1 MP").