Vivir en un Mar de Datos: Big Data a nuestro rescate

Share Button

Vivir-en-un-mar-de-datos-050Ayer se celebró en la Fundación Telefónica, en el histórico edificio en la esquina de Gran Vía con Fuencarral en Madrid, el evento Vivir en un Mar de Datos: Hacia una sociedad inteligente. Se trata de la primera sesión de un conjunto de tres sobre un tema del que parece que todo el mundo habla últimamente: Big Data.

El encuentro estuvo dirigido por el periodista Vicente Vallés, el cual actuó como maestro de ceremonias. Fueron desfilando por la tribuna diferentes personas de ámbitos profesionales diversos, pero todos relacionados de algún modo con Big Data.

Lo primero que mencionaron es que la Fundación del Español Urgente (Fundéu) rechaza el uso del anglicismo Big Data  y recomienda en español utilizar las expresiones Macrodatos o Inteligencia de Datos. Esta tradición en Informática de recurrir siempre a la lengua de Shakespeare para crear nuevos vocablos veremos si seremos capaces de desterrarla, aunque mucho me temo que es una batalla perdida.

Empezó hablando Toni Cortés, del Barcelona Supercomputing Center. Cortés habló de varios proyectos de supercomputación en los que están involucrados, como por ejemplo el Human Brain Project (simulación del cerebro humano), secuenciación del genoma humano (lo cual cada vez resulta más barato), el Chronic Cancer Leukemia (diseño de nuevos medicamentos contra el cáncer), estudios de la calidad del aire (mencionó la famosa erupción volcánica de Islandia de hace pocos años), etc.

Tomó luego la palabra Carmen Vidal, de la empresa especializada en Big Data y organizadora del congreso Big Data Spain (del que hablaremos en un post futuro), Paradigma Tecnológico. Vidal mencionó que el apellido “Big” en Big Data no es sólo por el gran volumen de datos, sino también por el gran valor de los mismos. Datos que son muy útiles para las empresas, como puede ser el saber qué se dice y opina de una empresa en las redes sociales.

Vidal continuó indicando que Big Data no es algo nuevo, sino que empezó hace ya ¡10 años! De hecho, se está empezando ya a hablar de Big Data 2.0. Hace 10 años toda la información contenida en Internet hasta ese momento era aproximadamente de 5 exabytes (EB). Sin embargo, en 2010 se creaba esa misma cantidad cada 2 días. Toda esa información hay que aprovecharla (y almacenarla) para sacar valor e inteligencia de cara a las empresas.

Prosiguió hablando José Luis Agúndez de Telefónica Digital. Agúndez, que está involucrado en Dynamic Insights, la plataforma Big Data de Telefónica, mencionó que el conocimiento es el motor de la economía. Mostró diversos vídeos ilustrativos de cómo se puede obtener información relevante estudiando el patrón de llamadas en un determinado entorno (sin entrar en el contenido de las mismas). Así por ejemplo comentó las llamadas producidas justo antes y después del terremoto de México de 2012, donde podía observarse un aumento brusco de las llamadas que hacía presagiar que algo había ocurrido. También sobre México, explicó diversos estudios sobre la propagación del virus de la gripe aviar H1N1 en 2009, así como un estudio realizado en Manchester (Reino Unido) combinando información del censo, el estado del tráfico y la posición de las ambulancias para analizar el tiempo de respuesta de las ambulancias en dicha ciudad.

Vivir-en-un-mar-de-datos-058

La última charla corrió a cargo de Jaime del Barrio, del Instituto Roche. El sector farmacéutico también está interesado en Big Data, en particular por su importancia a la hora de obtener el genoma completo y la llamada Medicina Personalizada. Se trata del diseño personalizado de medicamentos para determinados pacientes en función de su perfil genético.

El genoma humano ocupa aproximadamente 130 gigabytes (GB). La primera vez que se pudo secuenciar se tardó aproximadamente 10 años y se necesitaron 3000 millones de dólares. Hoy en día se tardan solo 7 días por el módico precio de 3000 dólares. Del Barrio aseguró que se están acortando mucho los tiempos de generación y comercialización de medicamentos, lo cual da esperanza para los pacientes de cáncer y de otras enfermedades.

La frase con la que del Barrio terminó su charla fue muy aclaratoria. El lema de Roche es: “Doing now what patients need next”, es decir, “haciendo ahora lo siguiente que necesitan los pacientes”. Desde luego lo están consiguiendo gracias a tecnologías de Big Data.

Si te has perdido el encuentro, ya se ha publicado el vídeo con las presentaciones. La siguiente sesión del ciclo de conferencias será el 21 de enero de 2014. Os mantendremos informados.

[Las imágenes se han tomado de la web del evento.]

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos necesarios están marcados *