Procedencia: ITESM Monterrey
Resumen:
Según el gigante informático IBM, en 2012 se generaron 2.5 exabytes,
es decir, 2.5 mil millones de gigabytes (GB) de datos. Alrededor del
75% de los datos no están estructurados y tienen diferentes formatos
como texto, voz y vidéo. Redes neuronales, k-medias y análisis de
componentes principales son algunas de las herramientas que nos
ayudan a analizar y entender esta gran cantidad de información.
Actualmente, existe un importante interés por parte de las empresas
para utilizar estos recursos de información para mejorar sus ventas,
optimizar rutas de transporte, predecir comportamientos de usuarios y
generar publicidad focalizada, por mencionar algunos. Estas actividades
se han convertido en una industria de información donde un experto en
procesamiento de datos como lo es un físico, un matemático o un
científico puede participar activamente. En este seminario se
mostrarán casos reales en donde el análisis de información y la
ciencia de datos han ayudado a alcanzar los objetivos de diversas
empresas y se enseñará cuál es el camino para que un experto de
datos pueda saltar de la academia a una industria mexicana cada vez
más interesada en la información y en el conocimiento.