Analítica de datos: creando conocimiento al servicio de la gente

En el espacio "30 minutos, 10 preguntas", un grupo de expertos debatieron sobre la analítica de datos para enfrentar los retos de una crisis mundial como la generada por la pandemia por COVID-19.

Uso-de-datos.jpg
Los Docentes, Miguel Jimeno, Elías Niño, Natalia Hernández y Eduardo Surek

Por:

01 jun 2020

En una nueva edición del espacio “30 minutos, 10 preguntas”, desarrollado en el canal de Youtube Uninorte Académico, expertos interactuaron con la audiencia sobre el uso de la analítica de datos para enfrentar los nuevos retos que enfrenta la sociedad. El evento contó con la participación de Elías Niño, Eduardo Surek y Miguel Jimeno, docentes del departamento de Ingeniería de Sistemas, y Natalia Hernández, de Matemáticas y Estadísticas.

“En este espacio queremos ver desde diferentes perspectivas: ver cómo las técnicas o herramientas para hacer analítica de datos pueden ayudar tanto a la persona, al gobierno o diferentes sectores, y así tomar decisiones adecuadas para generar información a todos los entes que tengan poder”, sostuvo Miguel Jimeno.

Hernández comentó que la analítica de datos es una herramienta que sirve para leer un sinfín de registros que tenemos actualmente, los cuales son la "nueva Biblioteca de Alejandría" pero digital, y que el gran reto es saber qué hacer con la cantidad de datos que antes no teníamos.

Para la actual coyuntura de COVID-19, los expertos coincidieron que la analítica de datos puede aportar soluciones a través de dos procesos: el pronóstico, en donde se designa cuál es el número de personas infectadas o recuperadas, y la estimación, que es la técnica que permite dar un valor de probabilidad de que una persona se encuentre infectada.

“Para manejar la actual situación, los investigadores se acogen a los datos de cualquier entidad (hospitales o entidades gubernamentales), sin embargo, en Colombia existen datos abiertos en donde todos tienen acceso y allí no solo se encuentran los de la COVID, sino en general en cuanto a nivel nacional, departamental y municipal, y de ahí los investigadores se basan para dictar una información correcta", manifestó Hernández.  

De igual manera los docentes afirmaron que hay modelos probabilísticos que requieren el dato desagregado, es decir, el dato de la persona para identificar las zonas de riesgo y las zonas de cuarentena más estrictas, y esto depende de la minucia, como dónde se encuentra dicha persona, en dónde se mueve: el dato más crítico y sensible: el de su movilidad.

Así mismo, argumentaron que la fiabilidad de datos es la parte más compleja para recopilar información, porque las personas no saben hasta qué punto dar información y hay diferentes aplicaciones que se han creado por la COVID, en donde omiten la parte de “He leído los términos y condiciones”, y es allí donde la docente Natalia expresó que no somos conscientes de que nosotros mismos somos los encargados de dar nuestra propia información.

“En la ley de protección de datos está claro. Sería interesante que se le diera una guía a la gente de qué tipo de aplicaciones respetan su intimidad y su vida privada, y cuáles realmente toman la información que se requiere para aportar a esos procesos de análisis de la pandemia”, afirmó, Eduardo Surek.

Finalmente, Hernández indicó que en el equipo de trabajo hay alguien que custodia la data y se vuelve interventor de la información, pues es el encargado de hablar con la entidad directamente y asegurar su confidencialidad.   

“El uso de datos está en nivelar y en confiar en la academia. La razón de ser de los expertos en analítica de datos e investigadores es crear conocimiento sin afectar a las personas, de igual manera, depende de la forma cómo se gobiernan los estados para privatizar cualquier información; hay que estudiarlo con más profundidad”, concluyeron los docentes.

Por Valentina Sánchez Herrera 

Más noticias