Blog

Inteligencia artificial, prejuicios, Salta y Conin

La misma semana en la que comenzaba el debate sobre la despenalización de la interrupción voluntaria del embarazo en el Congreso argentino, el gobernador de Salta, Juan Manuel Urtubey, dijo que su gobierno está trabajando en un software que utiliza inteligencia artificial para saber si las mujeres de su provincia pueden quedar embarazadas. “Con la tecnología vos podés prever cinco o seis años antes, con nombre, apellido y domicilio, cuál es la niña que está un 86% predestinada a tener un embarazo adolescente”, dijo el funcionario.

En la misma entrevista, dijo que su administración estaba haciendo el trabajo con una gran compañía de tecnología, que es Microsoft. Los días siguientes, se publicó también el código del programador involucrado en el sistema, Evangelizador Técnico de Microsoft para su producto Azure.

Sin embargo, en todo el código de predicción de embarazo no existían preguntas sobre anticoncepción ni educación sexual. Pero sí edad, etnia, estudios, barrio de residencia, discapacidad, país de origen y abandono de estudios. El modelo, entonces, replicaba un sesgo, o incluso un prejuicio, de asociar el embarazo a la pobreza, e incluso a una promiscuidad propia de etnias y lugares.

Esta semana, en Brotes Verdes, revelamos quién estuvo detrás del modelo de predicción: la Fundación Conin y su presidente Abel Albino. En el programa mostramos un audio exclusivo del presidente de Microsoft que, en 2017, ya nos confirmaba que se estaba realizando el trabajo.

También, comentamos el informe del Laboratorio de Inteligencia Artificial de la Facultad de Ciencias Exactas de la UBA, muy crítico respecto del sistema desarrollado por Microsoft y el gobierno de Salta. Al respecto, Diego Fernández Slezak, director del Laboratorio, me dijo que su equipo se había visto en la obligación de contestar y reunirse para emitir un informe que diera argumentos serios al problema. “El laboratorio entero participó”, me dijo. Y agregó que el modelo estaba repleto de errores: “Si en lugar de tomar los datos de las personas actuales tomamos cualquier dato al azar, el resultado sería el mismo. Así de mal está lo que hicieron”. Consultado sobre el origen de esa responsabilidad, me comentó: “Creo que fue un error involuntario de alguien inexperto, que como dio el resultado que ellos querían que dé, después no se tomaron el trabajo de auditarlo”. Para resolverlo, explicó Fernández Slezak, podrían haber validado el sistema con otra institución como la UBA, equipos del CONICET, la Fundación Sadosky o incluso otras empresas especializadas en machine learning. “Trabajar con aprendizaje automático no es sencillo y en este caso no implementaron las validaciones suficientes”.

Aquí, el informe completo en Brotes Verdes con Alejandro Bercovich:

 

admin | 21.04.2018

0 Comentarios

Dejá tu comentario