Anoche llegué a casa, al sofá, a ponerme al día con el debate sobre el aborto (dato de color que nada tiene que ver con esto: Noelia Barral Grigera está desde el Congreso haciendo una cobertura impresionante), cuando encontré lo que en ese momento pensé era una joya aislada de la política y los medios para entender, después, que quizás era más bien una muestra tristemente representativa de la relación (o falta de ella) que nos acostumbramos a ver entre política, ciencia y tecnología.
[DEBATE DEL ABORTO] Urtubey y la inteligencia artificial para prevenir embarazos adolescentes. pic.twitter.com/YHt6ZxpsPx
— ElCanciller.com (@elcancillercom) April 11, 2018
Inmediatamente, además de gritar ‘Minority Urtubey’, me pregunté si lo que planteaba el gobernador era técnicamente posible. El primer indicio lo dio el asomo de especialistas del área, en Twitter mismo, mostrándose muy cautos respecto de estos resultados, lo que me hizo profundizar el escepticismo.
Pasaron apenas minutos para que ocurriera el primer mensaje de Whatsapp de mi teléfono, en un grupo compartido con otros entusiastas de hacer cosas con datos, y un ‘esos resultados son, por lo menos, espurios’.
Los mensajes empezaron a apilarse. Eran cada vez más, de personas distintas, y la pregunta se reiteraba: ‘¿El Gato va a decir algo sobre esto?’ A lo que respondimos ‘vamos a hacer lo que hacemos todas las noches, Pinky, tratar de compartir y contextualizar la situación al máximo de nuestras capacidades, aprovechando la información de expertos’.
Esa información llegó inmediatamente después, de la mano del Laboratorio de Inteligencia Artificial Aplicada (LIAA) de la UBA, con un comunicado que está completo a disposición acá, pero del que vamos a compartir algunos pedacitos.
Primero, el contexto: en un evento de Microsoft Argentina, Urtubey ya había mencionado esto:
“Los ejemplos que hacían referencia en el caso de la prevención de embarazo adolescente y el tema de la deserción escolar son ejemplos clarísimos respecto de eso. Nosotros tenemos claramente definidos, con nombre y apellido, 397 casos de chicos que sabemos, de un universo de 3000, que inexorablemente caen en deserción escolar. Tenemos 490 y pico, casi 500 casos de chicas que, sabemos, tenemos que ir a buscarlas hoy.”
No mucho más tarde empezó a circular un tuit de un empleado de Microsoft que compartía un documento de diciembre de 2017 donde especificaba el desarrollo de un proyecto de esas características. En palabras del LIAA “Tras estudiar con cuidado la metodología detallada en ese documento, encontramos serios errores técnicos y conceptuales, que ponen en duda los resultados reportados por el gobernador Urtubey, y que comprometen el empleo de la herramienta generada en una cuestión tan sensible como el embarazo adolescente”.
Los resultados parecen estar ‘artificialmente sobredimensionados’, ‘sesgados’ e inclusive ser ‘inadecuados’ (en los tres se explayan los autores del documento), pero lo más interesante es que comparten esto de una manera que excede la comunicación sobre el caso particular, tomando un rol muy activo de comunicación sobre el fondo de la cuestión, y con un enfoque paratantagentecomoseaposible:
“Los datos utilizados fueron extraídos de una encuesta a adolescentes residentes en la provincia de Salta conteniendo información personal (edad, etnia, país de origen, etc.), sobre su entorno (cantidad de personas con quien vive, si tiene agua caliente en el baño, etc.) y sobre si había cursado o estaba cursando, al momento de la encuesta, un embarazo. Estos datos no son adecuados para responder a la pregunta planteada: si una adolescente tendrá un embarazo en el futuro (por ejemplo, dentro de 5 ó 6 años). Para eso, sería necesario contar con datos recolectados 5 ó 6 años antes de que suceda el embarazo. Con los datos del presente, en el mejor de los casos, el sistema podría determinar si una adolescente ha tenido, o tiene ahora, un embarazo.”
Aunque lo más interesante es el final (énfasis nuestro):
“Tanto los problemas metodológicos como los datos poco confiables plantean el riesgo de llevar a tomar medidas incorrectas a los responsables de políticas públicas. Este caso es un ejemplo de los peligros de utilizar los resultados de una computadora como una verdad revelada. Las técnicas de inteligencia artificial son poderosas y demandan responsabilidad por parte de quienes las emplean. En campos interdisciplinarios como éste, no debe perderse de vista que son sólo una herramienta más, que debe complementarse con otras, y de ningún modo reemplazan el conocimiento o la inteligencia de un experto, especialmente en campos que tienen injerencia directa en temas de salud pública y de sectores vulnerables.“
Dejando de lado lo pintoresca que pueda resultar la propuesta de aplicar inteligencia artificial –una maravilla de nuestros tiempos– para sostener una postura del siglo XIX y evitar así cualquier discusión que admita la necesidad de pensar en cosas como el derecho de las mujeres de decidir sobre su propio cuerpo, o sobre una educación sexual plena que desambigüe la relación unívoca entre sexo y reproducción, las declaraciones de Urtubey tuvieron al menos una consecuencia positiva: dejaron ver una vez más que no parecen estar claras las capacidades que las distintas herramientas de ciencia de datos poseen al ser aplicadas. Su aplicación en cada vez más campos nos muestra la necesidad de recordar que el dato sólo no es nada; es el dato, la construcción del análisis y la interpretación del dato, pero también es el uso que se le dé, tanto en términos de comunicación como en el desarrollo de políticas públicas, así como la auditabilidad y transparencia, y el establecimiento de mecanismos de control ciudadano sobre el uso que el Estado les dé a esos datos y herramientas.
En puertas de una presencia cada vez más fuerte de estas tecnologías, no caigamos en que arrojarles tecnología a las cosas mágicamente las soluciona, no caigamos en ‘Los pibes no aprenden. Démosles tablets, así no aprenden, pero con tablets’, porque acá se traduce en mujeres que siguen muriendo por abortos clandestinos, pero con machine learning.
Pero que no todo sean malas noticias. Que el Minority Urtubey Gate no se extinga sin haber usado este pedacito de atención para mostrarnos las enormes capacidades de transformar nuestras sociedades que tiene el uso de datos y algoritmos. Tantas que, como ciudadanos, necesitamos estar informados sobre ellas para poder elegir qué hacer con semejantes herramientas. Afortunadamente, tenemos una comunidad de expertos comprometida no sólo con que esas herramientas sean comprensibles y accesibles para más gente, sino que entiende y explicita la necesidad de tomar este desafío desde una perspectiva interdisciplinaria y orientada hacia mejorar las vidas de las personas.