Cuando acecha el algoritmo
Mientras en el mundo avanzan las regulaciones en sus usos, en la Argentina se crea una Unidad de Inteligencia Artificial Aplicada a la Seguridad que apunta a patrullar redes sociales utilizando algoritmos de aprendizaje automático para “predecir futuros delitos”. Los especialistas reflexionan sobre los peligros del sesgo en los sistemas de “actuación policial predictiva”, ya desestimados en muchos países.
La inteligencia artificial es una herramienta poderosísima. El riesgo, como ocurre con cualquier herramienta, está en cómo se la usa. Con ella se pueden hacer cosas muy distintas: optimizar los diagnósticos de la clínica médica o montar un dispositivo de vigilancia masiva. El dilema a resolver es cómo construir una inteligencia artificial que sea fiable, justa, que se use para el bien (con un dilema adicional: quién dictamina qué es justo y qué es bueno).
Están pasando cosas con la inteligencia artificial. El 1º de agosto pasado entró en vigencia el Reglamento de IA de la Unión Europea, la primera regulación integral de esta tecnología, que es el resultado de un largo proceso de consultas con todos los sectores involucrados y con los derechos de las personas en el primer plano.
La normativa europea prohíbe expresamente cuatro usos de la inteligencia artificial que califica como inaceptables: las aplicaciones que manipulan el comportamiento humano para eludir la libre voluntad de los usuarios; las que habilitan algún tipo de “puntuación social” por parte de gobiernos y empresas; ciertos sistemas biométricos, como los que reconocen emociones para categorizar personas en el lugar de trabajo o los que las identifican con fines policiales en espacios de acceso público; y los sistemas llamados de “actuación policial predictiva”.
El 1º de agosto pasado entró en vigencia el Reglamento de IA de la Unión Europea, la primera regulación integral de esta tecnología.
En simultáneo, en la Argentina, la Cámara de Diputados empieza a discutir en comisiones siete proyectos de ley que buscan regular estas tecnologías, la mayoría en línea con la UE, velando por los derechos de la ciudadanía en materia de transparencia y protección de datos personales.
Pero el gobierno de Javier Milei va en la dirección contraria. A fines de julio, la Resolución 710/24 del Ministerio de Seguridad creó la Unidad de Inteligencia Artificial Aplicada a la Seguridad (UIAAS), una oficina de ciberpatrullaje que tendrá a su cargo tareas que claramente la regulación europea consideraría un riesgo para los ciudadanos.
El objetivo de la nueva oficina del ministerio que conduce Patricia Bullrich es patrullar redes sociales y sitios de internet utilizando algoritmos de aprendizaje automático para “crear perfiles de sospechosos”, “detectar amenazas potenciales” y “predecir futuros delitos”, como explicita el texto de la resolución.
Los algoritmos de aprendizaje automático detectan patrones en conjuntos de datos y luego pueden usarlos para realizar predicciones. Los datos, que son la materia prima con que se entrenan las inteligencias artificiales, son la clave: de dónde salen, cuáles se incorporan al modelo y cuáles no, y quién toma esa decisión.
El anuncio de que habrá una dependencia del Ministerio de Seguridad que va a “predecir” delitos nos sumerge en una distopía, análoga a la del film “Minority Report”.
“El sesgo en los modelos de inteligencia artificial suele ocurrir a partir de los datos que se usan para entrenarlos –explica Enzo Ferrante, doctor en matemática e informática e investigador del Laboratorio de Inteligencia Artificial Aplicada (LIAA), que funciona en el Instituto de Investigación en Ciencias de la Computación (ICC, UBA- CONICET), en Exactas UBA–. El recorte o la subrepresentación de datos que se hace al construir las muestras, tiende a generar un rendimiento dispar del modelo para distintos grupos sociales, caracterizados por distintos atributos demográficos, y eso redunda en un comportamiento discriminatorio. Por supuesto, ese recorte obedece a decisiones humanas que están lejos de ser neutrales. De hecho, el déficit de diversidad en los equipos de trabajo que diseñan sistemas de aprendizaje automatizado en el mundo tiende a replicar ese sesgo en sus creaciones”.
En los usos comerciales de la IA, el sesgo es la norma. “¿Cuál es el ícono cultural de esta época? –se pregunta Diego Fernández Slezak, doctor en computación, director del LIAA y profesor de Exactas UBA–. Es el like, la aprobación del otro, con distintos fines. ¿Qué hace la IA con eso? Sesga los pulgares arriba. Te muestra aquello con lo que más probablemente desees interactuar, porque es lo que necesita la empresa detrás de esa inteligencia artificial: que ese producto, ese contenido, genere en vos una reacción, y que vos le des información”.
Ahora bien, ¿qué pasa cuando esos parámetros de puntuación social, esos datos, son un cierto reflejo de la realidad, que es profundamente desigual, y el sesgo resultante reproduce esa desigualdad?
“Por supuesto, se pueden diseñar técnicas algorítmicas para mitigar el sesgo. Hay una técnica particular que es no mostrarle al modelo el atributo protegido, el género, por ejemplo, obligarlo a ignorar esa variable. Quienes trabajamos en fairness, en equidad algorítmica, precisamente buscamos entender cómo diseñar modelos que sean más justos –puntualiza Ferrante–. Ahora, puede haber correlación entre ese atributo y alguna otra variable. Ese mecanismo se ve en los sistemas de puntuación que se usan, por ejemplo, para la asignación de préstamos bancarios o límites de gasto en tarjetas de crédito. Un caso testigo fue un modelo que, frente a una pareja con ingresos, gastos y deudas similares, estableció para la mujer un límite que era la mitad que el de su esposo. La brecha salarial entre hombres y mujeres es una realidad del mundo desigual en que vivimos, y los datos con los que fue entrenado ese modelo se reflejan en esa discriminación. Ahora, ¿queremos que el modelo perpetúe y hasta amplifique las desigualdades? ¿O queremos modificar esa realidad?”
El anuncio de que habrá una dependencia del Ministerio de Seguridad que va a “predecir” delitos nos sumerge en una distopía, análoga a la del film “Minority Report”, basado en un cuento de Philip K. Dick, y abre peligrosos interrogantes sobre el uso que puede darse a esta tecnología.
El sesgo racial ha sido una de las grandes polémicas en los algoritmos de reconocimiento facial. Son modelos cuyas predicciones benefician a un grupo de individuos frente a otro.
“Estamos retrocediendo en cuestiones que ya fueron consensuadas incluso antes de toda esta revolución de la IA –sostiene Fernández Slezak–. En Estados Unidos se usan modelos predictivos hace muchísimo tiempo y ya se demostró que fallan, que sólo pueden usarlos expertos, de forma controlada y como evidencia probabilística, de valoración de la prueba, pero no como mecanismo probatorio de un delito. Usaban modelos predictivos que, por ejemplo, confundían a personas de tez negra con gorilas. Eso ya se desestimó. No hay un predictor que diga: ‘Tenés cara de ladrón, vas a robar en las próximas 12 horas’. Los países centrales ya no usan estas tecnologías con ese fin, al menos no públicamente, porque están desautorizadas”.
“El sesgo racial ha sido una de las grandes polémicas en los algoritmos de reconocimiento facial, con sistemas que claramente tienen un peor rendimiento en mujeres de piel negra que en hombres blancos. Son modelos cuyas predicciones benefician sistemáticamente a un grupo de individuos frente a otro, resultando así injustos”, señala Ferrante.
Y vuelve a alertar sobre el modo en que el sesgo, fijando estereotipos, perpetúa las inequidades. “Si se pretende predecir el riesgo de que una persona delinca entrenando el modelo con datos de presos que cumplen condena, no sólo biométricos sino características educativas, económicas u otras, ese es un uso falaz de la IA, pero se puede hacer. Un sistema así diseñado –concluye– va a decir que si vivís en determinado barrio, potencialmente sos un delincuente”.
Por supuesto, derechos como la presunción de inocencia, la privacidad o la libertad de expresión quedarían directamente cercenados en la Argentina si la nueva Unidad de Inteligencia Artificial Aplicada a la Seguridad utiliza, como se anunció, este tipo de herramientas.
¿Quién y cómo entrenará esos modelos de IA? Aparte de la flagrante invasión a la privacidad sin orden judicial o la persecución lisa y llana contra quienes no coincidan con el ideario del gobierno libertario, prefiguradas en las atribuciones de la nueva repartición, ¿qué impediría que esos sistemas de predicción del delito, entrenados nadie sabe con qué datos, entreguen “falsos positivos”, guiados por un sesgo social, político o ideológico en su algoritmo?
El derecho de las personas a no estar sujetas a decisiones basadas en algoritmos o perfiles automatizados es todavía un derecho difuso, difícil de tutelar.
“La regulación es necesaria. Pero hay dos formas de pensar la regulación –señala Fernández Slezak–. Una es regular cómo las empresas y los gobiernos entrenan sus modelos y qué se permite hacer con ellos: los usos. En este enfoque, la IA es una herramienta. Para aquello que querés proteger, para la salud, por ejemplo, es indistinto un ratón moviendo un engranaje o una IA diseñada por Sam Altman, las dos herramientas pueden hacer igual de mal en función de cómo se usan. El otro enfoque es atacar directamente el core técnico de cómo se entrenan las inteligencias artificiales. Decir: ‘Vamos a regular que nadie pueda crear modelos de IA de más de 200 billones de parámetros’. Yo creo que esa es una mirada inocente: ¿cómo aplicás esa regulación? La propia velocidad astronómica a la que avanza la IA impide regular el aspecto técnico. Hay que regular los campos de aplicación, penalizar los usos indebidos en los ámbitos donde los Estados consideren que hay un peligro”.
El derecho de las personas a no estar sujetas a decisiones basadas en algoritmos o perfiles automatizados es todavía un derecho difuso, difícil de tutelar, básicamente porque millones de usuarios entregan voluntariamente sus datos a poderosas corporaciones que los usan en forma monopólica. La manipulación tiene matices, escalas. El algoritmo define un camino para cada usuario. Pero una cosa es que sugiera la próxima película que va a ver y otra que vaya inclinándolo hacia determinados valores o determinada opción política.
Para Fernández Slezak, la regulación tiene un desafío extra, que es, primero, describir el problema. “La ciencia del comportamiento existe desde hace miles de años. De los sofistas a la propaganda, las sociedades siempre generaron discursos para manipular. Lo que pasó en los últimos años es que la precisión con la que uno puede capturar el estado mental de las personas a las que quiere guiar en determinada dirección, es enorme. Tanto el poder de cómputo como la capacidad de captura de datos y el poder de manipularlos es astronómicamente más grande. Pero hay que definir el problema. ¿El problema es que empresas muy poderosas manipulen los datos? ¿O el problema ya es que los tengan? ¿O que sean las únicas en tenerlos?”
La oficina de ciberpatrullaje de Bullrich podrá ser un dispositivo que cercene muchos derechos, un riesgo para la democracia, en el contexto de un fuerte proceso de liberalización de las prácticas del mercado, incluidos los usos de la inteligencia artificial.
En uno de sus muchos viajes a Estados Unidos, en mayo, Javier Milei se reunió con Sam Altman, CEO de OpenAI y creador de ChatGPT. La promiscua relación que pretende establecer con éste y otros frontmen de las megaempresas tecnológicas un presidente que predica la autorregulación del mercado, es ciertamente preocupante.
“Precisamente –cierra Fernández Slezak–, este gobierno pregona la desregulación total. Si en Europa no se puede y en Estados Unidos tampoco, la Argentina sería tierra fértil para hacer las barbaridades que se les ocurran, que quizás salgan bien, nunca se sabe, pero el riesgo es altísimo. ¿Por qué vendrían? Porque tendrían vía libre para operar desreguladamente sus experimentos de manipulación con estrictos fines de lucro”.