
La Inteligencia Artificial (IA) está avanzando en nuestra sociedad de manera imparable, transformando en profundidad nuestras vidas, con impactos gigantescos en la práctica totalidad de sectores. Sin darnos cuenta, son muchas las aplicaciones y servicios que estamos utilizando ya cada día gracias a la IA, si bien, el horizonte que se abre ante nosotros es tan extraordinario que no es aventurado afirmar que construirá un mundo distinto.
Disponer de herramientas de aprendizaje automático profundo mediante sistemas algorítmicos que tratan de replicar el pensamiento humano en el procesamiento de datos complejos supone un salto colosal, que da un poder extraordinario a quienes dispongan de ellas. Al mismo tiempo, conseguir que esa inteligencia artificial sea generativa y pueda crear contenido propio a partir de datos existentes, utilizando para ello modelos avanzados basados en las redes neuronales, abre un territorio desconocido en el que, junto a increíbles progresos aparecen también importantes riesgos, algunos de los cuales ya están tomando forma y nos advierten de la urgente necesidad de regular aspectos básicos de esta IA.
La enorme brecha social y de desigualdad que la IA abre y las grandes tecnológicas que dominan estas tecnologías encarnan son solo la punta del iceberg en el que se asientan otros peligros tangibles a los que ya hay que hacer frente. La huella física y medioambiental de los grandes centros computacionales a través del uso de enormes cantidades de energía y agua, así como sus emisiones de carbono, el entrenamiento algorítmico aplicando sesgos discriminatorios, la ruptura de la privacidad y la vulneración de derechos, el uso militar en conflictos bélicos junto a su falta de control y opacidad son algunos de esos riesgos que ya tenemos entre manos y que necesitamos gestionar con urgencia.
En el año 2021 salió a la luz uno de los escándalos políticos más graves en Países Bajos al conocerse que desde el año 2014, su gobierno venía utilizando IA basada en algoritmos con perfiles raciales específicos para determinar si las ayudas concedidas para el cuidado infantil eran incorrectas y potencialmente fraudulentas. De esta manera, miles de familias extranjeras, especialmente turcas y marroquíes, fueron víctimas de falsas acusaciones de fraude en el uso de prestaciones sociales durante años, siendo obligadas a reintegrarlas. El número de familias afectadas ascendió a 26.000, teniendo que devolver muchas de ellas cantidades desorbitadas que, en algunos casos, llegaron hasta los 100.000 euros, llevándolas a perder sus casas, a endeudarse o enfermar por ello. Como el algoritmo funcionaba automáticamente, los afectados nunca recibían explicaciones ante sus reiteradas reclamaciones.
Fue una abogada española, Eva González-Pérez, la que desveló el caso tras una importante investigación junto a medios de comunicación, al comenzar a ayudar a numerosas familias desesperadas por la retirada de ayudas recibidas y no entender los motivos ni recibir explicaciones de la administración. Si bien el escándalo salió a la luz en 2018, forzando la dimisión del secretario de Estado de Hacienda, no fue hasta 2021 cuando finalizó el informe parlamentario, concluyendo que las autoridades tributarias del país utilizaron de manera indebida un sistema algorítmico de IA que aplicaba un sesgo racial discriminatorio sobre grupos étnicos específicos, criterios cada vez más sesgados con el paso del tiempo por el sistema de autoaprendizaje aplicado. Finalmente, en enero de 2021, todo el gobierno holandés dimitió por el escándalo ante los importantes problemas creados a miles de familias, para las que se habilitaron compensaciones de hasta 30.000 euros por los graves daños causados. El caso ha permitido realizar uno de los mejores informes sobre el uso inadecuado de la IA, denominado “Xenophobic Machine”, a cargo de Amnistía Internacional, presentado en las Naciones Unidas junto con un conjunto de propuestas para regular de manera urgente la rendición de cuentas en el uso de algoritmos públicos basados en IA.
Pero uno de los usos más aterradores de la IA, que demuestra los graves efectos por su falta de regulación y supervisión, lo estamos viendo en estos momentos en el exterminio que está realizando Israel sobre la población palestina en Gaza, donde su ejército utiliza IA de manera intensiva como laboratorio con el que experimentar la eficacia de sus bombardeos y asesinatos. La selección autónoma de objetivos, la utilización de las bombas más mortíferas y el reconocimiento facial de las personas a las que matar son elementos del sistema “Lavender” (Lavanda), aplicado por el ejército israelí sobre los más de 2,3 millones de habitantes de la franja de Gaza mediante IA, según investigaciones periodísticas de medios israelíes. A ello se suman otros sistemas experimentales de reconocimiento por IA, como “Blue wolf” (Lobo azul), diseñado para un seguimiento continuado de todas las familias palestinas, estando integrado en los teléfonos móviles de los soldados; “Where is Daddy?” (¿Dónde está papá?), para rastrear a hombres adultos marcados y bombardearlos cuando estén en sus casas, o “The Gospel” (El evangelio), para identificar estructuras completas donde opere Hamás y destruirlas.
Por si fuera poco, y para añadir más gravedad a este problema, Israel está probando la eficacia de estas tecnologías sobre la población palestina, anunciando su próxima venta a ejércitos de diferentes países del mundo, en un negocio de la muerte que no sabemos adónde nos conducirá.
Se necesita lo mejor de nuestra inteligencia para evitar lo peor de la tecnología.