| Reprodução/Nikolay Panov |
⇅
Júlia Nueno: “Queríamos entender los patrones militares por los que se mecaniza un genocidio”
Esta ingeniera e investigadora, ahora en el centro Forensic Architecture del Reino Unido, está especializada en descifrar cómo la tecnología interfiere en la creación o destrucción de comunidades, sobre todo en conflictos armados. Irak y Gaza han sido objetos de su investigación.
por Azahara Palomeque
Júlia Nueno es ingeniera e investigadora especializada en descifrar cómo la tecnología interfiere en la creación o destrucción de comunidades, especialmente en conflictos armados. Con un pie en el activismo y otro en la programación y diversas herramientas digitales, ha conseguido labrarse un currículum espectacular que orienta hacia la justicia social. En su haber se encuentran proyectos en defensa de los trabajadores precarizados o las víctimas de guerra, los cuales combina con una proyección artística expuesta en varias salas. Actualmente, realiza un doctorado con el centro Forensic Architecture de la Universidad de Goldsmiths, en el Reino Unido. Charlamos por videoconferencia sobre el impacto de su labor académica colaborativa.
.
Te defines como alguien que investiga “de qué manera la tecnología determina las relaciones sociales, y de qué manera nos podemos imaginar otras tecnologías que permitan determinar otras relaciones sociales”. Pienso en cómo hace 20 años habría sido difícil imaginarnos pegadas a un móvil y con una gran incapacidad para la concentración. ¿Qué otros ejemplos cotidianos puedes darnos?
La manera en que socializamos, nos enamoramos o trabajamos pasa por infraestructuras digitales que están definiendo cuáles son las posibilidades de las relaciones sociales que estamos estableciendo. Por ejemplo: desde una aplicación de Tinder que tiene un algoritmo que organiza qué personas te van a salir según tus gustos, hasta las cosas que ves en tu feed de las redes sociales. También las instituciones públicas están usando cada vez más sistemas que automatizan las decisiones sobre aspectos de nuestras vidas. España es uno de los países que lidera la automatización de los servicios públicos: en Hacienda, en servicios sociales…
Antes de Forensic, uno de tus proyectos más sonados es una app alternativa para trabajadores “riders” de Glovo para defenderse de la aplicación oficial, conocer a sus compañeros, organizarse… ¿Debe la tecnología aliarse a formas más tradicionales de acción social, como los sindicatos?
Sí; de hecho, el sindicato estaba antes que la aplicación. Cuando llegué a Londres, estuve trabajando de repartidora. Me metí en un sindicato que se llama Independent Workers of Great Britain (Trabajadores Independientes de Gran Bretaña), que es bastante pequeño. Surgió en 2012 con un grupo de trabajadoras de la limpieza latinoamericanas que estaban externalizadas. Es un sindicato que ha ido emergiendo con trabajadores que no están bajo convenio, con contratos de cero horas…, una realidad laboral en todo el mundo y, especialmente, en el contexto de Inglaterra y de Londres. En la sección de repartidores empezamos a identificar que había problemas tecnológicos en la aplicación para repartir pedidos: estaba dando a los trabajadores unos mapas incorrectos, por lo que tenían que hacer rutas mucho más largas de las que les pagaban. Además, hay una doble extracción: la de tu trabajo y la del proceso de tu trabajo (los datos). Esta última sirve luego para automatizar decisiones, optimizar el algoritmo y crear más beneficio para la plataforma. Así que nos dijimos: si todos estos datos ya están ahí, ¿por qué no creamos una plataforma que sea un espejo de la que existe pero, en lugar de pensarla de modo que los datos sirvan para optimizar la plataforma, la pensamos para que optimice los intereses de los trabajadores?
“Tecnología que no esté al servicio del mercado y que sirva para emanciparnos socialmente”, dices en declaraciones recientes. Ése fue el origen de Internet. ¿Qué obstáculos puede haber en el camino a esa emancipación? Por ejemplo, tu app alternativa también recolecta datos, que luego se pueden comercializar o utilizar indebidamente…
En primer lugar, pensar que podemos reapropiarnos de la tecnología es un reto muy grande, porque los medios para ello no son nuestros. Tú puedes crear una aplicación, pero seguramente vas a tener que pagar los servidores de Amazon para almacenar esos datos. Tenemos que organizarnos a todos los niveles. ¿Hay que generar una infraestructura propia, con nuestros propios servidores? La arquitecta Marina Otero habla de borrar datos y pensar en la inercia de querer almacenarlo todo. El primer reto es la infraestructura que te permita emanciparte. El segundo reto es pensar en reapropiar o reproponer. Reapropiarse de los medios de producción es importante, pero también tienes que reproponerlos, porque la tecnología en sí ya está generando ciertas maneras de relacionarse socialmente. Por ejemplo, se habla del sesgo del algoritmo. Los sistemas, en su propia epistemología, se basan en el sesgo (racista, sexista…). Entonces, ¿cómo vamos a usar estos sistemas sesgados para crear una sociedad más igualitaria?
Otro de los retos es el coste energético y medioambiental de la tecnología. Por ejemplo, en minería de metales raros, litio, coltán, en agua… Aquí podría caber una crítica ecologista.
Sí, sí. Total.
Has estado trabajando en temas de guerra: un reportaje para AirWars sobre el papel del Reino Unido en la muerte de civiles en la guerra de Irak y, recientemente, analizando el bombardeo de hospitales de Gaza por parte de Israel, con Forensic Architecture. ¿Cómo son esos procesos de investigación?
AirWars tiene una rama investigativa que dice: no sólo vamos a contabilizar las muertes civiles, también vamos a entender cuáles son las condiciones que han generado esas muertes. Yo estaba en esa rama. El proyecto partía de la premisa de que el Gobierno británico llevaba años reconociendo públicamente sólo la muerte de un civil en diez años de guerra en Irak y Siria.
La investigación de AirWars creó una base de datos de las personas asesinadas. Y también trabajó en advocacy (concienciación y defensa pública de una causa). Este grupo de observación se ha personado en el Parlamento británico. También ha preguntado cuáles son los mecanismos para determinar si una persona es un civil o un militante, algo que el Gobierno inglés no ha sido capaz de responder.
El procedimiento de la solicitud de libertad de información, la Freedom of Information Request (FOI), también existe en Estados Unidos. Y eso ha sido clave. La periodista Azmat Khan, de The New York Times, lo usó para pedir al Departamento de Defensa de Estados Unidos que revelara los datos sobre las muertes de civiles causadas por la coalición que este país formaba, entre otros, junto al Reino Unido.
Cruzamos la base de datos de AirWars con el trabajo de Azmat Khan y la información conseguida mediante todos los procesos de Freedom Information Requests a los gobiernos estadounidense y británico sobre los bombardeos a militantes. Y trazamos una comparativa para ver si coincidía la zona de la que hablaban los registros de víctimas con la que aparecía en nuestra base de datos.
Esto es un trabajo, muy arduo, de periodismo de investigación.
Sí, pero parte de una base de datos que ha sido realizada con Open Source Intelligence (inteligencia de fuentes abiertas), es decir, con la información de redes sociales, sobre todo facebook. Desde AirWars vimos que había gente que publicaba sobre las muertes, datos que no teníamos manera de contabilizar a través de mecanismos oficiales. Al compararlos con los procesos de Freedom of Information, llegamos a 30 casos potenciales; luego a ocho seguros. Después, dos personas viajaron a Irak y contactaron con una de las familias.
En los documentos del Gobierno estadounidense se incluye una conversación entre dos operadores de un dron que pierden de vista a su objetivo y hablan de las cosas que están pasando alrededor. Cuando conversamos con la familia, en Irak nos contaron el mismo relato pero desde abajo. Así pudimos reconstruirlo, entender qué pasó exactamente. También es casi una justicia epistémica explicar qué ha pasado desde la vivencia que la familia tuvo y no desde un documento.
Además de formar parte de tu doctorado, ¿es muy diferente el trabajo que estás haciendo ahora con Forensic Architecture?
Sí, mi trabajo del doctorado está centrado en crear sets de datos que puedan intervenir en el algoritmo… Para el caso de los hospitales (de Gaza), se trabajó con el material que hay en redes sociales, vídeos, fotos… Así desarrollamos una herramienta que nos permitiera procesar toda esta información de una manera que pudiera darle un sentido. Cuando tienes tal avalancha de datos y ves diferentes eventos, piensas: ¿hay algún patrón que los relacione? Yo estoy en la unidad de computación. Queríamos entender los patrones militares que muestran la mecanización de un genocidio.
Y habéis llegado a la conclusión de que hay una estrategia que consta de diferentes pasos a la hora de bombardear un hospital.
Sí, eso es. Lo primero que hicimos fue reconstruir dos modelos de dos hospitales para tener un soporte digital de ese espacio, y poder ubicar ahí los vídeos y las imágenes que estábamos viendo en redes sociales. Luego, creamos una línea temporal que nos permitiera entender el proceso. Lo que observamos es que en esos hospitales había ocurrido el mismo proceso: una intimidación preliminar, bombardeando sus alrededores, las ambulancias y los generadores de electricidad; después, un ataque directo de bombardeo; a continuación, un asedio; y, finalmente, una invasión. Al observar estos patrones en los dos hospitales, nos preguntamos: ¿esto se puede extender a otras infraestructuras médicas? Entonces hicimos una herramienta de scraping, para extraer datos de redes sociales. En este caso, usamos canales de Telegram que estaban reportando desde Gaza. Ahí teníamos alrededor de 8.000 noticias, imágenes y vídeos. Los ubicamos temporalmente para cada hospital, para los 36 de Gaza, analizando este patrón: cuándo se estaba hablando de intimidación, cuándo de ataque directo, de asedio o de invasión. Y el patrón se repetía.
Al final se trata de producir una historia verosímil cogiendo un conglomerado de información incontrolable e indescifrable para el resto de los mortales, lo cual es grandioso. ¿Cuál crees que es el impacto de este tipo de trabajos en el periodismo en general, y en la producción de verdad en particular para una ciudadanía que, además, está muy confundida? Ya casi no sabemos qué es verdad o no, especialmente desde la generalización de la Inteligencia Artificial generativa.
Creo que hay un componente muy importante en Forensic Architecture de pensar en cómo elaborar la verdad. Sobre todo, en un momento de posverdad donde hay imágenes que no sabemos si son reales o falsas, nuestra apuesta es usar la coordinación de muchas imágenes para pensar esa verdad.
El hecho de construir un modelo 3D y ubicar imágenes en él te permite verificar esa imagen. O, por ejemplo, coger diferentes vídeos que se han tomado en la ciudad o geolocalizar desde dónde se han tomado y sincronizar esa imagen te permite verificar si lo que está sucediendo es lo que reporta uno o lo que reporta el otro. Lo nuestro es creer en la imagen, pero a través del potencial narrativo de su coordinación y de su composición. En el momento en el que es imposible descifrar lo que es verdad y no es verdad, hay dos estrategias: una, no fiarse de nada y decir que todo es mentira; la otra es decir que habrá que buscar nuevas formas de crear verdad. Sobre todo, pensando la verdad a nivel de evidencia.
Forensic Architecture bebe mucho de una idea que está presente en el espacio legal y judicial, y es que la evidencia siempre es una elaboración. Por ejemplo, cuando los soldados americanos entraron en los campos de concentración en Alemania con las cámaras (tras la II Guerra Mundial), les habían dado unas consignas de cómo tenían que grabar. Cuando Forensic Architecture presenta su trabajo delante de jueces, a veces la crítica es: ¡esto es demasiado elaborado! ¡Claro! ¡Es que una evidencia siempre es una elaboración!
(Este entrevista se publicó originalmente en el dossier “La hora de la verdad” de #LaMarea100.)
{ La Marea }
░░░░░░░░░░░░