“Los algoritmos de las redes favorecen a la derecha porque usa un lenguaje que da miedo”.
(Fuente: La Vanguardia - Juan Manuel García)Ariadna (Ari) Font Llitjós, PhD (1974) es doctora en Lingüística computacional, área en la que se inició en 1996 tras licenciarse en Traducción e Interpretación por la Universitat Pompeu Fabra. Con más de 20 años de experiencia en este campo, fue directora de ingeniería de la plataforma de Machine Learning en Twitter entre 2019 y 2022. Allí impulsó la creación del área de ética algorítmica, proyecto que quedó inacabado por la llegada de Elon Musk. Fue despedida, como el 80% de sus compañeros. Ahora ha creado Alinia AI, una startup que ayuda a las empresas a desarrollar proyectos “responsables” de IA.
Esta semana, Font ha pasado por Barcelona para participar en un encuentro sobre los retos y oportunidades de la IA organizado por la Coordinadora Catalana de Fundacions. Con el foco puesto en los efectos de la desinformación en la democracia, los derechos humanos y la necesidad de fomentar el pensamiento crítico en las nuevas generaciones.
-"Hay una anécdota reciente que ilustra la realidad actual de X: un usuario le preguntó a Grok, el chatbot de IA creado por el propio Musk: ¿Quién es la persona que propaga más desinformación en X? Adivina qué respondió el algoritmo. Elon Musk. La IA miró los datos y llegó a esa conclusión. Porque estos sistemas, si tú no los manipulas, te responden lo que dicen los datos.
-"Yo no sigo a Elon Musk en X. No lo quiero ni ver. Pero lo primero que veo cuando entro es un tuit suyo. Que además no es ni reciente, puede ser de hace dos días. Es obvio que ha cambiado el algoritmo. Él no, porque no tiene ni idea de programar, pero le ha pedido a sus programadores que lo hagan."
-"Al hacer un análisis detallado del funcionamiento de este sistema de algoritmos en siete países distintos observamos que, en la mayoría de los casos, se favorecía a los discursos de derecha. Por un tema de lenguaje. Observamos una tendencia a que se volvieran más visibles los discursos que usan un lenguaje que toca la fibra sensible de la gente".
-"Evalúan el éxito de varios titulares, los testean y pueden saber cuál tendrá más likes. Y así van encontrando el lenguaje que escandaliza más, que da más miedo, que provoca más reacciones".
-"Hay un montón de estudios sobre por qué los procesos de desinformación son tan eficaces. La gente que crea y distribuye noticias falsas es buena en marketing. Saben cómo escandalizar, juegan con un lenguaje que da miedo a la gente".
-"Ni a Elon Musk ni a la persona que lleva TikTok les importa mucho la ética y los valores humanos. En TikTok, por ejemplo, hay un código de conducta y unas políticas que por ley tienen que cumplir. Pero hacen lo mínimo obligado por ley y ni un milímetro más. Musk es el más interesado en la injusticia algorítmica: “Que el algoritmo me saque a mí, los demás me dan igual."