Estaré este 29 de octubre en Salamanca, compartiendo ideas sobre Discursos de odio y cómo combatirlos, tema que sabéis que me preocupa. Mi intervención se enmarca en unas jornadas para combatir la desinformación en los medios y en las redes sociales organizadas por la USAL para el proyecto “Combatiendo la Desinformación: El Ejército como Pilar en la Defensa de la Democracia”, respaldado por el Ministerio de Defensa.
El propósito de este ciclo es ofrecer herramientas al público general y, especialmente, a los jóvenes estudiantes, para identificar bulos, fake news y otras formas de desinformación y de manipulación informativa tanto en contextos de guerra como en elecciones democráticas. Tenéis más información en la página de la Universidad de Salamanca.
Dejo entrevista que me realizan desde la organización, con ideas que quería compartir en este espacio:
¿A través de qué canales se difunde más el discurso de odio? Bueno, antes se escribían insultos personales en los muros de los pueblos, de los institutos, ahora, en cualquiera de los nuevos espacios públicos o comunitarios que han proliferado de forma masiva en internet. Grupos de whatsapp para el bullying tradicional, redes sociales con X a la cabeza para la discriminación de los colectivos tradicionalmente maltratados, etc., plataformas de video y microvídeo (tiktok, instagram, youtube…)…
En tu opinión, ¿hasta qué punto deberían ser responsables las grandes plataformas de la proliferación de desinformación en sus canales? Las grandes plataformas tienen muchísimos beneficios, muchos más que los ayuntamientos o direcciones de instituto que en su momento repintaban el muro en otros tiempos. Deberíamos ser muchísimo más exigentes con ellas con respecto al filtrado de este tipo de cosas, dado que son responsables de los nuevos espacios públicos, mucho más difíciles de controlar, pero también con muchísimos más recursos para hacerlo. Se disfraza de respeto a la libertad de expresión lo que muchas veces es protección de los ingresos que las barbaridades de algunos influencers descerebrados les generan. Podrían desarrollar la IA para controlar este tipo de cosas, pero claro, no es tan rentable como hacerlo para crear mejor publicidad.
¿Consideras que las regulaciones actuales para combatir la desinformación en internet son suficientes? ¿Qué cambios propondrías? De nuevo, la IA, que podría ser muy útil si la entrenaran para contrastar fake news y no para ser capaz de crear deep fakes. Ante una internet que prometía, a través del espíritu wikileaks, un mundo mucho más transparente, los poderes que viven de la injusticia social han invertido muchísimo en la perversión del fenómeno social del poder ciudadano en la red, en la transformación de lo que un día fue un espacio de verdad en el escenario perfecto para una postverdad que les permita seguir sujetando las riendas.
¿Es eficaz el trabajo de los moderadores? ¿Cómo puede ayudar la inteligencia artificial a moderar estos contenidos? Es eficaz pero tremendamente lesivo para ellos. En clínica, los psicólogos identifican el trabajo como moderador como tremendamente estresante y perturbador. Tampoco es que sea un trabajo muy bien pagado. La IA, carente de sentimientos, podría hacerlo muchísimo mejor. Si subimos muchísimos datos computables a una red y aplicamos la metodología que basa hoy la mayor parte de las IA generativas, no resulta difícil poder detectar las situaciones en las que es altamente probable que determinadas palabras, tonos, imágenes, estén asociadas a discursos de odio. Y tristemente, no nos faltan datos ;) A medida que se regule más y sea más fácil programar este tipo de cosas, veremos crecer la IA en el sector.
¿Por qué es tan fácil que la gente crea o comparta información falsa? ¿Qué factores psicológicos intervienen en este proceso? Queremos tener razón, incluso en mayor medida cuando de lo que se trata es de intentar justificar la sinrazón. El sesgo de confirmación (incorporamos con más facilidad informaciones que se alineen con las ideas que ya tenemos), la lucha por superar la disonancia cognitiva (nos generan malestar las ideas que no nos encajan). También tendemos, cuando nos sentimos impotentes, al borreguismo, a seguir las misivas de cualquier líder con el que podamos identificarnos en cualquier sentido. Siempre digo que los discursos de odio, como el propio bullying tradicional, funcionan de forma muy parecida a los juegos masivos online, con líderes interesados y manipuladores, ordenando misiones y hordas de jugadores siguiendo la voz de su amo. En este sentido, muchas veces, internet es un entorno ideal, que además permite mantener el anonimato.
¿Cómo afectan las emociones, como el miedo o la indignación, en la aceptación y viralización de desinformación? Miedo, impotencia, sensación de no tener el control, ganas de pertenecer a algo, de tener la posibilidad de cambiar alguna cosa de entre las muchas que hacen complicado vivir en esta sociedad, miedo derivado de la sinrazón de terrorismo, guerras, etc. provocando el “shock”, el tema es muy complejo pero estos son muchos de los elementos que lo componen.
¿Cómo influye el anonimato? Cuando se interpela a los “odiadores”, a la horda de manipulados y se les pregunta nombre real, la gran mayoría desaparece. Ese es, en mi opinión, un elemento que nos protege, que hace que los discursos de odio no traspasen del todo al entorno social fuera de la red. No estoy diciendo que no ocurra en desgraciadas ocasiones, pero los discursos de odio suelen ser bastante peores en las ágoras de X que en la calle. Inmadurez, miedo a la denuncia, falta de convencimiento real sobre lo que se está ladrando en redes, juegan en ese sentido. Los valores de base de la mayoría de los jóvenes son buenos, diría que cada vez mejores, aunque los que mueven los hilos intenten insistir en potenciar la maldad (el bueno es tonto) y el individualismo. Dividir para vencer, lo de siempre.
Entrada leída 25 veces desde Abril de 2022