Beauchef Magazine 2021

Cuando aprendes a contar mentiras (o fake news)

Hace algunos meses tuve el honor- junto a mis colegas Carlos Castillo y Marcelo Mendoza- de recibir el “Seoul Test of Time Award 2021”. Este premio, entregado por el International World Wide Web Conference Committee (IW3C2), es considerado importante dentro de la comunidad científica internacional. La particularidad, es que destaca el trabajo que en retrospectiva y después de, al menos, 10 años, ha demostrado ser pionero e influyente a lo largo del tiempo en el área de la web. La primera versión de este premio fue otorgada a Sergey Brin y Larry Page, creadores de Google, por su artículo que introducía el prototipo de este buscador.

En nuestro caso, se nos reconoció por el trabajo titulado “Information Credibility on Twitter”, que por primera vez planteó y estudió formalmente el problema de la propagación de rumores en redes sociales. Dando pie así a una nueva área de investigación, que hoy se conoce coloquialmente como fake-news. En detalle, identificamos la existencia de información falsa o poco confiable en Twitter, la que se exacerba durante situaciones de crisis como, por ejemplo, el terremoto del 2010 en Chile. Uno de nuestros hallazgos principales en aquel entonces fue la creación de un sistema que usando técnicas de inteligencia artificial (IA) permitía saber automáticamente si algo era considerado como creíble o no en la red social. Tras una década de este estudio, me consultan frecuentemente si sabíamos que este problema (las fake-news) iba a ser tan importante en el futuro y por qué ha empeorado en el tiempo. Mi respuesta es que en ese entonces no nos imaginamos los efectos que tendría. En ese momento lo observamos como un fenómeno natural que ocurría dentro de las comunicaciones humanas. Siempre han existido rumores e información maliciosa en distintos contextos de crisis como también en política.

Pero ¿por qué adquirió tanta relevancia, al punto de considerarse un medio para manipular procesos democráticos e incluso poner en peligro la salud pública? Básicamente se han dado factores que crean una tormenta perfecta: poca confianza en las autoridades y en los medios tradicionales de información, y la masificación del uso de redes sociales, que son un medio informativo no editado ni verificado, facilitando que las personas se informen exclusivamente en estas plataformas. Más importante aún, el surgimiento de los algoritmos de recomendación personalizados, cuyo objetivo es maximizar la interacción del usuario en el sitio (ya sea por medio de vistas, likes, tiempo de permanencia, despliegue de publicidad, etc). Estos algoritmos aprenden, mediante técnicas de IA, qué tipo de información mostrar a cada quien para lograr “engancharlos”. El resultado de esto último, es que al no tomar en cuenta la calidad de la información desplegada ni el beneficio social de ésta, terminan muchas veces amplificando artificialmente noticias falsas o que pretenden manipular a la opinión pública.

La pregunta que surge es ¿cómo lo podemos solucionar? ¿debemos crear una IA que resuelva esto? En mi opinión no es buena idea pedirle a una tecnología que creó un problema de alta complejidad socio-política, el que también lo resuelva. En ese sentido, creo que la solución pasa en parte por regular el comportamiento de estas plataformas. Que no pueden regirse solo por buenas intenciones y en beneficio económico a privados. Por otro lado, es importante que nos informemos combinando fuentes diversas, no sólo redes sociales. Pero más que nada, debemos incorporar en el currículo educativo desde temprana edad el desarrollo del pensamiento crítico, que será la herramienta fundamental para que las futuras generaciones puedan protegerse de la desinformación.

Compartir:
https://uchile.cl/u181356
Copiar