Entre la noticia y la mentira hay solo un click de distancia. Pero el periodismo y la Inteligencia Artificial han comenzado a desafiar a la desinformación.
Por: Sheila Angelica Santiago Aragón y Hugo Salvador
A inicios de la pandemia, en Colombia, una cadena de WhatsApp sugería a la población hacer compras de pánico frente a supuestos cierres de supermercados. Meses después, en Alemania, 1.3 millones de adultos se negaron a recibir la vacuna de AstraZeneca ante la difusión de casos aislados de trombosis. En México, la periodista Peniley Ramírez publicó en Univision dos notas que invitan a dudar de la aprobación de la vacuna CanSino. De este modo, las noticias falsas y las campañas de desinformación son las protagonistas de la vida digital cotidiana.
Entre 2006 y 2017, el Instituto de Tecnología de Massachusetts analizó 126,000 contenidos difundidos en Twitter, replicados 4.5 millones de veces por tres millones de usuarios. El estudio encontró que la información falsa se retuitea un
70% más que la verificada, la cual tarda seis veces más en llegar a 1,500 personas. La desinformación viaja más, a mayor rapidez y con mayor impacto.
Cuando la información no veraz circula por la red y se distribuye de forma ágil, se lleva a cabo un proceso de viralidad, lo que para sus autores representa la creación de publicidad alimentada por el clickbait, mientras que a los lectores les permite reforzar creencias con datos que apelan a su curiosidad, miedo y desconfianza.
“Ahora las narrativas emocionales son más convincentes que las narrativas factuales. La verdad está siendo sustituida por el impacto que causa la viralidad”, afirma el periodista Jorge Carrión en su podcast Solaris.
Ante esta problemática, la Inteligencia Artificial (IA) ha comenzado a ofrecer alternativas. Al agrupar la información que ingresa a la red, a través de algoritmos, puede contrastar y corroborar datos con fuentes oficiales o fidedignas, para así ofrecer a las audiencias contenidos verídicos y confiables.
No diga “noticias falsas”, es desinformación
Fake new es el nombre que recibe un texto que posee contenido no verificable. Ya sea que el contenido no coincida con el titular, se omitan o atribuyen datos a sucesos que ocurrieron de forma distinta o se separe el contexto de la información veraz. No obstante, el periodista José Luis Martínez Albertos plantea que utilizar este término es una contradicción, debido a que el principio de la noticia es ser “un hecho verdadero, inédito o actual de interés general”, características que no corresponden a las fake news.
Como alternativa, propone hacer uso del concepto “desinformación”, que hace referencia tanto al contenido informativo fraudulento (fake news) como al engañoso (misleading content), los discursos de odio (mal-information), los discursos falsos deliberados (false speech) o los errores informativos no intencionados de medios o periodistas (missinformation). Desinformación, por consiguiente, es la distorsión de la información que engaña al receptor final.
Carrión asegura que se trata de “una realidad internacional, que no se entiende sin la transformación del planeta en una gran red hiperconectada a través de canales de comunicación que están en manos privadas y que no han sido debidamente regulados por ninguna institución pública”.
La génesis de la IA
La desinformación no es un fenómeno nuevo, no surge con la distribución de información ficticia en internet, sino que, con la aparición de las plataformas, los datos falsos se han automatizado y acelerado su producción y alcance.
“Las redes sociales solo han exasperado y llevado a otra dimensión fenómenos de la comunicación que estaban presentes desde los mismos inicios del lenguaje”, afirma el teórico de la comunicación Carlos Scolari. Asimismo, sostiene que las campañas de desinformación han existido desde siempre, ejemplo de ello son las estrategias de la segunda mitad del siglo XX, financiadas por las tabacaleras, para demostrar que el cigarrillo no hacía daño a la salud.
Por su parte, la Inteligencia Artificial tampoco nace con la era digital. En 1956, los informáticos John McCarthy, Marvin Minsky y Claude Shannon acuñaron el término durante la conferencia de Dartmouth para referirse a cualquier sistema que, mediante el aprendizaje por procesamiento de datos, imita actividades de la cognición humana para automatizar y facilitar tareas que requieran grandes volúmenes de datos.
Hoy en día, la IA se clasifica en débil, cuando mediante el aprendizaje de datos genera patrones que facilitan las tareas; o fuerte, cuando conexiones permiten el desenvolvimiento de varias actividades, incluso la simulación de sentimientos humanos.
En mayo de 2018, Mark Zuckerberg aseguró al Congreso de los Estados Unidos que Facebook utilizaría IA para detectar las noticias falsas publicadas en esta red social. Por el momento, 22 mil trabajadores de Facebook realizan esa labor de forma manual, lo que significa que no hay IA fuerte, pero se hace uso de la débil, lo que permite a la plataforma realizar tareas como el ocultamiento o bloqueo de fotos con contenido violento.
La difusión a gran escala de la desinformación se logra a través de clusters y bots. Los clusters son sistemas de algoritmos automáticos que agrupan los datos de una interfaz (espacio de interacción) para generar filtros que facilitan procesos de clasificación, es decir, generan patrones a partir de los datos de los usuarios para agrupar similitudes y emitir recomendaciones que coincidan con esos temas.
Por su parte, los bots simulan ser personas interactivas que comparten sitios con información falsa o tendenciosa, “logrando que las comunidades formadas por los clusters se mantengan”, reflexiona Flores Saviaga. Lo que genera flujo de publicidad traducible en ingresos económicos para quienes publican información engañosa o descontextualizada.
Los clusters tienen el mismo funcionamiento a favor y en contra de la desinformación. Por lo general utilizan el procesamiento de lenguaje natural, que es la extracción de elementos clave de un cluster para transformarlo en lenguaje de programación que los dispositivos puedan clasificar, lo que cambia es la intención.
Falsas noticias creadas con IA
Las redes neuronales generan patrones sobre imágenes y videos para introducirlos en clusters, sin embargo, no detectan si han sido alterados, o si el audio contiene información falsa, ya que las voces también pueden ser artificiales.
“Antes las voces eran elemento de veracidad porque cada una tiene un patrón único, pero ya existen softwares que pueden simularla”, advierte el experto en medios de la Universidad de Zúrich, Linards Udrich.
Un ejemplo de este fenómeno es el video montaje publicado en BuzzFeed en abril de 2018, en el que el expresidente de Estados Unidos, Barack Obama, afirma que el ahora también expresidente, Donald Trump, es “un completo idiota”.
En este videomontaje, el actor y cineasta Jordan Peele, se hace pasar por Obama para advertir de los potenciales peligros de aplicar la IA para fabricar noticias falsas en formato audiovisual, lo que se ha nombrado como deepfakes, es decir, mentiras profundas. A mitad del vídeo termina el engaño: el actor aparece en pantalla hablando a la par que el supuesto exmandatario y la voz deja de ser similar.
Es por esto que la intervención humana no desaparece del proceso, las falsas noticias “siempre tienen una intención desestabilizadora, ya sea política o social, que no proviene de intereses de una máquina”, afirma Claudia Flores Saviaga, colaboradora de investigación en Facebook Research.
Contra la desinformación / Las nuevas propuestas
En esta tendencia, los medios de comunicación en América Latina poco a poco van sumando tecnologías de IA a las distintas etapas del proceso periodístico, al tiempo que los expertos apuestan a que en el futuro el periodista humano trabajará muy de cerca con máquinas y algoritmos para informar a las audiencias.
Los algoritmos innovadores, que desarrollan los centros especializados en IA, se entrenan con información proveniente de distintas fuentes y bases de datos para detectar palabras asociadas a la apelación de sentimientos o articulaciones textuales que puedan simular la reproducción del lenguaje de los usuarios.
Pinpoint y Verificado
El presidente Andrés Manuel López Obrador brinda una conferencia de prensa diaria. Sus enunciados son corroborados manualmente por el portal Verificado y, desde julio de 2020, por Pinpoint, una herramienta basada en inteligencia artificial desarrollada por Google para encontrar información en enormes bases de datos. El método de verificación consiste en la revisión de discursos de funcionarios para extraer frases verificables, que luego se contrastan con documentos oficiales y con otras fuentes.
Posteriormente se ponen en contexto y finalmente se les otorga una calificación, ya sea falso, verdadero o engañoso.
“Pasas de un proceso artesanal a uno más sistemático. Nos ha ayudado con las reiteraciones, cuántas veces se mencionan ciertas cosas, ciertos nombres, ciertas personas”, explica Daniela Mendoza, directora y fundadora de Verificado.
La herramienta fue creada en colaboración con redacciones de varios países, como parte del Google News Lab. Está disponible en siete idiomas y permite transcribir archivos de audio y video.
Funes, un algoritmo contra la corrupción
El medio peruano de periodismo de investigación Ojo Público, colaborador en investigaciones como Panamá Papers y el caso Lava Jato, desarrolló Funes, un algoritmo que utiliza indicadores de riesgo para encontrar posibles rastros de corrupción en contrataciones públicas.
Nombrada en referencia al cuento “Funes, el Memorioso”, de Jorge Luis Borges, la herramienta analiza información de las bases de datos de Ojo Público: identifica relaciones políticas y financieras para arrojar un score de riesgo que indica en qué contratos hay más probabilidad de hallar corrupción.
Actualmente, según el score, el 40% de las contrataciones en Perú tienen riesgo de corrupción, lo que no significa que esas contrataciones sean corruptas, sino que el score de riesgo que les asignó el algoritmo es alto.
Instituto Fraunhofer El centro desarrolló un programa que identifica, mediante análisis de textos, palabras y sus distintas combinaciones según el contexto; lo que permite detectar términos utilizados para apelar a las emociones. Su eficacia es de hasta el 97%.
“Pasas de un proceso
artesanal a uno más
sistemático”.
Aquí dice: ‘Dos migrantes pobres irrumpieron en la casa de una abuela’. Pobres y abuela son palabras emocionales típicas en noticias falsas. El programa puede detectar eso”, afirma Martín Steinebach, experto del instituto, para DW en Español.
Centro Alemán de Inteligencia Artificial (DFKI)
El experto Andreas Dengel y un equipo de programadores generan un conjunto de algoritmos para comprobar la veracidad y contextos de las imágenes, es decir si son reales y si coinciden con los textos que las acompañan. El programa indica cuándo apareció la imagen por primera vez en la red y procura que los usuarios conozcan si es verdadera o no, con un solo clic.
Tin eye
Es una plataforma que realiza búsqueda inversa de imágenes: es decir averigua el origen de estas. El buscador cuenta con más de 16,400 millones de imágenes. Al cargar una imagen, TinEye crea una “firma o huella digitales única y compacta”, y esa imagen la compara con otras. Realiza el procedimiento incluso con versiones muy editadas de la imagen presentada.
Un robot periodista
La IA fuerte es el conjunto de herramientas que imitan elementos de la cognición humana, son entrenadas para realizar varias actividades al mismo tiempo, por lo que son capaces de aprender de otros algoritmos y utilizar la comparación para complejizar su sistema de detección de falsas noticias, aunque siguen en desarrollo, estas herramientas son más eficaces al detectar riesgos de desinformación.
Gabriele, el robot que redacta noticias en segundos
La agencia española de noticias Narrativa, sustituyó a reporteros y periodistas por Gabriele, un robot capaz de redactar notas a gran velocidad. El robot, nombrado en honor a la primera máquina de escribir eléctrica, transforma el lenguaje natural en formal para crear patrones de estilo de redacción.
“Tomamos un corpus de noticias que ha generado cada medio y nuestro sistema de inteligencia artificial es capaz de imitar ese estilo de escritura”, explica Sofía Sánchez, vocera de Narrativa. “A través de nuestros algoritmos, Gabriele aprende cómo escribir y generar textos muy parecidos a los de los redactores humanos”.
Esta tecnología no es nueva en el periodismo internacional. Agencias de noticias como The Associated Press y Reuters generan gran parte de su contenido con herramientas automatizadas. The Washington Post cuenta con su propio robot redactor, Heliograf, mientras que Bloomberg tiene a Cyborg.
Gabriele genera contenido para al menos veinte medios de comunicación, la mayoría de ellos en España, como RTVE, 20 Minutos y El Periódico. En América Latina, dos medios cuentan con el servicio: Infobae, de Argentina, y el periódico En Cancha de Chile.
A través de nuestros
algoritmos, Gabriele
aprende cómo escribir
y generar textos muy
parecidos a los de los
redactores humanos”.
Combatir la desinformación sin IA, ¿es “ir a la guerra sin fusil”?
“La Inteligencia Artificial es una herramienta de apoyo, no sustituye el trabajo humano. Un robot no analiza la sociedad”, sostiene Sánchez. Si bien la IA ha innovado la forma de publicar y difundir noticias, los usuarios de las redes sociodigitales pueden combatir la desinformación siguiendo esta guía:
- Al revisar la fuente de la noticia
- No replicar notas con titulares sensacionalistas sin antes leer la nota.
- Leer todo el contenido del enlace, verificando que coincida con el titular.
- Explorar lo que otros medios han publicado sobre un mismo hecho.
- Leer con y para generar pensamiento crítico.
- Ampliar las lecturas más allá de las recomendaciones: salir del cluster.
- Realizar búsquedas inversas de imágenes.
La verificación algorítmica y manual, es la respuesta ante el problema de la desinformación. Es indispensable una industria periodística interesada en renovar sus procesos profesionales para salvaguardar la veracidad y calidad de la información. Al mismo tiempo que los públicos construyen una lectura crítica.
Contenido relacionado:
Empoderando el consentimiento sexual #REPORTAJE
EDFM