En la batalla en contra de la desinformación en línea, las mentiras tienen ventajas clave. Estas aparecen prontamente y se esparcen a la velocidad de los electrones, y hay un tiempo de retraso antes de que los verificadores de hechos puedan descalificarlas.

Por eso, los investigadores de la Universidad de Cambridge, la Universidad de Bristol y Google han intentado un enfoque diferente que intenta debilitar la desinformación antes de que la gente la vea. Lo llaman “pre-bunking”.

Pre-bunking

Investiga cómo se puede desacreditar la desinformación, mostrando a la gente cómo funciona, antes de que estén expuestos a ella.

En el experimento, los anuncios se mostraron a 5,4 millones de personas, 22.000 de las cuales fueron encuestadas después.

Después de ver los vídeos explicativos, los investigadores descubrieron una mejora en la capacidad de los encuestados para detectar técnicas de desinformación, una mayor capacidad para discernir los contenidos fiables de los que no lo son y una mayor capacidad para decidir si se comparten o no los contenidos.

La investigación, revisada por expertos, se realizó en colaboración con Google, propietario de YouTube, y se publicará en la revista Science Advances.

 

¿Cómo se aplicará al mundo real?

Tras el éxito del experimento realizado, Google tiene previsto mostrar anuncios que informen sobre las técnicas de desinformación. Google Jigsaw, que aborda los peligros de la seguridad en línea, publicará anuncios en YouTube, TikTok, Twitter y Facebook.

Los investigadores descubrieron que los vídeos mejoraban la capacidad de las personas para reconocer los contenidos manipuladores.

Se proyectarán en Eslovaquia, la República Checa y Polonia para combatir las noticias falsas sobre los refugiados ucranianos.

Google dijo que los “emocionantes” resultados mostraban cómo los medios sociales pueden adelantarse activamente a la difusión de la desinformación.

Las plataformas de redes sociales ya han hecho intentos de pre-bunk antes, aunque esos esfuerzos han hecho poco para frenar la difusión de información falsa. En su mayoría no han logrado ser tan detallados o entretenidos como los vídeos que se utilizaron en los estudios de los investigadores.

 

Trucos comunes

Esta investigación intenta de disminuir la probabilidad de que las personas sean persuadidas por la desinformación. Obviamente, no se pueden predecir todos los ejemplos de desinformación que se van a hacer virales, pero lo que sí se puede hacer es encontrar patrones y trucos comunes.

La idea de este estudio era: que, si encontraban un par de estos trucos, ¿es posible hacer que la gente sea más resistente a ellos, incluso en contenidos que nunca han visto antes?

Los científicos probaron inicialmente los vídeos con miembros del público bajo condiciones controladas en un laboratorio. Esto fue antes de mostrarlos a millones de usuarios en YouTube, como parte de un estudio de campo más amplio.

La campaña contra la desinformación y la prebunkerización se realizó en YouTube tal y como se vería en el mundo real.

Las hicieron funcionar como anuncios de YouTube, como un anuncio sobre crema de afeitar o lo que sea… antes de que se reprodujera el vídeo.

 

Cómo funcionó el estudio

Los anunciantes pueden utilizar una función de YouTube llamada Brand Lift, que les indica si un anuncio ha dado a conocer su producto y cómo lo ha hecho.

Los investigadores utilizaron esta misma función para evaluar la capacidad de las personas para detectar las técnicas de manipulación a las que habían sido expuestas.

En lugar de una pregunta sobre el conocimiento de la marca, se les mostró un titular y se les pidió que lo leyeran. Se les mencionó que este tenía manipulación y se les solicitó que identificaran el tipo de técnica que se estaba utilizando.

Además, había otro grupo de control al que no se le mostró ningún vídeo, pero sí el titular y las preguntas correspondientes.

Lo que se espera es que el grupo que vio los vídeos acierte en su identificación con mucha más frecuencia que el grupo de control, y así resultó ser.

Por término medio, el grupo que recibió los vídeos acertó un 5% más de veces que el grupo de control. Eso es muy significativo.

Talvez no parezca mucho, pero también es verdad que el grupo de control no siempre se equivoca. También aciertan un número de preguntas.

Esa mejora, incluso en el ruidoso entorno de YouTube, demuestra básicamente que se puede mejorar la capacidad de la gente para reconocer estas técnicas de desinformación, simplemente mostrándoles un anuncio.

 

Soluciones basadas en pruebas

La Universidad de Cambridge afirmó que se trata del primer estudio de campo en el mundo real de la “teoría de la inoculación” en una plataforma de medios sociales.

El profesor Sander van der Linden, coautor del estudio, dijo que los resultados de la investigación eran suficientes para llevar el concepto de inoculación hacia adelante y ampliarlo. Para así llegar potencialmente a cientos de millones de usuarios de medios sociales.

Está claro que es importante que los niños aprendan a hacer una lectura lateral y a comprobar la veracidad de las fuentes. Pero también necesitamos soluciones que puedan ampliarse en las redes sociales y que interactúen con sus algoritmos.

Hay mucho escepticismo en torno a las empresas tecnológicas que utilizan este tipo de investigación, y un escepticismo más amplio en torno a las colaboraciones entre la industria y el mundo académico.

Pero, al fin y al cabo, tenemos que afrontar la realidad, ya que las empresas de medios sociales controlan gran parte del flujo de información en línea. Por eso, para proteger a la gente, han ideado soluciones independientes y basadas en pruebas que las empresas de medios sociales pueden aplicar realmente en sus plataformas.