Los apasionados propietarios de los medios tradicionales son los más peligrosos de las noticias claramente falsas | Tecnología

Los apasionados propietarios de los medios tradicionales son los más peligrosos de las noticias claramente falsas |  Tecnología

Titulares como “Un médico ‘sano’ muere dos semanas después de recibir una vacuna contra el covid; el Gobierno investiga el porqué” de Tribuna de Chicago o “Sorprendente número de trabajadores sanitarios en primera línea, lo que genera una brecha de covid”, de Forbes, fueron dos ejemplos de los mensajes más virales en Facebook a principios de 2021 y los que más incidieron en la tarea navideña en EE UU contra el covid. S noticias falsas son más efectivos, pero su alcance fue mucho menor, porque lo importante es la voluntad de quienes mueven las noticias de medios fiables.

Esta es la principal conclusión de un nuevo artículo publicado en la revista Ciencia que analiza el impacto de los enlaces en blanco en Facebook entre enero y marzo de 2021. Los enlaces marcados como falsos fueron vistos 8,7 millones de veces, lo que supone apenas el 0,3% de los 2.700 millones de visualizaciones en blanco en este periodo, según datos de la plataforma. A cambio, los propietarios no son etiquetados como desinformadores, sino que insinúan que las aspiradoras estaban dañadas, algo que muchos de los principales medios de comunicación han visto cientos de millones de veces. La diferencia es tan extraordinaria en estos momentos que, comparada con la desinformación pura, tiene mucha menos relevancia.

“Nuestro análisis sugiere que los verificadores de datos de Facebook identifican la información errónea más perjudicial, por lo que Facebook ha hecho un trabajo decente al respecto”, dice Jennifer Allen, investigadora del Instituto Tecnológico de Massachusetts (MIT) y coautora del artículo. “Pero otras historias pueden volverse virales en línea y los actores malintencionados pueden utilizar historias rigurosas para promover narrativas atractivas, algo que las plataformas deben hacer más para adaptarse. Aunque los medios deben ser conscientes al escribir a sus dueños, ya que su contenido puede aparecer fuera de contexto”, añade. Un dueño como el del Tribuna de Chicago En un grupo que se opone a las vacunas, en este contexto tan cargado, puede resultar devastador.

Este hallazgo cambia parte del enfoque tradicional sobre las noticias falsas y la desinformación para recordarnos que los medios más tradicionales también deben monitorear lo que publican, más aún en una era en la que la viralidad se explica solo en el menú del propietario. “La responsabilidad por los clics es total”, dice Allen, “pero no creo que sea libre de asumir los medios de responsabilidad. Las publicaciones periódicas deben tener en cuenta que en redes sólo viendo los títulos y las historias se pueden leer en contexto. Deberíamos esforzarnos por evitar posibles malas interpretaciones de nuestro trabajo”.

Los autores calculan el impacto real que tienen los titulares en base a las cifras de los usuarios que los consumen. El impacto negativo de los propietarios implicados sobre las personas que debían vacunarse fue 46 veces más evidente que la desinformación. en un comentario sobre Ciencia En el artículo, el investigador de la Universidad de Cambridge, Sander van der Linden, calcula a partir de los 233 millones de estados de Facebook que estos propietarios impiden que al menos 3 millones de personas se vayan de vacaciones. “Es un cálculo aproximado”, advierte Allen.

El estudio estima que el contenido escéptico sobre las vacaciones en Facebook reduce la intención de vacunarse en EE UU en 2,3 puntos, pero la intención de vacunarse puede diferir de la decisión final real de vacunarse. “Supongamos, con base en otra encuesta, que la adopción de vacuna es el 60% de la intención de vacunarse y de nosotros sacaremos la cifra de 3 millones. Esta cifra es especulativa, pero sugiere que el impacto potencial de estos iniciadores podría ser considerable”.

El artículo se centra en los efectos de los titulares sobre la vacante. Pero Van der Linden cree que sería fácilmente replicable en otras áreas, como la política, y “sólo depende del acceso continuo a datos relevantes”, afirma.

Mujer, alcaldesa y conservadora

En este debate entre fake news triviales y propietarios aparentemente serios que podrían volverse virales, Ciencia publica un segundo artículo sobre un fenómeno conocido pero poco visto: los superdifusores. Son un subgrupo central en la desinformación de los “semibots”, como los bautizó EL PAÍS en una investigación de 2019 titulada “A 200 tuits por hora desde el sofá: quién está detrás de los perfiles políticos más activos de Twitter”. Son el pequeño grupo de usuarios que convierten su cuenta en un basurero de desinformación o información secreta. Gracias a esta nueva investigación se sabe que su impacto real en el debate público es mayor de lo que parece.

El estudio observó un panel de más de 664.000 votantes registrados durante las elecciones presidenciales de EE. UU. de 2020. Entre todos ellos, solo un pequeño grupo de 2.107, que representa el 0,3%, votantes registrados que distribuyeron el 80% de las noticias falsas. Son estos súper esparcidores. Sólo este grupo registra su trabajo obteniendo el 5,2% de los votantes registrados en Twitter. “Estos hechos revelan una vulnerabilidad de las redes sociales para la democracia, donde un pequeño grupo de personas distorsiona la realidad política de muchos”, escriben los autores del artículo.

La investigación también permitió identificar algunas características personales de este grupo: son todas mujeres, más alcaldesas civiles y conservadoras. Estos detalles coinciden con un estudio de Naturaleza del año 2023, con datos en este caso de Facebook, que demostraban que la mayoría de consumidores de desinformación eran conservadores. Este estudio se limita a Twitter debido a datos de otras redes sociales, según Nir Grinberg, investigador de la Universidad Ben Gurion en el Negev (Israel) y uno de los coautores: “Me gustaría tener la capacidad de reaccionar a las preguntas sobre otras redes con evidencia empírica, pero la disponibilidad de datos de las plataformas de redes sociales limita este tipo de investigación”.

Usuarios de Twitter [hoy X] que seguir estas cuentas tiende a estar más expuesto a desinformación y exposición repetida, lo que son factores destacados en la creencia en mentiras, según el artículo. El impacto de estos usuarios que dedican buena parte de sus días a regresar no es baladí: si a un candidato se le pidiera que incidiera en cómo este grupo de superdifusores debería gastar 20 millones de dólares: “No sólo se encuentran con una audiencia considerable en línea, sino que El resultado es ser miembros influyentes de tus comunidades, porque brindan algunas de las noticias falsas a tus seguidores”, dice el artículo.

Estos cambios le permiten comprender la información errónea y opciones para pensar en nuevas formas de limitar su alcance. “La moderación de contenido es un equilibrio entre la libertad de expresión y el daño potencial”, dice Allen. “Pero es difícil para las plataformas cuán malo puede ser el contenido”. Esto ha sucedido hasta hoy, donde las plataformas se han limitado a reducir la altura del texto y han pasado por este otro tipo de contenidos más dañinos que violan el espíritu, pero no la letra de la ley.

“Nuestra metodología permite a las plataformas identificar primero el contenido que potencialmente tiene un impacto negativo y luego desarrollar políticas”, dice Allen, quien trabajó en Meta antes de comenzar su doctorado en el MIT. “Como primer paso, Facebook podría priorizar el envío de contenidos a verificadores de datos en función de su impacto potencialmente dañino, su capacidad de persuasión multiplicada por su audiencia potencial, donde las páginas con muchos seguidores tendrán mayor prioridad”, explica.

Allen también propone como alternativa válida algo similar a las X Community Notes, que son una prueba de alta colaboración entre usuarios. “Puede ser una forma de mitigar el impacto de una historia dañina pasada en una prueba de eco, pero carece de un contexto relevante”, dice Allen.

Puedes seguir en EL PAÍS Tecnología es FacebookX o escribe aquí para recibirnos boletín periódico.