Una de las estrategias habituales usadas para condicionar la opinión pública es la conocida como astroturfing

El ‘astroturfing’ o cómo la industria de la desinformación consigue manipularnos

photo_camera fake-news

Aunque la desinformación siempre ha existido, los escenarios digitales y las tecnologías han permitido perfeccionarla hasta convertirla en una industria lucrativa basada en la manipulación.

El negocio también ha llegado a España. Empresas de propaganda digital como Cambridge Analytica, radiadas tanto desde dentro del país como desde otros –Estados Unidos, Filipinas, Nigeria o Venezuela–, se han especializado en la viralización de contenidos que condicionan la opinión pública, según las orientaciones ideológicas e intereses de los usuarios.

En nuestros recientes estudios hemos detectado la viralización de mensajes desde Filipinas para influir en la opinión pública española.

Estas acciones tienen capacidad de abordar una amplia diversidad de objetivos y temas: sexo, política de extrema derecha o de izquierda, adolescentes, animales, fuerzas del orden, deportes, videojuegos, religión y humor.

Los temas, aparentemente inconexos, aparecen respaldados por medios informativos como RT (Russia Today) y famosas webs de contenido desinformativo como Mediterráneo Digital y Caso Aislado. Esto les permite generar interrelaciones y conexiones muy sutiles entre usuarios, y favorecer el debate y polémicas entre grupos de usuarios creados artificialmente (ataques de falsa bandera, con mensajes a favor y en contra). Un escenario que facilita la viralización de contenidos desinformativos y el uso de expresiones de odio, especialmente promovido por grupos ideológicos de extrema derecha.

El astroturfing

Una de las estrategias habituales usadas para condicionar la opinión pública es la conocida como astroturfing. Esta metodología, llevada a cabo en los ámbitos del marketing y relaciones públicas, ha sido detectada en varios países. Por ejemplo, en las elecciones de Corea del Sur. Su objetivo es dar una imagen de naturalidad y espontaneidad de los temas abordados: supuestas personas lanzan mensajes e ideas aparentemente espontáneos en un breve espacio de tiempo.

Durante las primeras olas de la covid-19 pudimos detectar astroturfing siguiendo el mismo patrón en varios casos, como en un bulo sobre el contagio del ministro Pedro Duque o en ataques al diario El País. La estrategia tiene varias etapas:

  • Fase de distribución. La estrategia se inicia con cuentas gestionadas por personas reales –que aparentan ser amas de casa, deportistas o gente de su ciudad, sin aparente conexión entre sí–, contratadas para emitir varios mensajes sobre un mismo tema en un breve espacio de tiempo.

  • Fase de amplificación. Más tarde, se amplifican las repercusiones de los mensajes, interpelando a medios o periodistas, aunque sean de desinformación.

  • Fase de inundación. Si el paso anterior tiene éxito, se lanzarán multitud de mensajes de apoyo con ayuda de bots automatizados en determinados momentos del día. Esta fase suele coincidir con las horas de las comidas, y puede haber varias acciones sucesivas en función de su alcance.

Es difícil detectar el astroturfing. Las cuentas o usuarios que participan nunca tienen el perfil de grandes influencers. Son cuentas llamadas nano o microinfluencers, y se caracterizan por no destacar del resto de usuarios (generalmente tienen unos pocos cientos de seguidores). Actores que buscan establecer contactos y difundir temas sin llamar la atención. Y lo hacen sin emplear expresiones de odio con una carga o intensidad muy destacada. Esta estrategia les ayuda a promover emociones básicas intensas y a evitar ser detectados por algoritmos de monitoreo de este tipo de expresiones.

¿Qué podemos hacer?

Debemos avanzar en la enseñanza de competencias a la ciudadanía que le permitan reconocer la desinformación y aprender a usar los proyectos de comprobación de hechos existentes.

En general, para detectar este tipo de campañas fraudulentas, debemos desconfiar de cuentas que quieren ser nuestros amigos sin conocerlas, aparentando ser gente corriente. Estas cuentas pretenden acercarse a nosotros para, más adelante, enviarnos mensajes apoyados en medios, muchas veces de desinformación, e ir poco a poco convenciéndonos de determinadas ideas. También quieren conseguir información sobre nuestros gustos, opiniones y demás datos para clasificarnos en futuras campañas.

También debemos tener en cuenta los riesgos presentes en las redes sociales e internet en general. Un ejemplo son los foros de los periódicos. En ellos abundan usuarios que persiguen polarizar y conseguir nuestros datos para usarlos de forma comercial o política.

Conviene reconocer que la desinformación campa libremente en nuestros ordenadores y móviles, con la ayuda de una industria. Debemos ser conscientes de que detrás de estas campañas hay una industria muy potente, con una alta tecnología y que bebe de la facilidad que damos al ceder nuestros datos en internet.

Ya se está avanzando en mecanismos de detección de contenidos desinformativos y de expresiones de odio desde los escenarios digitales actuales, como el que se desarrolla desde proyectos como Hatemedia. Mientras tanto, hay que tener cuidado y asumir que mucho de lo que se lee en las redes y se redifunde puede estar contribuyendo a la difusión de la captación de datos, polarización, desinformación y odio.The Conversation

Sergio Arce Garcia, Profesor e investigador en comunicación digital y redes sociales., UNIR - Universidad Internacional de La Rioja ; Daria Mottareale Calvanese, Professor, UNIR - Universidad Internacional de La Rioja y Elías Manuel Said Hung, Profesor titular de la Facultad de Educación, UNIR - Universidad Internacional de La Rioja

Este artículo fue publicado originalmente en The Conversation. Lea el original.

More in Society