Facebook refuerza los controles de videos manipulados

Los 'deepfake' son vídeos editados utilizando la Inteligencia Artificial (IA) para manipular contenidos con el fin de distorsionar la realidad.
Facebook

REUTERS/DADO RUVIC  -   Facebook

Facebook refuerza sus mecanismos para identificar y eliminar aquellos vídeos que hayan sido manipulados o editados para cambiar el contenido con el fin de engañar. Los ‘deepfake’ son vídeos editados utilizando la Inteligencia Artificial (IA) para manipular contenidos con el fin de distorsionar la realidad.

Con la creciente tendencia de los ‘deepfake’ en redes sociales, Facebook ha anunciado que ha reforzado sus políticas para hacer frente a este tipo de vídeos en su plataforma y a cualquier otro tipo de contenido manipulado.

Para ello, van a investigar todo contenido generado a partir de herramientas de IA y cuentas falsas, además de trabajar juntamente con instituciones, gobiernos y empresas para descubrir a las personas detrás de estos contenidos.

A partir de ahora Facebook eliminará cualquier contenido que haya sido editado o sintetizado, pero no por motivos de mejora de calidad de audio e imagen, de manera que el vídeo generado pueda llegar a hacer a una persona creer que lo que se dice en él es cierto.

También se eliminarán los vídeos creados a partir de IA o aprendizaje automático que se fusionen, reemplacen o superpongan a otro vídeo para hacerlo parecer auténtico. Estas nuevas políticas no se extienden a vídeos satíricos ni de parodia.

La compañía ya estaba trabajando en la identificación de ‘deepfakes’ desde septiembre de 2019 con su programa Deep Fake Detection Challenge, que ha unido a personas de todo el mundo en la búsqueda de contenidos manipulados. Además, se ha unido a Reuters para crear un curso de entrenamiento que ayude a los periodistas a identificar noticias falsas.