Jesús Augusto Sarcos Romero: Facebook refuerza su política para eliminar cualquier vídeo manipulado que pueda llevar al engaño
Facebook anunció
que reforzó sus políticas para identificar y eliminar aquellos vídeos que hayan
sido manipulados o
editados para cambiar el contenido con el fin de engañar, que se han
popularizado con el nombre de “deepfake”.
Uno de los mayores problemas digitales de hoy en día son los contenidos manipulados para engañar o “deepfake” vídeos editados utilizando la InteligenciaArtificial (IA) para manipular contenidos con el fin de distorsionar la realidad. Es importante diferenciar los vídeos manipulados con malas intenciones de los que se editan para mejorar la calidad de imagen y de audio.
Uno de los mayores problemas digitales de hoy en día son los contenidos manipulados para engañar o “deepfake” vídeos editados utilizando la InteligenciaArtificial (IA) para manipular contenidos con el fin de distorsionar la realidad. Es importante diferenciar los vídeos manipulados con malas intenciones de los que se editan para mejorar la calidad de imagen y de audio.
Con
la creciente tendencia de los deepfake en redes sociales, Facebook anunció que ha
reforzado sus políticas para hacer frente a este tipo de vídeos en su plataforma y cualquier
otro tipo de contenido manipulado.
Para ello, van a investigar todo contenido generado a partir de herramientas de IA y cuentas falsas además de trabajar conjuntamente con instituciones, gobiernos y empresas para descubrir a las personas detrás de estos contenidos.
A partir de ahora Facebook eliminará cualquier contenido que haya sido editado o sintetizado, pero no por motivos de mejora de calidad de audio e imagen, de manera que el vídeo generado pueda llegar a hacer a una persona creer que lo que se dice en él es cierto.
También se eliminarán los vídeos creados a partir de IA o aprendizaje automático que se fusionen, reemplacen o superpongan a otro vídeo para hacerlo parecer auténtico. Estas nuevas políticas no se extienden a vídeos satíricos ni de parodia.
Para ello, van a investigar todo contenido generado a partir de herramientas de IA y cuentas falsas además de trabajar conjuntamente con instituciones, gobiernos y empresas para descubrir a las personas detrás de estos contenidos.
A partir de ahora Facebook eliminará cualquier contenido que haya sido editado o sintetizado, pero no por motivos de mejora de calidad de audio e imagen, de manera que el vídeo generado pueda llegar a hacer a una persona creer que lo que se dice en él es cierto.
También se eliminarán los vídeos creados a partir de IA o aprendizaje automático que se fusionen, reemplacen o superpongan a otro vídeo para hacerlo parecer auténtico. Estas nuevas políticas no se extienden a vídeos satíricos ni de parodia.
La
compañía ya estaba trabajando en la identificación de deepfakes desde
septiembre de 2019 con su programa
Deep Fake Detection Challenge que ha unido a personas de
todo el mundo en la búsqueda de contenidos manipulados. Además, se han unido a
Reuters para crear un curso de entrenamiento que ayude a los periodistas a
identificar noticias falsas.