naito8 - stock.adobe.com

Noticias Manténgase informado sobre las más recientes actualizaciones de productos y noticias de tecnología empresarial.

Facebook prohibirá videos deepfake

Nueva política cierra algunas lagunas en torno a la desinformación, pero parece dejar otras completamente abiertas.

Facebook eliminará y prohibirá los videos falsos (deepfake) identificados como creados o manipulados con inteligencia artificial (IA), en una inversión de su postura anterior sobre el asunto.

Los cambios en la política de la plataforma de redes sociales fueron anunciados por su vicepresidenta de gestión de políticas globales, Monica Bickert, en una publicación de blog.

«En todo el mundo, hemos estado conduciendo conversaciones con más de 50 expertos mundiales con antecedentes técnicos, políticos, de medios, legales, cívicos y académicos para informar el desarrollo de nuestras políticas y mejorar la ciencia de la detección de medios manipulados», dijo.

«Como resultado de estas asociaciones y discusiones, estamos fortaleciendo nuestra política hacia videos manipulados engañosos que han sido identificados como falsificaciones profundas (deepfakes). En el futuro, eliminaremos los medios manipulados engañosos si cumplen con los siguientes criterios: Han sido editados o sintetizados, más allá de los ajustes por claridad o calidad, de maneras que no son evidentes para una persona promedio y que probablemente inducirán a error a alguien a pensar que un sujeto del video dijo palabras que en realidad no dijo», o «es el producto de la inteligencia artificial o el aprendizaje automático que fusiona, reemplaza o superpone contenido en un video, haciendo que parezca auténtico».

Sin embargo, la nueva política contiene algunas lagunas. Notablemente, no se extiende para cubrir «contenido que es parodia o sátira, o video que ha sido editado únicamente para omitir o cambiar el orden de las palabras».

Javvad Malik, un defensor de la conciencia de seguridad en KnowBe4, dijo que no creía que la nueva política de Facebook lograría nada. «El hecho de que se excluyan la parodia y la sátira podría significar que la mayoría de las personas podrían argumentar que cualquier video marcado es simplemente una sátira», dijo.

«Hay formas en que los videos pueden ser manipulados sin el uso de tecnología de falsificaciones profundas», dijo Malik. «Combinar las reacciones de diferentes tomas, cambiar el audio, o incluso la velocidad de un video, puede alterar drásticamente el mensaje que el video original pretendía dar».

Esto parecería sugerir que una gran cantidad de videos falsos hechos con técnicas de edición convencionales, incluido un video manipulado del laborista Keour Starmer distribuido por los conservadores antes de las elecciones generales de 2019, y las imágenes que hicieron que la oradora estadounidense Nancy Pelosi pareciera embriagada simplemente disminuyendo la velocidad abajo del video, todavía serían permisibles.

Facebook se negó notablemente a eliminar el video de Pelosi, incluso después de que fue distribuido por prominentes republicanos, aunque tomó medidas para rebajar la visibilidad del clip en las noticias y adjuntó un enlace a un verificador de hechos de terceros.

En ese momento, un portavoz de Facebook dijo que la plataforma estaba trabajando duro para lograr el «equilibrio correcto entre alentar la libre expresión y promover una comunidad segura y auténtica».

Una amenaza de seguridad emergente

Aunque no está muy extendido más allá de los ejemplos creados para demostrar que pueden crearse, los deepfakes se consideran una amenaza de seguridad viable y emergente, y un arma potencialmente disruptiva para quienes están empeñados en difundir información errónea en línea o, en un contexto empresarial, para realizar ataques de phishing dirigido.

Muchos comentaristas anticipan un aumento en el contenido falso en 2020, a medida que Estados Unidos se prepara para lo que probablemente sea una de las elecciones presidenciales más divisivas y problemáticas en su historia este noviembre.

Los videos deepfake se realizan utilizando dos sistemas de inteligencia artificial, conocidos como generador y discriminador, que están esencialmente en conflicto entre sí. En la práctica, esto se conoce como una red de confrontación generativa (GAN).

El generador crea un videoclip que la IA discriminadora debe identificar como real o falso. Si el discriminador es preciso, el generador obtiene información vital sobre cómo no crear clips de video en el futuro.

En teoría, a medida que ambas IA aprenden una de otra, la calidad del contenido de falsificación profunda mejorará hasta el punto en que los observadores humanos no puedan determinar con precisión qué es real y qué no.

Investigue más sobre Las amenazas de seguridad de la información

Inicie la conversación

Envíenme notificaciones cuando otros miembros comenten sobre este artículo.

Por favor cree un Nombre de usuario para poder comentar.

- ANUNCIOS POR GOOGLE

Close