Internet Companies Prepare to Fight the 'Deepfake' Future

Cita: 

Metz, Cade [2019], "Internet Companies Prepare to Fight the 'Deepfake' Future", The New York Times, New York, 19 de noviembre, https://www.nytimes.com/2019/11/24/technology/tech-companies-deepfakes.html

Fuente: 
Otra
Fecha de publicación: 
Martes, Noviembre 19, 2019
Tema: 
Desarrollo de sistemas y técnicas de detección de videos falsos ante su amenaza a futuro
Idea principal: 

Google decidió hacer un experimento en el que modificó los rostros de hombres por el de mujeres que estaban siendo grabados en distintos lugares, con el fin de crear cientos de videos falsos, lo que según científicos de la compañía ayudará para aprender a detectarlos ya que tanto Youtube como Facebook quien también realizó su propio experimento, serán las plataformas ideales para compartir estos contenidos, algo que preocupa a investigadores y legisladores ya que este método podría convertirse en una forma de difundir información falsa de cara a las elecciones presidenciales de 2020.

El término Deepfake comenzó a popularizarse en paginas como Twitter, Reddit y Pornhub a finales de 2017 a partir del injerto de rostros de celebridades en cuerpos desnudos de videos pornográficos y ha sido otorgado a videos manipulados con inteligencia artificial de vanguardia, lo cuales son usados como evidencia y han sido motivo de incidentes en Brasil, Gabón y China, debido a que prevalece la duda sobre su veracidad a lo que expertos han llamado el dividendo del mentiroso. También como lo señala Nick Dufour, ingeniero de Google, han provocado que videos que son evidencia verdadera puedan ser considerados como falsos, y a pesar de que manipular imágenes o videos ha sido posible desde hace décadas era un proceso tardado y reducido a un grupo de expertos, pero con la aparición de inteligencia artificial (IA) esto a pasado a ser más rápido y sencillo debido a que el sistema de IA aprende a crear imágenes falsas al analizar miles de imágenes reales, lo que permite que más personas puedan hacerlas y en mayores cantidades.

No obstante la capacidad para reconocer videos falsos es suficiente, investigadores temen que por la evolución de esta técnica no puedan seguir su paso. Mientras, Google expuso que su colección de videos sintéticos puede ser libremente descargado por investigadores y académicos, la cual se compone de trucos digitales para computadora que al ser analizados por los sistemas de IA les permiten identificar los falsos, mediante los cuales Dessa, una compañía canadiense de IA, desarrollo un detector de videos falsos con una precisión casi infalible, sin embargo en videos de otras plataformas su capacidad bajó casi hasta la mitad, problema que lograron solucionar pero sólo al reconstruir el programa con videos adecuados, lo que prueba dos cosas: los detectores son tan buenos como la información con la que se les entrene y la continua actualización necesaria para combatir este fenómeno, ya que las características identificadas en videos falsos antiguos no necesariamente serán las mismas para los que se hacen o se harán en un futuro.

También Deepfake se beneficiará de la continua mejora en las computadoras y la abundancia de información, con los software de aprendizaje automático que los ayudarán a ser más efectivos, la incógnita es qué sector tendrá un mayor desarrollo, ya que los detectores de videos falsos también trabajan en sistemas capaces de detectarlos y eliminarlos, y aunque los detectores también pueden desarrollarse de forma acelerada necesitan de las últimas técnicas de videos falsos empleadas, lo cuál puede ser difícil debido a que los casos relevantes son pocos aunado a que las políticas de privacidad y derechos de autor no siempre lo permiten.

Por otro lado Deepfake no siempre es utilizado para desinformar, ya que activistas y artistas también emplean esta técnica para mostrar como es que estos videos falsos sirven para modificar el discurso político por internet, incluso de acuerdo con Facebook y Google el mayor uso que se hace del mismo es para compartir humor o falsa pornografía. No obstante que los errores todavía pueden ser detectados por sistemas automatizados o por el ojo humano, el argumento de algunos investigadores es que la mejora de la tecnología podrá eliminar esos pequeños errores ante lo que compañías como Facebook y Google esperan poder desarrollar detectores adecuados cuando eso suceda.

Nexo con el tema que estudiamos: 

La influencia que pueden ejercer los videos falsos al aprovechar los millones de usuarios de redes sociales como Facebook y Youtube, podría generar problemas para el fortalecimiento y estabilidad de estas compañías, por lo que esta nueva forma de hacer la guerra se contrapone a la forma en que estas han intentado desplegar su gobernanza volviendo un imperativo el desarrollo de detectores que anulen dicho impacto y permitan la continuación de la misma.