Designed to Deceive: Do These People Look Real to You?

Cita: 

Hill, Kashmir y Jeremy White [2020], "Designed to Deceive: Do These People Look Real to You?", The New York Times, New York, 21 de noviembre, https://www.nytimes.com/interactive/2020/11/21/science/artificial-intell...

Fuente: 
Otra
Fecha de publicación: 
Sábado, Noviembre 21, 2020
Tema: 
La generación de imágenes de personas falsas mediante el uso de la inteligencia artificial y sus implicaciones
Idea principal: 

Kashmir Hill es reportera en The New York Times que escribe sobre las formas en que la tecnología está cambiando nuestras vidas, particularmente cuando se trata de nuestra privacidad.

Jeremy White es editor gráfico y profesor adjunto en la Universidad de Columbia.


En el sitio web Generated.Photos es posible comprar la imagen de una persona falsa por unos $2.99 dólares. También se pueden conseguir fotografías de personas falsas gratis en ThisPersonDoesNotExist.com. Además, es posible ajustar su fenotipo y hacerles hablar gracias a Rosebud.AI, empresa que crea modelos virtuales. El uso de la inteligencia artificial para crear imágenes de personas que no existen está cobrando popularidad en internet ya que sirven como camuflaje para obtener información personal o para llevar a cabo acciones engañosas e incluso peligrosas.

Creamos un sistema de inteligencia artificial para comprender lo fácil que es generar diferentes caras falsas

Para los sistema de inteligencia artificial, los rostros son una figura matemática compleja que contiene valores que pueden cambiar. La modificación de valores específicos en esa representación matemática puede alterar la imagen del rostro.

Los autores del artículo crearon un sistema de inteligencia para generar rostros de personas que no existen. El primer paso para el desarrollo de este sistema fue generar imágenes en donde se establecieron puntos de partida y fin para todos los valores matemáticos sobre los rostros y después crear imágenes intermedias. Esto fue posible gracias a un tipo de inteligencia artificial llamada redes generativas adversarias, que consiste en "alimentar" un programa digital con fotografías de personas reales y posteriormente crear imágenes falsas a partir de las reales; otra parte del sistema intenta detectar cuáles son las fotografías falsas; con la interacción de ambas partes del sistema, se ajustan los parámetros para generar imágenes cada vez mejores y que sea más difícil distinguir las imágenes falsas de las reales.

No estamos tan lejos de un futuro en el que atestigüemos retratos de personas falsas e incluso colecciones completas de ellas. Y será cada vez más difícil identificar quién es real o quien es producto de una computadora.

Camille François, investigadora sobre la manipulación de redes sociales señala que en 2014 la tecnología para generar imágenes de personas falsas era de baja calidad. No obstante, en 2020 ya no es así, y considera que “esto es un recordatorio de lo rápido que puede evolucionar la tecnología y que la detección sólo se volverá más difícil con el tiempo”.

La falsificación fácil ha sido posible gracias a que la tecnología ha mejorado en la identificación de rasgos faciales clave. Por ejemplo, en la actualidad se utilizan los rostros para desbloquear los teléfonos inteligentes o puede indicársele a un software que busque un rostro en específico en una serie de fotografías. Por otro lado, el reconocimiento facial también es utilizado por las fuerzas de seguridad para identificar y arrestar a presuntos delincuentes.

Claerview.AI es una empresa de tecnología estadounidense que proporciona software de reconocimiento facial a cuerpos policiales. El software de esta empresa busca en internet fotografías públicas compartidas cotidianamente por usuarios para lograr el reconocimiento de las personas, incluso a partir de una sola fotografía. Estas capacidades prometen la capacidad de organizar y procesar el mundo como antes no era posible.

No obstante, los algoritmos de reconocimiento fácil no son infalibles, pues contienen un sesgo importante cuando se trata de reconocer o identificar a personas de color. Esto ha traído consigo consecuencias graves. Por ejemplo, en enero de 2020 Robert Williams, un hombre negro, fue arrestado en Detroit por un crimen que no cometió; la causa fue una coincidencia incorrecta de un software de reconocimiento facial.

Por un lado, se espera que la inteligencia artificial pueda facilitar la vida de las personas. Por otro, se teme que sea tan defectuosa y sesgada como el propio ser humano, ya que son humanos quienes están detrás de ella: son quienes fabrican los sistemas; quienes eligen las voces que enseñan a los asistentes virtuales; quienes diseñan los programas de computadora para predecir comportamientos; o quienes asocian objetos (por ejemplo, los lentes) con cierto tipo de personas (por ejemplo, con ser "nerd").

Aunque parecen objetivas e infalibles, las computadoras también cometen errores y estos se retroalimentan con los de los humanos. Existen estudios que muestran que las personas pueden ser inducidas a error por las computadoras. Por ejemplo, cuando recién salieron al mercado los sistemas de GPS, las y los conductores seguían las indicaciones a pesar de que éstos les indicaban que debían dirigirse hacia áreas u objetos no seguros o no aptos para circular. Esto lleva a los autores del artículo a preguntarse, “¿le damos muy poco valor a la inteligencia humana, o la sobrevaloramos, asumiendo que somos tan inteligentes que podemos crear cosas aún más inteligentes?”.

Otro ejemplo son los algoritmos de Google y Facebook que definen qué vemos al clasificar las noticias y filtrar las actualizaciones en redes sociales; estos filtros pueden reforzar nuestros sesgos y prejuicios. Los autores concluyen señalando que "tenemos mucha confianza en estos sistemas, pero pueden ser tan falibles como nosotros”.

Nexo con el tema que estudiamos: 

El estudio de los sistemas de reconocimiento facial es importante pues estas tecnologías responden a un modelo hegemónico que reproduce relaciones de poder clasistas, sexistas y racistas. En estas circunstancias, en lugar de mejorar y facilitar la vida, las tecnologías generan mayor exclusión y desigualdad.

Las personas que se han visto afectadas por el uso de la tecnología deberían participar de su diseño y desarrollo; sólo de esa manera, al incluir todas las voces, se producirán tecnologías que respeten la integridad y derechos de cada ser humano.