Here's a Way to Learn if Facial Recognition Systems Used Your Photos

Cita: 

Metz, Cade y Kashmir Hill [2020], "Here's a Way to Learn if Facial Recognition Systems Used Your Photos", The New York Times, New York, 31 de enero, https://www.nytimes.com/2021/01/31/technology/facial-recognition-photo-t...

Fuente: 
Otra
Fecha de publicación: 
Domingo, Enero 31, 2021
Tema: 
Investigadores desarrollan una herramienta que permite saber si las fotografías de los usuarios de Flickr (una red social) han sido usadas para entrenar sistemas de reconocimiento facial
Idea principal: 

Cade Metz, corresponsal de tecnología en The New York Times que cubre inteligencia artificial, automóviles sin conductor, robótica, realidad virtual y otras áreas emergentes.

Kashmir Hill, reportera de tecnología que escribe sobre las formas inesperadas y a veces siniestras en que la tecnología está cambiando nuestras vidas, particularmente cuando se trata de nuestra privacidad.


Es posible que las empresas de tecnología, universidades y laboratorios hayan tomado como referencia nuestros rostros para desarrollar los sistemas de reconocimiento facial que están implementando en los programas de vigilancia gubernamental.

Algunas y algunos investigadores crearon Exposing.AI, una herramienta que detecta si las fotos del sitio de internet Flickr se han usado para entrenar algoritmos de inteligencia artificial para el reconocimiento facial.

Liz O'Sullivan, directora de la organización Proyecto de Supervisión de Tecnología de Vigilancia destacó la importancia de que las y los usuarios estén familiarizados con estas herramientas para saber si sus fotografías han sido usadas para entrenar a las tecnologías de reconocimiento facial. A pesar de que las tecnologías de reconocimiento facial han mejorado de manera acelerada, también preocupa que “puedan reproducir los prejuicios humanos contra las mujeres y las minorías”.

Más allá de lo “curioso” o anecdótico que pueda resultar el uso de fotografías privadas para entrenar a los sistemas de reconocimiento facial, el desarrollo de estas tecnologías también puede resultar “espeluznante” e incluso puede ser ilegal. Por ejemplo, el Illinois, la Ley de Privacidad de la Información Biométrica, “impone sanciones económicas si los escaneos faciales de los residentes se utilizan sin su consentimiento”.

En 2006, Brett Gaylor, documentalista canadiense, compartió fotografías de su luna de miel en Flickr y 15 años después descubrió a través de Exposing.AI que sus fotos formaron parte del entrenamiento de sistemas de reconocimiento facial. En un primer momento, para Gaylor resultaba curiosa la manera en que sus fotografías habían circulado. Sin embargo, cuando se enteró de que probablemente habían sido usadas para entrenar los sistemas de reconocimiento facial que se usan en China para reprimir a la población uigur, su curiosidad se convirtió en horror.

El otrora popular sitio de internet Flickr ha sido comprado y vendido en múltiples ocasiones. Actualmente, pertenece a SmugMug, servicio que permite compartir imágenes y videos en línea y facilita la venta de medios digitales e impresos para fotógrafos aficionados y profesionales. Al subir fotografías a Flickr, las y los usuarios aceptaban la licencia Creative Commons, que es el permiso para que el material visual pueda ser usado por terceras personas con ciertas restricciones.

Años atrás, la forma de operar de las y los investigadores de inteligencia artificial consistía en utilizar material visual que se encontraba en redes sociales u otras plataformas de acceso libre, “incluso de las cámaras instaladas en dormitorios universitarios”. Tal es el caso de MegaFace, una base de datos con fotografías creada por investigadores de la Universidad de Washington, que se usa para el entrenamiento de sistemas comerciales de reconocimiento facial a gran escala. Muchas de las fotografías incluidas en esta base de datos fueron utilizadas sin el consentimiento de las personas que aparecen en él. Su número de descargas fue muy grande (Ver dato crucial 1).

Tras la polémica del uso comercial y no académico –como era el objetivo inicial– de la base datos, Víctor Balta, portavoz de la Universidad de Washington declaró que “MegaFace fue retirado y sus datos ya no se distribuyen”. Pese a ello, “las copias de esos archivos pueden estar en cualquier lugar y es probable que alimenten nuevas investigaciones”.

Debido a la preocupación de que la herramienta pudiera ser utilizada por acosadores, empresas o Estados nacionales, Adam Harvey, investigador y artista en Berlín y O'Sullivan desarrollaron Exposing.AI, herramienta que permite saber si tus fotos han sido utilizadas con otros fines de los que has aceptado. Dicen que solo es posible buscar fotos publicadas en Flickr y para garantizar la privacidad de las personas sólo se puede consultar a través de “un nombre de usuario, una etiqueta o una dirección de Internet”.

Para Gaylor, el uso de sus fotografías para entrenar sistemas de reconocimiento facial resulta alarmante, pues “alguna vez creyó que el libre flujo de información en Internet era algo positivo”; ahora piensa lo contrario.

La esperanza de Gaylor, O´Sullivan y Harvey es que las empresas y los gobiernos adopten medidas que garanticen la seguridad de las y los usuarios rechazando la recopilación de sus datos personales. Y están convencidos de que es necesario y urgente que el desarrollo de tecnologías que puedan ocasionar algún daño se detenga.

Datos cruciales: 

1. Según el New York Times, MegaFace se ha descargado más de 6 000 veces por empresas y agencias gubernamentales de todo el mundo, entre las que se encontraban Northrop Grumman, empresa estadounidense de tecnología aeroespacial y de defensa global; In-Q-Tel, el brazo de inversión de la Agencia Central de Inteligencia; ByteDance, empresa de tecnología y propietaria de TikTok y Megvii, empresa de vigilancia china.

Nexo con el tema que estudiamos: 

El estudio de la inteligencia artificial es importante, pues ésta responde a lógicas y modelos que en su mayoría ocultan o niegan a cierto sector de la población al servir cada vez más como una herramienta de vigilancia y control social. Resulta alarmante que se utilicen redes sociales y plataformas de datos personales con el objetivo de desarrollar y mejorar sistemas de reconocimiento facial, por lo que es necesario que los gobiernos adopten políticas públicas transparentes tanto en sus formas de operar como exigirlo a las empresas privadas con la finalidad de garantizar la seguridad de las y los usuarios.