We Teach A.I. Systems Everything, Including Our Biases

Cita: 

Metz, Cade [2019], "We Teach A.I. Systems Everything, Including Our Biases", The New York Times, New York, 11 de noviembre, https://www.nytimes.com/2019/11/11/technology/artificial-intelligence-bi...

Fuente: 
Otra
Fecha de publicación: 
Lunes, Noviembre 11, 2019
Tema: 
La inteligencia artificial reproduce sesgos sociales
Idea principal: 

Cade Metz es escritor y desde 2017 es corresponsal para el New York Times sobre temas relacionados con tecnología. Anteriormente trabajó para las revistas Wired y PC. Es licenciado en letras por la Universidad de Duke.


En el otoño de 2019, Google presentó una innovación tecnológica en inteligencia artificial llamada BERT que está cambiando la manera en que los científicos desarrollan los sistemas que aprenden de las formas en que la gente habla y escribe. Sin embargo, este sistema, que ya funciona en el buscador de la compañía, está reproduciendo sesgos sociales de la misma manera que un niño naturaliza y reproduce el mal comportamiento de sus padres.

Este y otros sistemas de inteligencia artificial, llamados “modelos de lenguaje universal”, aprenden de una gran cantidad de información digitalizada en forma de texto, que va desde entradas de Wikipedia hasta libros y artículos. Sin embargo, estos sistemas están asimilando y reproduciendo los sesgos y prejuicios sociales que se encuentran contenidos en estas bases de datos. De esta forma BERT y otros sistemas similares muestran, por ejemplo, una tendencia a asociar al género masculino con la programación informática sin dar el debido crédito a las mujeres. Mientras que otro de estos sistemas dedicado a los negocios desarrolló la tendencia a asociar como negativo todo lo que se ha escrito sobre Donald Trump, incluso el contenido halagüeño.

En la medida en que la inteligencia artificial se hace más compleja y se extiende por una amplia gama de servicios y productos, como software de negocios, publicidad en línea y asistentes digitales (como Siri de Apple o Alexa de Amazon), las compañías de tecnología se ven cada vez más presionadas para resolver estos sesgos. Sin embargo, los científicos están descubriendo cómo funciona esa tecnología y sus errores aún los sorprenden.

Recientemente, el científico computacional Robert Munro suministró 100 palabras al sistema BERT; en 99 de los casos, esta tecnología fue propensa a asociar estas palabras con hombres en lugar de con mujeres, siendo la excepción la palabra “madre”. De la misma forma, al examinar los servicios de computación en la nube de Google y Amazon Web Services que ayudan a otros negocios a mejorar sus habilidades de lenguaje, Munro encontró que los servicios de ambas compañías no pudieron asociar correctamente la palabra “hers” (el pronombre femenino en inglés) como un pronombre, mientras que si tuvieron éxito en asociar “his” (el pronombre masculino) como tal. La investigación de Munro arrojó que estos servicios desarrollaron sesgos de género y raza.

Ambas compañías han declarado que resolver estos sesgos es su prioridad y están trabajando en ello. Sin embargo, no es algo nuevo, pues los especialistas llevan un largo tiempo denunciando este tipo de sesgos en la inteligencia artificial que se alimenta de grandes cantidades de datos. Por ejemplo, en 2015 la aplicación Google Photos fue descubierta etiquetando a afroamericanos como “gorilas”.

Los modelos de lenguaje universal como BERT (Bidirectional Encoder Representations from Transformers), y otros como ELMO, ERNIE y GPT-2 (es un chiste interno de la industria llamarlos como los personajes del programa televisivo Plaza Sésamo), son sistemas tan complejos que se ha vuelto muy complicado predecir su comportamiento.

Estos sistemas funcionan aprendiendo matices del lenguaje al analizar grandes cantidades de texto provenientes de artículos de Wikipedia, libros digitales, además de una cantidad importante de novelas de romance y ciencia ficción, entre otros. Al analizar los textos, se les asignan tareas específicas a estos sistemas. Por ejemplo, un sistema desarrollado por OpenAI, un laboratorio de inteligencia artificial en San Francisco, aprendió a predecir la siguiente palabra en una oración. Mientras que BERT desarrolló la habilidad de resolver ejercicios en los que se le pedía encontrar una palabra faltante en una serie de oraciones. De esta forma, BERT aprendió de forma general la manera en que la gente construye oraciones, lo que le ha dado la posibilidad de aprender más tareas y mejorar la inteligencia artificial de una forma que no era posible previamente. Gracias a BERT ahora el buscador de Google comprende fácilmente preguntas complejas que antes no podía, ya que ahora comprende la manera en que se utilizan las palabras.

Sin embargo, estas herramientas están aprendiendo nuestros sesgos y, en la medida en que esta tecnología prolifere, estos pueden aparecer en todas partes. Algunos de estos sesgos son obvios pero otros no tanto. Muchos incluso creen que estas compañías tendrán que implementar auditorías sobre ese tipo de herramientas para encontrar estos sesgos y comportamientos inesperados, lo que podría significar el principio de una industria muy rentable.

Nexo con el tema que estudiamos: 

La inteligencia artificial y sus implicaciones sociales, económicas y culturales plantean una serie de problemas éticos. Mientras que, por un lado, esta tecnología, que constituye uno de los pilares del núcleo de vanguardia tecnológica del capitalismo, reproduce las ganancias y el poder de las compañías que la utilizan. Por otro lado, los sesgos y prejuicios sociales que esta tecnología reproduce, marginan a los mismos grupos de que siempre, por motivos de raza, género, edad o condición socioeconómica.

Más sobre la reproducción de sesgos por los sistemas de inteligencia artificial: http://let.iiec.unam.mx/node/2065.