Can We Make Our Robots Less Biased Than We Are?

Cita: 

Berreby, David [2020], "Can We Make Our Robots Less Biased Than We Are?", The New York Times, New York, 22 de noviembre, https://www.nytimes.com/2020/11/22/science/artificial-intelligence-robot...

Fuente: 
Otra
Fecha de publicación: 
Domingo, Noviembre 22, 2020
Tema: 
Apuesta al desarrollo de tecnología robótica y reconocimiento facial sin sesgo social.
Idea principal: 

David Berreby es un escritor e investigador científico independiente. Colabora en medios como The New Yorker, Nature, The New York Times Magazine, Slate y The Huffington Post, entre otros.


El verano de 2016, Micah Xavier Johnson, se convirtió en la primera persona en Estados Unidos en ser asesinada por un robot policial, después de que oficiales de policía de Dallas colocaron una carga considerable de explosivos en el robot y la hicieron detonar. El asesinato fue respaldado por el entonces jefe de policía de Dallas, David Brown, quien declaró que antes de que el robot atacara, Johnson había matado ya a cinco agentes, herido a otros nueve y a dos civiles; por tanto, enviar a la máquina resultaba más seguro que enviar a un humano.

No obstante, el acontecimiento preocupó a investigadores de robótica, pues algunos de ellos consideran que los robots del "escuadrón de bombas" deben tener como objetivo final desechar los explosivos de manera segura, no denotarlas contra objetivos específicos. Al contrario de servir para evitar que personas mueran por explosivos, los robots policiales pueden convertirse en un arma letal.

Ayanna Howard y Jason Borenstein, ambos de la Universidad Tecnológica de Georgia, escribieron en la revista Science and Engineering Ethics un artículo llamado “La fea verdad de nosotros mismos y nuestras creaciones de robots” en donde rescataron el caso previamente mencionado e hicieron hincapié en que una pieza clave es que el hombre asesinado por el robot de Dallas era afroamericano.

La mayoría de los robots que se utilizan en asuntos policiales hoy en día son de control remoto. Sin embargo, en los laboratorios de investigación de todo el mundo se están desarrollando robots más sofisticados con inteligencia artificial. Esto último resulta preocupante para algunos investigadores ya que los algoritmos están sesgados contra las personas que no cumplen con la corporalidad hegemónica, es decir, cuerpos masculinos, blancos y sin discapacidades.

Si bien la muerte de Johnson fue una decisión humana, en el futuro la decisión de asesinar a una persona podría depender de un robot. La Dra. Howard, líder de la organización Black in Robotics y el Dr. Borestein expusieron su desconcierto hacia la posibilidad de que en algún momento los robots sean libres para decidir si quitar o no una vida y sobre las consecuencias de los algoritmos programados bajo prejuicios y sesgos.

El verano de 2019, investigadores de robótica e inteligencia artificial firmaron una serie de declaraciones en las que se comprometieron a cambiar la manera en que se programan los robots pues consideran que “las tecnologías que ayudamos a crear para beneficiar a la sociedad también están afectando a las comunidades negras a través de la proliferación de perfiles raciales”. Además, las y los firmantes se comprometieron a negarse a trabajar con o para agencias policiales o militares.

Por otro lado, hay cada vez más evidencias sobre que los sistemas de reconocimiento facial suelen ser más exactos en la identificación cuando se trata de imágenes de personas con tonos de piel más claros. En ese sentido, la investigadora afroestadounidense Joy Buolamwini, fundadora de Algorithmic Justice League, se ha encontrado con sistemas de reconocimiento facial que no son siquiera capaces de reconocerla o detectarla.

Una de las propuestas para eliminar los sesgos de estas tecnologías consiste en entrenarlas con imágenes de personas de mayor diversidad étnica, genérica, etc., no sólo con imágenes de hombres blancos, según Chris S. Crawford, profesor de la Universidad de Alabama quien también ha estado presente en el desarrollo de la tecnología sin lograr que ésta le reconociera.

Para muchas personas fue sorprendente que las y los especialistas en robótica -quienes suelen mantenerse ajenos al impacto social de las tecnologías que producen- se declararán responsables por generar injusticias y que se comprometieran a disminuirlas tanto en la creación como en el uso de los robots.

Odest Chadwicke Jenkins, robotista e investigador de la Universidad de Michigan dijo en una conferencia que es la primera vez que escucha a sus colegas hablar sobre racismo sistémico y que le resultaba alentador pues esperaba que ello resultara en acción y no sólo en discursos.

El documento producido por Black in Computing incluye la experiencia personal de las y los académicos negros del “racismo y prejuicio estructural e institucionalizado que es integrado en la sociedad, en las redes profesionales y en las comunidades de expertos e industrias”. En el documento también se exigen reformas que pongan fin al acoso de las y los estudiantes negros por parte de los agentes de seguridad de las universidades, así como la eliminación de los interrogatorios y comentarios prejuiciosos a los que la comunidad negra es sometida constantemente. El documento también aborda acciones específicas en las que se pide, entre otras cosas, que se apoye a las organizaciones que respaldan el trabajo de personas de color en la informática e inteligencia artificial.

Otro manifiesto reciente se tituló “Si no hay justicia, no hay robots” [No justice, no robots], en el cual las y los firmantes se comprometen a no colaborar en el desarrollo de tecnologías robóticas para las fuerzas policiales y militares, ya que son instituciones que abiertamente han mostrado comportamientos racistas y de brutalidad contras las comunidades.

“La pregunta es, ¿nosotros como especialistas en robótica, queremos facilitar que la policía haga lo que está haciendo ahora?” preguntó Tom Williams, robotista de Colorado después de narrar que ver con sus propios ojos la brutalidad policial fue un momento determinante para que decidiera redactar el manifiesto "No justice, no robots".

No obstante, algunas y algunos investigadores externaron su desacuerdo, pues consideran que los robots pueden brindar mayor seguridad tanto a la policía como a los civiles. Por ejemplo, Cindy Bethel, directora del Laboratorio de Sistemas Sociales, Terapéuticos y Robóticos de la Universidad Estatal de Misisipi considera que la postura del manifiesto "No justice, no robots" consistente en negarse a trabajar con las fuerzas policiales es "ingenua y mal informada". La Dra. Bethel está desarrollando un robot con cámaras de visión nocturna que permitirá identificar lo que hay en una habitación antes de entrar en ella. También pretende desarrollar una tecnología que permita a robots entrevistar a niñas y niños que han sido víctimas de abuso, agresión, tráfico o trauma.

“Tienes que entender el espacio del problema antes de poder hablar sobre robótica y trabajo policial. Se están haciendo generalizaciones sin mucha información” concluyó la Dra. Bethel. Por su parte, el Dr. Crawford quien, si firmó ambos manifiestos, dijo que para él resulta importante asegurarse de que lo que apoya realmente funcione. El Dr. Jenkins no firmó el manifiesto "No justice...", pues considera que lo más importante es que haya representación de las minorías en la toma de decisiones. Por su parte, la Dra. Howard reiteró que “los algoritmos sesgados son el resultado de la demografía sesgada de quienes diseñan y prueban el software”.

Nexo con el tema que estudiamos: 

El estudio de las tecnologías robóticas, así como de la inteligencia artificial resulta importante pues va más allá de un desarrollo científico y tiene una carga política y por supuesto social. Es importante conocer quiénes son los agentes que invierten y desarrollan dichas tecnologías, pues de ello dependerá su uso y la metodología a aplicar. Por otro lado, es necesario tomar en cuenta la diversidad de personas que hay en el mundo, así como los diversos contextos que existen para desarrollar una tecnología inclusiva.