Ethics and autonomous vehicles. Whom should self-driving cars protect in an accident? Women and children first. Dogs before criminals

Cita: 

The Economist [2018], "Ethics and autonomous vehicles. Whom should self-driving cars protect in an accident? Women and children first. Dogs before criminals", The Economist, London, 27 de octubre, https://www.economist.com/node/21752954

Fuente: 
The Economist
Fecha de publicación: 
2018
Tema: 
La polémica de a quien deben proteger, los autos que se conducen por si mismos
Idea principal: 

Actualmente existe una polémica en cuanto a los "vehículos autónomos" (automóviles que se conducen por sí mismos), en relación con la toma de decisiones éticas donde estén en juego las vidas de los involucrados en un incidente vial. Después de todo, los humanos son los que programan y dan instrucciones éticas de algún tipo a un vehículo autónomo.

En un artículo publicado en Nature, cuyo autor principal es Edmon Awad del Instituto Tecnológico de Massachusetts (MIT), los investigadores decidieron preguntarle al público en general sobre sus preferencias éticas en caso de un accidente en el que esté involucrado un vehículo autónomo a través de un sitio web -la “Máquina Moral”- donde se ofrece a los visitantes una serie de elecciones sobre a quién salvar y a quién matar en una situación de riesgo. La página web esperaba obtener resultados de la mayor cantidad de personas del mundo y fue un verdadero éxito; obtuvo cerca de 40 millones de decisiones de personas provenientes de 233 países o territorios.

Los resultados, arrojaron las preferencias más fuertes, de salvar vidas humanas sobre animales, eligiendo salvar a muchos en lugar de pocos, y priorizando a los niños por encima de los viejos, “hubo preferencias más débiles para salvar a las mujeres sobre los hombres, a los peatones sobre los pasajeros en el automóvil y para tomar medidas en lugar de no hacer nada”; a los criminales se les prefirió salvar por debajo de los perros y por encima de los gatos.

Los investigadores descubrieron que el mundo está dividido en 3 grandes grupos. Por un lado están los “occidentales”, que abarcan América del Norte y los países culturalmente cristianos de Europa; los “orientales” que incluyen Oriente Medio, India y China; y por último los “meridionales”, que son América Latina y muchas de las posesiones coloniales de Francia. “Los países en el grupo oriental, por ejemplo, mostraron preferencias más débiles por salvar a los jóvenes sobre los ancianos, mientras que la preferencia por los humanos sobre los animales fue menos pronunciada en las naciones del sur”. Parece que los vehículos autónomos pueden necesitar software diferenciados con nuevas moralidades cuando cruzan las fronteras nacionales.

El objetivo del estudio no es que los resultados sean tomados en cuenta por parte de los fabricantes de automóviles o por el gobierno. La intención es poner a discusión un tema que nadie había investigado. Actualmente Alemania es un único país que ha propuesto reglas éticas para los autos que se conducen por sí mismos. Es cierto que las hipótesis que se plantean en la página web son poco probables de que sucedan, pero también es cierto que del tipo de elecciones que hagan las empresas productoras de estos automóviles afectarán a quién vive y quién muere en los incidentes que involucren a los vehículos autónomos.

Datos cruciales: 

1.- Se reunieron cerca de 40 millones de decisiones tomadas por personas de 233 países, territorios o estados del estudio "Maquina moral".

La preferencia de los conductores, la probabilidad comparada con el promedio de adultos en porcentaje

2.- Se prefirió a una persona en coche un 16%

3.- Se prefirió a una mujer 15%

4.- Se prefirió a un hombre 14%

5.- Se prefirió a una mujer embarazada 13%

6.- Se prefirió a un doctor 5%

7.- Se prefirió a una doctora 5%

8.- Se prefirió a una mujer atleta 2%

9.- Se prefirió a una mujer ejecutiva 1%

10.- Se prefirió a un hombre atleta 1%

11.- Se prefirió a un hombre ejecutivo 0.5%

12.- Se prefirió a una mujer gorda -1%

13.- Se prefirió a un hombre gordo -2%

14.- Se prefirió a una persona sin hogar -3%

15.- Se prefirió a un hombre viejo -4%

16.- Se prefirió a una mujer vieja -5%

17.- Se prefirió a un perro -12%

18.- Se prefirió a un criminal -14%

19.- Se prefirió a un gato -16%

Nexo con el tema que estudiamos: 

Los automóviles que se conducen por sí mismos, es una tecnología que esta creando nuevas preguntas acerca de la conducción adecuada de los mismos. Estamos frente a las relaciones que las empresas tienen con la sociedad de manera que las decisiones que tomen, afectarán a la población de manera directa o indirecta.

Las tecnologías como los vehículos autónomos actúan en función de los algoritmos con que fueron diseñados y se alimentan con datos que, aunque parezcan neutrales, pueden no serlo. Por esta razón, estas tecnologías son propensas a reproducir los sesgos del programador o de los datos con que se alimentan. Es necesario que se generen acuerdos sobre el uso de estas nuevas tecnologías antes que su uso se generalice, de tal forma que eviten reproducir sesgos racistas, sexistas o de otro tipo. Más sobre los sesgos en los que incurren las tecnologías con inteligencia artificial en: http://let.iiec.unam.mx/node/2065.