Inteligencia artificial y cotorreo

Cita: 

Ribeiro, Silvia [2023], "Inteligencia artificial y cotorreo", La Jornada, 3 de junio, https://www.jornada.com.mx/2023/06/03/opinion/015a1eco

Fuente: 
Otra
Fecha de publicación: 
Sábado, Junio 3, 2023
Tema: 
Grandes tecnodigitales alertan sobre riesgos existenciales de la inteligencia artificial para evadir los problemas reales de esta tecnología
Idea principal: 

Silvia Ribeiro es la directora de la parte latinoamericana de Etc Group, una organización que monitorea el impacto de las tecnologías emergentes y las estrategias corporativas en la biodiversidad y la agricultura.

En marzo de 2023 Elon Musk y otros ejecutivos de grandes empresas tecnodigitales firmaron una declaración en la que pidieron una pausa de seis meses en el desarrollo de la inteligencia artificial (IA), pues consideran que esta tecnología representa una amenaza existencial para la humanidad. La cuestión es que el problema tal y como lo plantean no existe, y tampoco están interesados en crear una regulación que sea independiente de sus intereses económicos, ni les importa que se analice de forma crítica los impactos reales de los sistemas de inteligencia artificial que ya existen.

Uno de los objetivos de la declaración es entorpecer los avances de OpenAI, creadora de ChatGPT. Musk fue inversor en OpenAI, pero se retiró y ahora anunció su propia versión de un programa similar que, como es desarrollado por Musk ya no representa un riesgo existencial. Otra de las intenciones es desviar la atención de los graves impactos reales de estos sistemas, al señalar posibles riesgos en el futuro.

Emily Bender, coautora de una referencia citada en la declaración se deslindó de esta, y señaló que no existen sistemas de inteligencia artificial que puedan competir con la inteligencia humana, pero sí hay graves impactos. Dichos sistemas IA son programas que producen textos sintéticos aparentemente complejos de forma muy rápida; pero no comprenden los mensajes que producen. Estos sistemas se han llamado “loros estocásticos”, es decir, repetidores y mezcladores de texto incapaces de entender los resultados que arrojan.

Bender señala que no hay sistemas IA que compitan con los sistemas de lenguaje humanos, pues las máquinas no pueden comprender imaginarios sociales, valores, emociones, la diversidad cultural, ni los universos de significados colectivos de los múltiples idiomas existentes. Los grandes modelos de lenguaje, como el que usa ChatGPT, utilizan inmensas cantidades de datos mediante los cuales pueden predecir textos usando las palabras y el lenguaje que usualmente están asociados, incluso pueden mezclar los datos de forma aleatoria para que los textos producidos parezcan originales. La cuestión es que todo eso se basa en patrones y algoritmos específicos que fueron diseñados por personas.

Bender y otras autoras (2021) (dos de las cuales fueron despedidas por Google) explican que los grandes modelos de lenguaje reproducen los problemas y sesgos existentes. Es decir que estos programas son intrínsecamente discriminatorios, racistas, patriarcales, naturalizan las desigualdades, y, como la mayor parte de sus datos provienen del idioma inglés reproducen los sistemas de dominación basados en este idioma. De hecho, la discriminación racial está comprobada en diversos sistemas IA, tanto en los de lenguaje como en los de imágenes y de reconocimiento facial.

El mismo artículo señala que los sistemas IA tienen severos impactos medioambientales, pues el entrenamiento de estos requiere cantidades de energía masivas. Y, a pesar de que dichos sistemas son entrenados de forma cade vez más intensa, siguen requiriendo de trabajadores manuales de África y Asia, con salarios miserables, que se encargan de eliminar textos, frases e imágenes de violencia sexual y otras que los programas son incapaces de filtrar.

Datos cruciales: 

1.- Una de las fuentes en las que se basa Chat GPT es Wikipedia y Reedit. Pero en Wikipedia solo entre 9 y 15% de sus contribuyentes son mujeres, mientras que más de 70% son blancos; y en Reedit dos tercios son menores de 30 años.

2.- Una persona emite 5 toneladas de dióxido de carbono al año, mientras que entrenar sun sistema de inteligencia artificial en un solo tema produce por lo menos 284 toneladas de CO2. Además, en solo seis años se multiplicó por 300 000 la cantidad de cómputos usados para entrenar sistemas IA.

Trabajo de Fuentes: 

Bender, Emily et al. [2021], “On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?”, Association for Computing Machinery, New York, https://dl.acm.org/doi/10.1145/3442188.3445922

Nexo con el tema que estudiamos: 

Ribeiro se distancia de forma crítica de los riesgos sobre la inteligencia artificial que plantean los empresarios del mundo tecnodigital. Pero enuncia dimensiones que son cruciales, la inteligencia artificial reproduce los sistemas de dominación, y exacerba la destrucción del ambiente debido a la gran cantidad de recursos que demanda.