Why Do A.I. Chatbots Tell Lies and Act Weird? Look in the Mirror

Cita: 

Metz, Cade [2023], "Why Do A.I. Chatbots Tell Lies and Act Weird? Look in the Mirror", The New York Times, New York, 26 de febrero, https://www.nytimes.com/2023/02/26/technology/ai-chatbot-information-tru...

Fuente: 
Otra
Fecha de publicación: 
Domingo, Febrero 26, 2023
Tema: 
La inteligencia artificial y su extraño comportamiento
Idea principal: 

Cade Metz ha pasado gran parte de su carrera escribiendo sobre inteligencia artificial.


Desde el momento en el que Microsoft decidió sacar su nuevo chatbot en el buscador, la gente comenzó a notar las fallas que éste presentaba; al principio solo daba información falsa sobre ciertos temas, con el paso del tiempo y su uso continuo, empezó a presentar comportamientos agresivos y groseros.

A pesar de todos los avances aún hay un área gris en cuanto a lo que es capaz un chatbot. Incluso se han vuelto más difícil predecir, aunque siga siendo un sistema operativo al que se le programa la obtención de información y una fuente basta de donde obtenerla, un chatbot es capaz de deducir la intención de la persona solicitante, el mismo Terry Sejnowki, responsable de la parte intelectual del sistema, desconoce de dónde surgió el extraño comportamiento, aunque tiene su hipótesis.

Google también se une a la conversación con el lanzamiento del chatbot, Brad; sin embargo, también presenta fallas en cuanto a la obtención de información falsa.

Open A.I. comenzó el auge de los chatbots con el lanzamiento de ChatGPT y aunque se lleve su tiempo tratando de que tenga la menor cantidad de información falsa y agudeza en la interfaz, la realidad es que su tecnología se basa en el large language model, LLM, que consiste en el procesamiento de todo el texto existente en internet, sin importar su tema, extensión, lenguaje e incluso si son falsos, sesgados y/o tóxicos. Esta información debe ser filtrada y analizada por el mismo sistema, mientras mejora su habilidad para autocompletar e incluso conversar.

El doctor Sejnowski, como neurocientífico y psicólogo ha aplicado sus conocimientos en la programación de la interfaz, haciendo que el chatbot sea capaz de “enojarse” y puede comportarse de manera agresiva; sin embargo, no hay que perder de vista que no posee personalidad, el comportamiento que presentó fue solo una señal en el detalle que hay que mejorar.

Microsoft, Open A.I. y Google están trabajando en el control del comportamiento de sus chatbots; aunque, no está clara la forma en la que los sistemas están procesando la información, se les está haciendo modificaciones y poniendo límites a la vez que se comete un error, pero aún no se tiene la capacidad de predecir el comportamiento y prevenir errores.

El modelo de lenguaje LLM, large language model, es un espejo de Oesed [1] de nuestra realidad, al alimentarse de la interacción conversacional humana simplemente refleja lo más arraigado en la sociedad. Es por eso que no es de sorprenderse que con el uso, el chatbot comenzará a presentar comportamiento al que se refieren como espeluznante.

Es por eso que están conscientes de que la única dirección del progreso es dejar que el chatbot interactúe con el público.

El doctor Sejnowski es uno de los pioneros en la implementación de redes neuronales en la inteligencia artificial, a principios de 1980. Es la tecnología que se encuentra actualmente detrás de estos sistemas.
En 2018 se comenzó a implementar el LLM, empezaron a tener la capacidad de generar sus propios textos, publicaciones y blogs, llevar a cabo una conversación, todo como resultado del reflejo de la humanidad.

Cuando este tipo de sistemas redacta sus propios textos, usa la información recaudada en internet, no transcribe, genera oraciones lógicas a partir de ideas relacionadas. De mil millones de combinaciones genera patrones lógicos y conforme analiza los textos encontrados mejora su capacidad de relación lógica. Las oraciones tienen sentido lógico, pero no las hace verdaderas; de manera que, si llega a hacer uso de información falsa hallada en internet, terminará reproduciéndola.

Es un arma de doble filo, puede que haga mejores trabajos de redacción, pero aún no es capaz de filtrar la falsedad, qué tanto, mejorará la eficiencia humana en estos campos, y qué tanto se deteriorará.

NOTAS

[1] El Espejo de Oesed es un espejo ficticio mencionado en la saga escrita por J. K. Rowling, Harry Potter; el cual, de acuerdo con Albus Dumbledore, muestra los "más profundos y más desesperados deseos de nuestro corazón".

Nexo con el tema que estudiamos: 

La sociedad está cambiando gracias a esta tecnología, el capitalismo está enfocado única y exclusivamente en los beneficios que estos traerán, su efectiva comercialización, sin importar las implicaciones sociales que resulten.