You Are Now Remotely Controlled

Cita: 

Zuboff, Shoshana [2020], "You Are Now Remotely Controlled", The New York Times, New York, 24 de enero, https://www.nytimes.com/2020/01/24/opinion/sunday/surveillance-capitalis...

Fuente: 
Otra
Fecha de publicación: 
Viernes, Enero 24, 2020
Tema: 
La desigualdad epistémica generada por lógica económica del capitalismo de vigilancia y la necesidad de una legislación sobre derechos epistémicos
Idea principal: 

Shoshana Zuboff es profesora emérita en la Escuela de Negocios de Harvard y autora del libro The Age of Surveillance Capitalism. Cursó estudios de licenciatura en filosofía por la Universidad de Chicago y un doctorado en psicología social por la Universidad de Harvard. Sus temas son: la revolución digital, la evolución del capitalismo, la emergencia psicológica de la individualidad y las condiciones del desarrollo humano.


En 1997, la principal institución de protección al consumidor en Estados Unidos, la Comisión Federal de Comercio, debatió la posibilidad de regular la privacidad en internet. Muchos consideraban, ya entonces, que las capacidades de las compañías de internet para acopiar información de los usuarios representaba una amenaza a la libertad individual. Por su parte, los directores de la industria tecnológica alegaban que una regulación en ese sentido sería costosa y contraproducente. A pesar de todo, el tema de la privacidad en internet nunca fue regulado. Desde entonces, y como resultado de la victoria de las grandes compañías de la industria, se ha impuesto a través del mundo digital una nueva lógica económica que la autora ha llamado “capitalismo de vigilancia”, cuyo éxito ha dependido de mantener nuestra ignorancia, a través de eufemismos y mentiras, mientras somos observados sin saberlo a través de nuestras pantallas por los dueños de los antes libres espacios del internet.

Durante los 23 años que han pasado desde el debate de la Comisión Federal del Comercio sobre privacidad en internet, esta nueva lógica ha pasado prácticamente indiscutida. Si bien, los usuarios se apresuraron a aceptar el nuevo mundo digital, celebrando sus servicios gratuitos, ahora, desilusionados, ven cómo se han convertido en la materia prima gratuita para estas compañías. Según la autora, si antes se pensó que se buscaba información en Google, ahora sabemos que es Google es quien nos busca, y entendemos que las cláusulas de privacidad son, en realidad, cláusulas de vigilancia. Entre todas ilusiones que nos llevaron a aceptar el nuevo mundo digital, la más nociva de todas fue la creencia de que la privacidad es privada. Durante años se ha hecho creer a los usuarios que pueden decidir el grado de privacidad que quieren mantener y, por medio de un cálculo individual, decidir qué información personal intercambiar a cambio de valiosos servicios digitales. Pero con el rumbo que han tomado la industrias como la del reconocimiento facial, ahora comenzamos a entender que la privacidad no un asunto privado.

Para la autora, mientras este siglo digital debería haber sido la época dorada de la democracia, entramos en su tercera década marcados por una nueva forma de desigualdad: la “desigualdad epistémica”, es decir, una asimetría extrema en el conocimiento y el poder que este confiere. Las grandes empresas tecnológicas han tomado el control de la información y del aprendizaje mismo. El engaño de la “privacidad privada” fue concebido para alimentar esta división social. Los capitalistas de la vigilancia explotan esta desigualdad en pos del lucro, manipulando la economía, la sociedad e incluso nuestras vidas con impunidad. Engañados por estas ilusiones ahora se comienza a entender que no es solo la privacidad individual la que está en peligro, advierte la autora, sino la democracia misma. La privacidad es un asunto público: es un bien colectivo que es inseparable, lógica y moralmente, de la autonomía y la autodeterminación de los que depende la privacidad y sin los cuales una sociedad democrática es inimaginable.

Sin embargo, a pesar del oscuro panorama, las cosas empiezan a cambiar. La gente ha comenzado a tomar conciencia sobre este problema. Por su parte, los capitalistas de la vigilancia se apresuran para evitar el consentimiento de los usuarios y el debate genuino, pues dependen de la parálisis de los usuarios. Aunque de forma lenta, pues su lentitud refleja las millones de conversaciones que ocurren en todos los niveles, la democracia comienza a manifestarse y gradualmente empieza a conducir a la acción. Muchos legisladores comienzan a mostrarse listos para unirse y conducir esta nueva conciencia. Esta tercera década será decisiva en nuestro futuro digital, para bien o para mal.

Esta desigualdad epistémica, señala Zuboff, se ha impuesto por mecanismos comerciales y privados de captura de información, producción, análisis y ventas. El mejor ejemplo de esta nueva desigualdad es la abismal diferencia entre lo que sabemos y lo que se sabe de nosotros. Mientras que la sociedad en el siglo veinte industrial estuvo signada por la “división del trabajo” y la lucha por la igualdad económica, nuestro siglo digital está signado por la “división del conocimiento” y la lucha por el acceso a este y al poder que le es inherente; esta lucha determinará la política de nuestro tiempo. La nueva centralidad de la desigualdad epistémica, significa el cambio del poder, de la propiedad de los medios de producción que definió la política del siglo XX, a la propiedad de la producción de sentido. Los retos de justicia epistémica y derechos epistémicos que enfrentamos se resumen en las preguntas: ¿Quién conoce? ¿Quién decide quién conoce? y ¿Quién decide quién decide quién conoce?

Durante las últimas dos décadas, la vanguardia del capitalismo de vigilancia (Google, Facebook, Amazon y Microsoft) han conducido esta transformación social asegurando su lugar en lo alto de la pirámide epistémica. El capitalismo de la vigilancia comienza con la apropiación por parte de estas compañías de las experiencias humanas privadas, reclamadas por ellas como materia prima, que es traducida por estas compañías a datos conductuales. Desde que las compañías a la vanguardia de esta nueva lógica económica entendieron que estos datos, más allá de la mejora del servicio, albergan muchos indicios útiles a la predicción del comportamiento de los usuarios, se han dedicado a cazar y recopilar todo tipo de experiencias humanas privadas para transformarlas en información. Por ejemplo, detalles como los signos de exclamación que usamos o la saturación de color de nuestras fotos; la forma en que caminamos; los estados emocionales que transmitimos en nuestras micro expresiones faciales, etc.

Primero, este excedente de información es secretamente recopilado por estas compañías y reclamado como de su propiedad. Nuestra vida es entonces transformada en flujos de información. A continuación, estos flujos datos son transmitidos por complejas cadenas de suministro de dispositivos, software de seguimiento, ecosistemas de aplicaciones y empresas especializadas, a fábricas computacionales de inteligencia artificial, donde son transformados en predicciones del comportamiento de los usuarios, pero no para el uso de estos. Estas predicciones son luego vendidas a clientes corporativos en un nuevo tipo de mercado donde lo que se comercia es el futuro de las personas, y donde el elemento central es la efectividad de estas predicciones; esto está dando origen a algunas de las compañías más poderosas de la historia.

De forma estratégica, el capitalismo de vigilancia ha logrado establecer su dominio sobre prácticamente toda la información en formato de digital, gracias a que han sido estas mismas compañías las que han construido casi todas las redes informáticas, los centros de datos, servidores, los cables de transmisión submarinos, los microchips más avanzados y la inteligencia artificial de vanguardia. De la misma forma, han desatado una carrera por controlar el mercado laboral en distintos campos críticos, como la ciencia de datos y la investigación animal, donde otros concurrentes (como universidades, pequeñas compañías, gobiernos y países periféricos) no han podido competir con estos gigantes, que han desatado una carrera por la cooptación de los cerca de diez mil especialistas que a nivel global pueden transformar en conocimiento estas gigantescas base de datos. En algunos lugares se habla incluso de “una generación perdida” de científicos de datos, pues el poder, el expertise y los datos están concentrados en unas cuantas empresas.

En un principio fue Google quien primero creó el altamente lucrativo “mercado de futuros humanos” que conocemos como publicidad dirigida. Del año 2000, cuando esta lógica comercial comenzaba emerger, al 2004, cuando la compañía la hizo pública, sus ingresos aumentaron 3,590%. Este “dividendo de vigilancia” fue una señal para los inversores que rápidamente cambiaron el modelo de negocios de muchas nuevas empresas, aplicaciones, y compañías ya establecidas, hacia la nueva lógica económica del capitalismo de vigilancia. La promesa de un lucro fácil y rápido condujo este cambio de modelo, primero en Facebook, luego en toda la industria tecnológica y ahora en el conjunto de la economía, desde las pólizas de seguros, la industria inmobiliaria, el entretenimiento y el internet de las cosas.

Rápidamente, los principios económicos del capitalismo de vigilancia se refinaron en la competencia por vender certeza. Los mejores algoritmos no solo requieren grandes cantidades de datos para hacer predicciones, sino también una gran variedad de datos. Esta necesidad de distintos tipos de datos alimentó la revolución de los teléfonos celulares, que fueron equipados con cámaras, giroscopios para medir la orientación y la velocidad angular, localizadores y micrófonos, pues en su carrera por conseguir una variedad de datos más amplia, los capitalistas de la vigilancia necesitaban entrar a la vida privada de los usuarios, a sus hogares y sus relaciones, sus historial médico, sus trayectos, sus dietas, etc. Nada es demasiado.

De esta forma, alimentada por el lucro, la desigualdad epistémica ha aumentado la distancia entre lo que podemos hacer y lo que pueden hacer con nosotros. El cambio fundamental fue el paso del monitoreo de los usuarios a la “acción” sobre ellos a partir que las grandes empresas del capitalismo de vigilancia descubrieron que la efectividad de las predicciones aumenta cuando se interviene activamente en el usuario para ajustar y modificar su conducta, transformando a los usuarios en objetivos de control remoto con objetivos comerciales. Estas “economías de acción”, como las llama la autora, han desarrollado un poder instrumental que a través del medio digital manipula a los usuarios sirviéndose de señales subliminales y mensajes psicológicamente dirigidos para imponer arquitecturas de elección determinadas previamente y la modificación del comportamiento humano, al tiempo que mantienen a los usuarios en la ignorancia de las técnicas de manipulación de las que están siendo objeto.

La autora rastrea el origen del paso del conocimiento predictivo al poder instrumental en los experimentos de contagio que realizó Facebook, en 2012 y 2014, cuando, primero, se insertaron señales subliminales para manipular las elecciones intermedias en los Estados Unidos, y, después, se intervino para modificar el estado de ánimo de los usuarios. Los investigadores de Facebook celebraron el éxito de estos experimentos, y resaltaron dos hallazgos importantes: en primer lugar, que era posible la manipulación remota de los sentimientos y la conducta de los usuarios en el mundo real; en segundo lugar, que esto se pudo conseguir sin el conocimiento de los usuarios. Unos años después se probó este tipo de “economía de acción” en las calles, cuando en 2016 se lanzó el juego de realidad aumentada Pokémon Go, desarrollado por Google. Los jugadores de este juego no fueron advertidos de que, en realidad, estaban siendo dirigidos hacia distintos negocios como McDonald’s, Starbucks, y otros locales que habían pagado a los desarrolladores para atraerlos.

También, aunque la compañía lo ha negado, en 2017 un documento filtrado por un diario australiano reveló que Facebook aplicó acciones psicológicas, con señales subliminales y publicidad dirigida, durante los momentos de vulnerabilidad emocional de 6.4 millones de usuarios en Oceanía con el objetivo de garantizarles ventas a sus clientes corporativos. El caso, dice la autora, nos habla de la falta de transparencia corporativa y de la falta de supervisión pública con la que se manejan estas compañías. Ellos saben, ellos deciden quién sabe y deciden quién decide.

Por otro lado, otro documento confidencial filtrado en 2018 reveló las capacidades de las fábricas computacionales de Facebook, donde un “motor de predicción” se ejecuta sobre una plataforma de inteligencia artificial que procesa billones de datos al día y entrena cientos de miles de modelos que luego implementa en la flota de servidores para predicciones en tiempo real. Facebook señala que su servicio de predicción produce más de 6 millones de predicciones por segundo para uso de sus clientes corporativos con procedimientos que vinculan la predicción, la publicidad dirigida, la intervención y la modificación del conocimiento. Uno de los servicios que Facebook ofrece a sus clientes, por ejemplo, es la “predicción de lealtad” que sondea la información de los usuarios y predice las personas que están “en riesgo” de cambiar su lealtad a cierta firma o marca, alertando a los anunciantes para que intervengan con mensajes específicos diseñados para conservar la fidelidad de los usuarios oportunamente.

Recientemente, otra revelación demostró cómo esta desigualdad epistémica es incompatible con la democracia. Un ex empleado de una consultora política llamada Cambridge Analytica hizo de conocimiento público como esta consultora extrajo millones de perfiles de usuarios de Facebook para construir modelos de personalidad con los que explotó las tendencias psicológicas de estos en favor de objetivos políticos para sus clientes. Esta consultora utilizaba la estrategias de modificación de conducta dirigida aprovechándose de la falta de transparencia con la que esta lógica económica se ha construido sin el conocimiento de los usuarios para determinar elecciones alrededor del mundo. Esta lógica económica llamada capitalismo de vigilancia amenaza con destruir la democracia y reconstruir nuestra sociedad, minando la agencia y la autonomía de la gente mediante la usurpación de su privacidad.

Desde las sombras, estos capitalistas tienen el poder de saber todo de nosotros mientras nosotros no podemos conocer nada de lo que hacen. El conocimiento que generan con nuestros datos no es para nuestro beneficio, sino para generar grandes ganancias a unos cuantos. El capitalismo de vigilancia ha convertido la desigualdad epistémica en una característica de nuestra sociedades, normalizando la guerra de información en nuestra vida diaria. Las compañías que sostienen esta guerra se han adueñado del conocimiento, las tecnología, la ciencia y los científicos, los secretos y las mentiras, dejando a los usuarios con pocos medios para defenderse de estos invasores de la privacidad.

Aunque esta realidad era completamente evitable, los legisladores han sido reacios a afrontar estos desafíos por muchas razones. Por un lado, el efecto de los ataques terroristas del 11 de septiembre de 2001 cambiaron las prioridades de la protección de datos y llevaron al gobierno estadounidense a aprovechar las capacidades de vigilancia que ofrece el mundo digital. Por otro lado, el capitalismo de vigilancia se ha servido del cabildeo y la propaganda para minar e intimidar a los legisladores que han buscado regular la privacidad digital. Los representantes de estas compañías han señalado que la regulación podría detener la innovación en la industria. Sin embargo, la innovación que producen estas empresas no está dedicada a enfrentar los problemas urgentes que vive la sociedad; en realidad, la innovación que producen estas compañías sólo persigue el lucro y va en detrimento de los derechos de los usuarios y en contra de la democracia.

En ese sentido, es fundamental que cualquier regulación parta de la comprensión de las características particulares de lo que se quiere regular. Aunque las leyes antimonopolio son aquí fundamentales, ninguna de ellas podrá revertir la desigualdad epistémica. Se necesita una ley de derechos epistémicos, que interrumpa las cadenas de suministros de datos, protegiendo las experiencias humanas privadas de su "datificación" no autorizada. Afortunadamente esta discusión sobre derechos epistémicos ya ha comenzado. El mercado de “futuros humanos”, puede ser prohibido de la manera en que se logró ilegalizar el tráfico de esclavos o de órganos humanos por ser moralmente reprobables, eliminando con ello los incentivos que sostienen el capitalismo de vigilancia. En este camino, los legisladores deberán apoyarse en la acción colectiva de los ciudadanos preocupados por el poder del capitalismo de vigilancia y los trabajadores precarizados de esta industria. Aunque los capitalistas de la vigilancia son poderosos, no son invulnerables. Su debilidad es el miedo que les producen los legisladores que no les temen y los ciudadanos que exigen un cambio en la dirección que ha tomado el presente y que quieren llevar la batuta del mundo digital y recuperar la soberanía sobre su futuro.

Datos cruciales: 

The Wall Street Journal ha reportado que Facebook recibe, sin el conocimiento de los usuarios, los datos de frecuencia cardiaca de los usuarios de la aplicación Instant Heart Rate: HR Monitor, los datos del ciclo menstrual de las usuarias de Flo Period & Ovulation Tracker y los datos sobre inversiones inmobiliarias de los usuarios de Realator.com.

Nexo con el tema que estudiamos: 

En el artículo Zuboff señala la forma en que la nueva lógica económica surgió con las nuevas tecnologías digitales y la manera en que ha comenzado a filtrarse al resto de la economía, reordenando el mundo y amenazando la autonomía indispensable para cualquier democracia. En la genesis de esta lógica, y a la vanguardia de su desarrollo, están unas cuantas compañías oligopólicas de tecnología que han abierto un espacio de valorización sin precedentes.