La IA no es Inteligente ni Artificial
En nuestras entradas anteriores, pensábamos en los asedios del Capitalismo de la Vigilancia sobre la autonomía individual (Zuboff) y en la danza histórica entre poder y saber para controlar la producción de subjetividad (Foucault/Deleuze). Ahora vamos a poner el foco en el instrumento con el que se ejerce ese control en nuestros días: la Inteligencia Artificial.
La académica australiana Kate Crawford (2022) desafía los discursos dominantes: la IA no es un ente neutral e incorpóreo. Es, por el contrario, una estructura política y material que depende de recursos naturales, mano de obra humana precarizada y una historia entrelazada con el brazo militar.
Desde la década del 50 en el siglo pasado, los discursos y prácticas que rodean los desarrollos de la IA parten de dos mitos fundacionales. El primero supone que la inteligencia humana es algo que se puede emular -e incluso superar- de manera aislada del contexto en el que se produce y reproduce, desestimando de plano que aprendemos de y con otros y que tenemos que tener garantizados varios aspectos materiales y simbólicos para alcanzar el pleno desarrollo de nuestras facultades. El segundo sostiene que con el entrenamiento adecuado, cualquier sistema o ente no humano puede desarrollar una inteligencia similar a la humana. Esas fueron las bases. Por supuesto, si aceptamos estos mitos y asumimos que efectivamente se desarrolló una inteligencia desencarnada y apolítica, será fácil ignorar los enormes costos sociales y ambientales que sostienen todo el aparato digital. Pero en este caso vamos a escrudiñar un poco debajo de lo aparente, para descubrir que la IA es en realidad un dispositivo de poder que opera en un mapa de tensiones geopolíticas y extractivas.
1. El Mito de la “verdad base” y el riesgo del sesgo
Además de los dos mitos fundacionales, el desarrollo de la IA ha estado plagado de discursos que afirmaban que los sistemas de inteligencia no humana serían superiores a la inteligencia humana. Basados en una lógica incremental que supone que a mayor cantidad de datos procesados, mejores serán los resultados, fundaron una industria que denosta y simplifica las cualidades humanas buscando una verdad superior proveniente de sistemas autónomos. Y desde luego que las máquinas pueden procesar en menor tiempo mayor cantidad de datos, pero definitivamente cantidad no es sinónimo de calidad. Sin embargo, esta visión permite que la IA se entrene con bases de datos simplificadas y sesgadas.
El modelo de aprendizaje con el que se dispusieron crear una inteligencia como esta, es el de Machine Learning. Este modelo precisa que los ingenieros y entrenadores suministren datos previamente etiquetados para que, entre algoritmo de clasificación y algoritmo de reconocimiento, puedan hacer predicciones. El modelo que arroje los mejores resultados es considerado como verdad base, y con el se entrenan nuevos modelos. Pero, ¿qué sucede si las etiquetas son defectuosas?
- El problema de la clasificación: Cuando en el entrenamiento se utilizan datos con sesgos (género, raza, clase social), la lógica se hereda. Las predicciones resultantes contendrán los mismos sesgos. Y en el peor de los escenarios de entrenamiento, la clasificación puede ser una deliberada clasificación para jerarquizar elementos.
- La cuestión ética: Resulta evidente que esto se vuelve crítico cuando se utiliza para clasificar personas. En la actualidad los bancos de datos para entrenar sistemas de IA en el reconocimiento facial incluyen fotos de prontuarios policiales, de redes sociales, y hasta de sistemas de vigilancia ciudadana. Las etiquetas con las que se clasifican esas imágenes-datos son escandalosas (Carwford en sus investigaciones detectó algunas; loco/a, borracho/a, puto/a). Desde luego las personas en esas fotos que utilizan para alcanzar la mayor precisión algorítmica, no tienen conocimiento, voz ni voto sobre cómo se utilizan sus imágenes.
Está claro que la IA no descubre ninguna verdad fáctica, sino que construye su propia verdad a partir de un revoltijo de imágenes extraídas de internet y etiquetadas por trabajadores humanos precarizados. Si estas etiquetas contienen prejuicios o categorías ofensivas (como sucedió en bases de datos fundacionales como ImageNet), la IA se convierte en una maquinaria epistémica que refuerza, magnifica y legitima la desigualdad social.
2. El Atlas Material: la estructura extractiva de la IA
La IA no flota en la nube; está anclada a la tierra y depende de una infraestructura corpórea que Crawford denomina la Mina Planetaria y el Trabajo Invisible.
La Mina Planetaria: violencia geopolítica y costo ambiental
Todo el aparato digital simplemente no funciona sin minerales de tierras raras (litio, cobalto, etc.), electricidad, agua y un sinnúmero de recursos naturales. La IA impulsa el extractivismo tradicional en todo el globo, y en lugares que nos interesan particularmente como el Salar boliviano-chileno-argentino.
- El costo oculto: La extracción de estos recursos está ligada a la violencia geopolítica, las guerras y el deterioro ambiental (como el caso emblemático del “lago muerto” de Baotou en China, contaminado por el ácido sulfúrico usado para procesar los minerales).
- Sin responsabilidad: Las cadenas de suministro de recursos son tan complejas (miles de proveedores en cientos de países) que las empresas tecnológicas enfrentan serias dificultades para determinar si los materiales con los que desarrollan su industria están ligados a zonas de conflicto o a prácticas laborales y ambientales ilegales. La IA es un motor de la explotación minera, de la destrucción de ecosistemas terrestres y acuáticos, y de la expropiación de datos personales a nivel global, por los que el monopolio tecnológico no asume responsabilidad alguna.
La explotación laboral: adaptarse a la cadencia algorítmica
El desarrollo de la IA también depende de la mano de obra humana, a la que se le exige adaptarse al ritmo de la máquina.
- Amazon y “La Matrix”: En los centros logísticos de empresas como Amazon -o su equivalente local, ML-, los trabajadores se convierten en una extensión de los robots. La lógica algorítmica (en Amazon la llaman sin eufemismos, “la “matrix”) establece la tasa de cumplimiento, desde el número de ítems que se deben seleccionar y empaquetar por minuto, hasta el tiempo exacto para comer o ir al baño durante jornadas laborales de más de 12 horas.
- La deshumanización: Los trabajadores son vigilados pasivamente por dispositivos que registran sus turnos, temperatura corporal y movimientos. La ansiedad por alcanzar el ritmo se traduce en lesiones físicas que son “tratadas” con analgésicos, disponibles en máquinas expendedoras en la propia fábrica o planta logística. Bajo esta forma de trabajo es de poca importancia el trabajador de manera integral, como ser humano, sencillamente se captura la parte de sí que sirve y se adapta a los ritmos que aseguran la ganancia esperada.
- El dictamen de la eficiencia: los ejecutivos de Amazon, ante masivas manifestaciones de sus trabajadores exigiendo condiciones dignas, han sostenido que pueden acercar posiciones con respecto a otros asuntos, pero que el ritmo de trabajo mediado por algoritmos es su modelo de negocios y “no pueden cambiarlo.” Un ritmo que establece la ciencia computacional en las oficinas de Sillicon Valley, caracterizada por su visión de eficiencia despiadada y por ser masculinizada, sin cargas familiares y disponible 24×7.
En lugar de inteligente es predictiva, y en lugar de artificial es material
Al fin y al cabo, la Inteligencia Artificial es un sistema de poder diseñado para servir a intereses dominantes, construido sobre bases éticamente cuestionables y un costo humano y ambiental inmenso. El discurso de la IA como un “multiplicador de fuerzas” y como la solución a todos los problemas es la retórica perfecta para ocultar esta estructura extractiva y, fundamentalmente, política.
La pregunta central de PoliteIA se va consolidando: ¿Permitiremos que esta estructura de poder y sus mitos definan la ética, la política y la economía de un futuro que nos compete a todos? ¿Podremos disputar sentido para corregir las fallas metodológicas y éticas que hoy definen el desarrollo de la IA? ¿Es útopico pensar en un uso de IA que sirva para achicar desigualdades y corregir asimetrías?
➡️ Ensayo PoliteIA: Acceso al Atlas de Poder del Estado
Para comprender la estructura de control completa, es clave entender el rol de los Estados. Nuestro ensayo al respecto en la Membresía PoliteIA, aborda en profundidad ese tercer eje de Crawford: El Estado Subcontratado. Allí analizamos el origen militar de la IA (DARPA, Proyecto MAVEN) y cómo a través de la agencialización se terceriza la vigilancia ciudadana, reproduciendo la desigualdad y creando una enorme crisis de responsabilidad política.


