La Tiranía del Valor Probabilístico: La Autonomización vs. El Juicio Humano

El Imperativo de la Valoración

En artículos previos analizamos las categorías que propone Kate Crawford para describir la materialidad extractiva de la IA y como esta industria se sustenta en una mina planetaria que conjuga la explotación de bienes naturales comunes, de mano de obra humana con altos grados de precarización y de todos los datos que producimos en nuestra vida pública y privada. También hemos puesto el foco en como se reconfigura el capitalismo bajo el predominio de la industria de IA, que analiza nuestros datos para moldear nuestras preferencias y vender al mejor postor las predicciones sobre nuestras acciones futuras, para constituir lo que Shoshana Zuboff denomina Capitalismo de la Vigilancia. En esta entrada queremos proponer una introducción a los aportes de Éric Sadin en los que desvela una función más radical y antidemocrática de la industria de IA: la sustitución del juicio humano por el “valor técnico”. Sadin rechaza el término “Inteligencia Artificial” (IA) y propone, en su lugar, el concepto de valoración algorítmica o, en sus términos más críticos, la tiranía del valor probabilístico.

Esta tiranía, basada en la capacidad instantánea de la IA para medir, calificar y recomendar la acción óptima a ejecutar, permite una peligrosa y creciente autonomización del sistema, que amenaza las cualidades humanas que se han utilizado para la toma de decisiones sobre la manera en la que nos ordenamos, nos proveemos y redistribuimos recursos para tener una vida digna; el criterio, el juicio, la deliberación, la negociación, la resistencia. Se trata de una renuncia silenciosa a la facultad humana de deliberar sobre lo incierto y lo incompleto, y de abrazar el enorme potencial del error y la imperfección.

Sadin historiza sobre el desarrollo de la IA, y entre otros hallazgos, el que más le preocupa es el que tiene que ver con un giro en la posición que los seres humanos hemos tenido frente a la técnica. Todo desarrollo técnico anterior, estuvo supeditado al criterio humano, no había indicios de que ninguna tecnología fuera autónoma. Esto cambia durante la Segunda Guerra Mundial, en la que se incorporan sistemas probabilísticos para aplicar en el campo de batalla. Se trataba de análisis algorítmicos que medían condiciones climáticas y distancias para arrojar un valor/orden de ejecutar disparos en un momento específico y en la dirección indicada por el sistema. Lo que en apariencia es una herramienta que optimizaría las acciones, en realidad escondió dos cuestiones relevantes; ya no era el soldado u oficial quién decidiría cómo y cuándo accionar, sino que sería el simple ejecutor de la acción indicada por un sistema no humano, y sería menos importante considerar la información contextual, se borra el análisis del contexto para la toma de decisiones. Y más allá de que el cálculo probabilistico sea efectivo y la mejor opción para muchas actividades, definitivamente se coonvierte en un problema cuando pretende universalizarse y aplicarse a cuestiones sociales complejas.


El Valor Técnico como Imperativo y la Crisis del Saber

La tesis central de Sadin es que la IA se impone porque ofrece un “valor” en apariencia absoluto y neutro (no influído por la política, la economía, lo social), basado en la velocidad y la supuesta objetividad de los datos. Esta valoración no es un pensamiento, sino una medida probabilística que se convierte en el imperativo de acción.

  1. La Sustitución de la Inteligencia por la Valoración: La IA, a diferencia del saber humano, no busca la verdad ni el sentido, sino que busca la solución óptima para un problema dado. Al medir constantemente nuestro rendimiento, nuestra salud o nuestros comportamientos diarios en todo ámbito (los “valores”), la IA nos obliga a alinearnos con esa medición. El sistema no te dice “pensá”, te dice “ejecutá la acción recomendada, porque es la óptima”.
  2. La Destrucción de la Contingencia: El juicio humano se basa en el error, la duda, el contexto incompleto y la deliberación. La valoración algorítmica, por el contrario, busca anular la incertidumbre. Este es un punto profundamente político: donde hay incertidumbre, hay deliberación y, por ende, democracia. Al eliminar la incertidumbre, la IA debilita con absoluta intención la acción política como la conocemos, imperfecta y por eso humana, siempre perfectible.
  3. El Sistema como Plataforma de Acción: La vida se transforma en un espacio donde se reciben órdenes para la optimización. Ya no se trata de ser, sino de actuar de acuerdo con la prescripción técnica, de deber (ej., “debés tomar esta ruta”, “debés consumir este contenido”, “debés aprobar esta solicitud”, “debés confeccionar de esta manera tu CV”).

Este imperativo del valor técnico desvaloriza el saber, la experiencia y la intuición humana, y pondera -en una jerarquización forzada- la verdad algorítmica como principal fuente de racionalidad.


La Autonomización y la Muerte del Juicio Burocrático

El impacto de esta tiranía puede volverse especialmente visible en las administraciones públicas, que han sido históricamente el lugar de la aplicación del saber político y de la cristalización e institucionalización del conflicto social para ser mediado de formas sustentables: la burocracia.

  1. El Burócrata Desactivado: El trabajo del burócrata, del analista político, del responsable de políticas públicas, consiste en aplicar las normas generales a un caso particular, ejerciendo sobre todo un juicio contextual. Incluso con lo imperfecta e insuficiente de la mirada federal en nuestro país, se realizan juicios críticos para la aplicación de políticas públicas diferenciadas para Tierra del Fuego o Misiones. Con la autonomización, el sistema de IA determina el “valor probabilístico” del caso (su necesidad, su riesgo, los destinatarios, el costo) y emite una recomendación. El burócrata o decisor de política pública se convierte en el mero ratificador de la orden algorítmica.
  2. La Burocracia Sin Responsabilidad: Este es un correlato del “Estado Subcontratado” de Crawford. La decisión, aunque ejecutada por un humano, se justifica por la autoridad del sistema. Si la decisión es cuestionada, la respuesta es: “El sistema lo recomendó” o “El algoritmo lo valoró así”. La responsabilidad se diluye en la objetividad simulada del sistema, dejando al político o al administrador sin la necesidad (ni la facultad) de defender o justificar su juicio.
  3. El Gobierno por Plataforma: Sadin describe esta transición como el paso a un Estado Plataforma, donde la gobernanza se basa en el flujo continuo de datos y la acción inmediata, con el único fin de alinear cuerpos y flujos de capital, en lugar de mediar e intervenir en relaciones asímetricas de poder. Esto es especialmente peligroso en el diseño de políticas públicas, donde la IA podría priorizar la “eficiencia” y la “predicción” sobre principios democráticos como la equidad, la justicia social o el contexto local.

El Cuerpo y la Subjetividad

Sadin también aborda cómo la tiranía del valor probabilistico invade la esfera íntima, creando una exigencia permanente y una necesidad de adecuación constante a la verdad algoritmica. Sobreabundan los ejemplos, sobre todo en redes (a)sociales, que sin usar la fuerza, nos terminan imponiendo formas de ser que nada tienen que ver con algún tipo de respeto por la propia singularidad.

  1. El Control Biométrico y Emocional: Al igual que la IA busca clasificar los gestos humanos para la vigilancia, determinando cuáles son una potencial amenaza para la optimización forzada de todo ámbito de vida, Sadin ve esto como un intento de capturar la última frontera del ser: la emoción y la subjetividad no verbal. El sistema nos exige ser copia fiel de nuestros datos, ser previsibles y transparentes para que el sistema pueda valorarnos correctamente, 24×7.
  2. El “Cuidado de Sí” Invertido: Si para Foucault el “cuidado de sí” era un acto de autonomía y resistencia para construir la propia subjetividad, bajo la IA, el cuidado de sí se invierte: consiste en optimizar nuestros datos, en ser “mejores” en función del valor que el sistema nos otorga (ej., correr más, comer mejor, ser más productivos), alineando la subjetividad con el imperativo técnico.

La valoración algorítmica, en última instancia, busca eliminar la libertad entendida como la posibilidad de obrar según nuestro propio criterio y voluntad frente al imperativo de la máquina.


Dejá un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *