Cuando delegas el juicio en puntuaciones y umbrales, el poder obtiene una coartada: ejecutar consecuencias sin asumir decisiones.
Una persona denuncia un robo con violencia. En comisaría, el texto de la denuncia pasa por una herramienta que puntúa si “suena” a denuncia falsa. Si el sistema marca sospecha, cambia el tono: se abre otra vía de preguntas, se mira el caso con otros ojos, se orienta el esfuerzo hacia “ver si cuadra”. No hace falta que sea prueba judicial para que funcione como dispositivo: basta con que sea umbral. Eso fue VeriPol, y acabó retirándose por el problema de siempre: opacidad y falta de encaje como evidencia en procedimientos judiciales, tal como se contó en medios como Civio y El País.
En mi artículo sobre Agamben defendía una idea incómoda: la IA no es peligrosa por ser “artificial”, sino por algo más simple y más humano: porque la tratamos como si pensara. Y cuando una sociedad acepta que “hay un pensamiento fuera del sujeto” al que basta con conectarse, el juicio se desplaza. No porque la máquina sea sabia, sino porque nosotros dejamos de ejercer la parte difícil: decidir y responder.
Ese es el punto de partida (está desarrollado aquí: https://asperomundo.blogspot.com/2026/01/agamben-nos-advierte-por-que-debemos.html). Y desde ahí se entiende lo que quiero plantear ahora: cuando esa delegación del juicio se convierte en infraestructura, la IA encaja como el dispositivo biopolítico perfecto.
En un vistazo: Este artículo defiende que la IA funciona como un dispositivo biopolítico: gobierna por clasificación (perfil → score → umbral), consolida etiquetas mediante bucles de retroalimentación, y disuelve la responsabilidad creando una coartada institucional (“no fue una decisión, fue el sistema”). En ese marco, la crítica de Agamben al “intelecto separado” (Averroes) explica la raíz: hemos convertido la consulta estadística en sustituto del juicio. La salida práctica es una sola: firma humana y trazabilidad en toda decisión que afecte a derechos.
1) Qué significa “biopolítica” (en cristiano)
Biopolítica es una forma de poder que no manda con órdenes explícitas todo el tiempo, ni se limita a castigar cuando incumples. Funciona de otra manera: configura las condiciones de vida. Michel Foucault lo formuló así: el poder moderno ya no solo “prohíbe”, sino que administra la vida (poblaciones, riesgos, normalidades).
Idea clave: en sociedades abiertas, este poder suele presentarse como “gestión”, “procedimiento”, “optimización” o “neutralidad técnica”. Por eso puede ser profundamente autoritario sin adoptar el aspecto clásico del autoritarismo.
Dicho sin solemnidad: biopolítica es cuando el poder decide, de forma más o menos silenciosa:
- qué se considera “normal” o “aceptable”,
- quién es “apto” y quién es “riesgo”,
- quién entra y quién se queda fuera,
- qué vidas se protegen y cuáles se vuelven precarias.
2) Qué significa “dispositivo” (y por qué importa)
Un “dispositivo” no es un cacharro. Es cualquier mecanismo (tecnológico o no) que captura y orienta conductas: normas, burocracias, métricas, protocolos, plataformas, “buenas prácticas”, sistemas de evaluación, formularios.
Un dispositivo no necesita prohibirte algo a gritos. Le basta con reordenar el campo de lo posible: lo que es fácil, lo que es difícil, lo que se aprueba, lo que se penaliza, lo que se invisibiliza.
Traducción política: el poder no siempre te dice “no”. A menudo te dice “sí, pero…”: con fricción, con retrasos, con etiquetas, con puntuaciones, con umbrales.
En el artículo que enlazo arriba la tesis es clara: la IA no es “un cerebro”, sino un dispositivo. Y lo grave no es su potencia, sino lo bien que encaja en una época que quiere delegar el juicio.
3) El punto de Agamben: el “intelecto separado” vuelve, pero con interfaz
Agamben compara la IA con una idea medieval (Averroes): un “intelecto” único que piensa “fuera” de los individuos, y al que uno se conecta. Lo importante no es el medievalismo, sino el patrón:
- hoy actuamos como si existiera una inteligencia externa,
- que “piensa para todos”,
- y a la que solo hay que consultar.
La barbarie, dice Agamben, no es la máquina: es que ni siquiera nos preguntamos qué significa esa relación. La época no debate cómo se gobierna algo así; simplemente lo usa.
4) La relación IA–biopolítica: por qué es el dispositivo perfecto
La IA es un dispositivo biopolítico perfecto porque permite hacer gobierno por gestión con tres ventajas brutales:
(1) Simula juicio sin tener criterio
Una IA genera textos que parecen deliberación: tono seguro, estructura argumental, prosa fluida. Eso activa un reflejo humano: “si suena razonado, será razonable”. Pero esa “razón” es forma, no juicio. Es plausibilidad estadística. Y cuando confundes plausibilidad con juicio, entregas la llave.
(2) Devuelve lo mayoritario como si fuera “inteligencia”
Aquí encaja el “loro estocástico”, tal y como lo popularizaron Emily M. Bender, Timnit Gebru y colegas: sistemas que pueden producir lenguaje convincente sin comprensión, cosiendo patrones a partir de datos masivos.
La IA, por diseño, tiende a devolver lo más probable según su entrenamiento: lo más repetido, lo más normalizado, lo más dominante. Efecto político inmediato: lo mayoritario aparece como “lo sensato”, y lo disonante como “raro”, “poco plausible”, directamente invisible. No hace falta censura. Basta con estadística.
Matiz decisivo: el peligro no es solo que “repita”: es que normaliza. Lo hegemónico entra como neutralidad estadística, y eso produce una homogeneización moral.
(3) Le da a la institución la coartada perfecta: “no fui yo”
Y aquí entra la biopolítica de lleno: empresas, administraciones, escuelas, hospitales… descubren que la IA permite decir:
- “No lo decidí yo, lo recomendó el sistema.”
- “El algoritmo dice que no eres apto.”
- “Según el modelo, no es prioritario.”
La IA no gobierna sola. La usan para gobernar sin pagar el coste del gobierno: la responsabilidad.
5) Del juicio al umbral: cuando el poder se vuelve “score”
En biopolítica, lo decisivo no es un gran decreto, sino los criterios que te clasifican. La IA encaja ahí como un guante porque convierte la vida en:
- perfil (datos),
- puntuación (score),
- y corte (umbral).
Y el umbral decide acceso o exclusión sin dramatismo:
- Trabajo: tu CV no llega a humanos.
- Crédito: “riesgo” y condiciones peores.
- Ayudas: “no prioritario”.
- Educación: ranking, itinerarios, “recomendaciones”.
- Seguridad: sospecha preventiva.
Esto no “parece” autoritario porque viene con el disfraz de la eficiencia. Pero es poder en estado puro: distribuye oportunidades y precariedad.
6) El bucle de retroalimentación: cuando el algoritmo no “mide” la realidad, la fabrica
Aquí está el punto que mucha gente pasa por alto: estos sistemas no se limitan a gestionar lo que existe. Muchas veces lo producen.
Si un algoritmo decide que un barrio es “peligroso” y, por ello, se envía más policía, ocurren dos cosas a la vez:
- aumenta la probabilidad de encontrar infracciones (porque miras más),
- suben las detenciones y los registros,
- y ese nuevo dato vuelve al sistema como “prueba” de que el barrio era peligroso.
Autoprofecía cumplida: la IA no solo clasifica; construye condiciones para que la clasificación se confirme.
Y hay una segunda capa todavía más biopolítica: el dispositivo no solo captura la vida, sino que empuja a los sujetos a moldearse para ser legibles por la máquina. Personas y organizaciones aprenden a “optimizarse” para el score: a hablar como el sistema espera, a comportarse como el sistema premia, a evitar lo que el sistema penaliza.
En ese punto, el poder ya no necesita imponerse de manera visible. Basta con que el algoritmo establezca el marco de lo premiable y lo castigable. La vida se adapta.
7) El resultado: un régimen de irresponsabilidad con prosa fluida
Cuando una sociedad acepta que el algoritmo “piensa”, lo que realmente acepta es otra cosa: que el juicio ya no es una obligación personal e institucional, sino una salida delegable.
Eso produce un mundo donde:
- se ejecutan consecuencias,
- se toman decisiones de facto,
- pero nadie aparece como responsable.
Es biopolítica contemporánea en su forma más limpia: gobernar condiciones de vida, repartir accesos, fabricar normalidad… sin firma.
Dato (Nature): Nils Köbis y Zoe Rahwan (con equipo del Max Planck Institute for Human Development) lo midieron: cuando la gente actúa por sí misma, la honestidad ronda el 95%; si delega en una IA mediante reglas explícitas, cae a ~75%; si delega con más ambigüedad (tipo “aprendizaje supervisado”), baja a ~50%; y cuando basta con fijar un objetivo general (“maximiza beneficios”) y dejar que el sistema ejecute, la honestidad se desploma a ~15% (12–16%).
8) Una regla sencilla para pinchar el globo
Si quieres que esto no sea solo diagnóstico, la regla es simple:
Toda decisión que afecte a derechos, acceso o trayectoria vital debe tener un responsable humano identificable y trazabilidad completa.
En castellano: si una IA recomienda, alguien firma; si una IA puntúa, alguien responde; si una IA excluye, alguien se expone.
Y esto no es solo un deseo: el Reglamento de IA de la UE (Reglamento (UE) 2024/1689) obliga a que los sistemas de “alto riesgo” estén sujetos a supervisión humana efectiva (Artículo 14).
Mientras eso no exista, la IA seguirá siendo el dispositivo biopolítico perfecto: poder sin culpa.



Comentarios
Publicar un comentario