Agamben nos advierte: Por qué es peligroso confiar ciegamente en el loro estocástico
Agamben y la IA como dispositivo biopolítico de poder: El desastre previsible de una sociedad que trata al algoritmo como si pensara
Giorgio Agamben ha publicado un texto demoledor sobre la inteligencia artificial. Su diagnóstico: la IA no es peligrosa por ser artificial, sino porque la sociedad la trata como si pensara fuera del sujeto. Esa suposición colectiva, dice Agamben, nos convierte en espectadores de nuestro propio juicio y reproduce sin saberlo un esquema teológico medieval. Pero el análisis de Agamben puede malinterpretarse: él no afirma que la IA piense, sino que denuncia que la época supone que piensa sin preguntarse cómo nos relacionamos con ese "pensamiento externo". Este artículo desarrolla su argumento y lo lleva más allá: la IA funciona como dispositivo biopolítico perfecto porque simula juicio, devuelve pensamiento mayoritario como creación propia, y permite a las instituciones evadir responsabilidad mientras naturaliza las relaciones de poder.
En un vistazo: Giorgio Agamben compara la IA con el intelecto separado de Averroes: una entidad que "piensa para todos" sin que nadie se pregunte cómo nos relacionamos con ella. La tesis central de este artículo es que Agamben diagnostica correctamente que la sociedad trata a la IA como si pensara, convirtiendo esto en un dispositivo biopolítico de captura del juicio. Pero hay que ir más allá: la IA es efectiva porque (1) simula la forma del pensamiento sin criterio, (2) devuelve el pensamiento mayoritario como si fuera creación propia, y (3) permite a las instituciones evadir responsabilidad mientras naturaliza las relaciones de poder que estructuraron sus datos. Cuando la IA presenta el consenso estadístico con autoridad epistémica, lo que no encaja en el patrón mayoritario queda invisibilizado. El resultado: un régimen de irresponsabilidad con prosa fluida que transmite el orden existente disfrazado de conocimiento objetivo.
Giorgio Agamben, el filósofo italiano referente de la biopolítica contemporánea, ha publicado un texto breve y demoledor sobre la inteligencia artificial. En pocas líneas, diagnostica algo que la mayoría de los debates tecnológicos evitan: la IA no es peligrosa por ser artificial, sino porque la sociedad la trata como si pensara fuera del sujeto. Y esa suposición, dice Agamben, nos convierte en espectadores de lo que creemos es nuestro propio juicio.
No se trata de una crítica ingenua a "las máquinas". Agamben entra en la IA como quien reconoce un patrón biopolítico: el de la modernidad como sistema de dispositivos que organizan la vida desde fuera del individuo. Su punto de partida no es la tecnología, sino el modo en que el poder se vuelve impersonal, procedimental y, ahora, aparentemente "inteligente".
El riesgo de leer a Agamben fuera de contexto
Antes de entrar en el argumento, conviene una advertencia: el texto de Agamben puede malinterpretarse fácilmente. Cuando habla de que la IA "piensa fuera del sujeto", no está afirmando él mismo que la IA piense. Está diagnosticando que la sociedad supone que piensa, y que esa suposición colectiva es el problema.
Si leemos a Agamben de forma apresurada, o si circulan frases sueltas de su texto sin el contexto de la analogía con Averroes que desarrolla, podríamos acusarlo de caer en la misma trampa que denuncia: tratar a la IA como si fuera un sujeto pensante. Pero eso sería injusto. Agamben es demasiado inteligente para cometer ese error tan básico. Lo que hace es usar la suposición colectiva como punto de partida para mostrar la barbarie de nuestra época: que aceptamos un "pensamiento externo" sin siquiera preguntarnos cómo nos relacionamos con él.
La analogía con Averroes: Teología involuntaria del siglo XXI
La jugada conceptual de Agamben es brillante. Compara la IA con el intelecto separado de Averroes, esa entidad metafísica medieval que pensaba "fuera" de los individuos pero a la que estos debían "conectarse" para pensar. Averroes decía que el intelecto era único para todos los humanos, y que los individuos se comunicaban con él a través de la imaginación.
Agamben señala que hoy reproducimos ese esquema escolástico sin darnos cuenta: tratamos a la IA como una entidad única que piensa para todos, y asumimos que nosotros, de algún modo, "nos conectamos" a ella para obtener respuestas. La diferencia es que, a diferencia de los medievales, nuestra época ni siquiera se plantea el problema de esa relación. Simplemente delega.
"Es sin duda un síntoma de la barbarie de la época, así como de su absoluta falta de imaginación, que este problema no se plantee respecto de la inteligencia artificial."
La sociedad supone que la IA piensa, pero no pregunta cómo diablos se supone que funciona nuestra relación con ese "pensamiento externo". Simplemente lo usa. Esa ausencia de pregunta es, para Agamben, el síntoma clave: hemos naturalizado un dispositivo teológico sin advertir su estructura.
Agamben no dice que la IA "piense" literalmente. Dice que la sociedad supone que piensa, y que esa suposición colectiva la convierte en un dispositivo de captura. Reproducimos teología medieval sin saberlo: tratamos a la IA como el intelecto averroísta, una entidad única que "piensa para todos".
El dispositivo que captura el juicio
Cuando habla de "pensar fuera del sujeto", Agamben se refiere al desplazamiento del Juicio (en sentido kantiano) hacia un exterior operativo. No le preocupa que la IA sea "inteligente". Le preocupa que funcione como una infraestructura de gobierno que normaliza conductas, convierte la decisión humana en inercia, y captura la capacidad de deliberación. En su teoría de los dispositivos, la IA es un caso ejemplar de dispositivo de poder: un mecanismo que organiza la vida social desde fuera, haciendo que el sujeto renuncie a su capacidad de juzgar.
Pero aquí Agamben añade un giro inquietante. Cita a Roberto Bazlen, el enigmático escritor y editor triestino que nunca publicó un libro propio pero influyó profundamente en la cultura italiana del siglo XX: "en nuestro tiempo la inteligencia ha acabado en manos de los estúpidos". Y luego pregunta:
"¿De qué modo un estúpido —es decir, un no pensante— puede entrar en relación con una inteligencia que afirma pensar fuera de él?"
La "estupidez" de la que habla Agamben no es un insulto moral. Es un diagnóstico estructural: la sociedad ha producido sujetos que ya no piensan (en el sentido de ejercer juicio crítico), y precisamente por eso aceptan delegar en algo que "afirma pensar". La estupidez ya no solo es causa, sino también se convierte en efecto: el sistema premia a quien no cuestiona el procedimiento, y la IA se convierte en la coartada perfecta para esa renuncia institucionalizada.
La ilusión performativa y el consenso disfrazado de juicio
Agamben tiene razón en el diagnóstico, pero hay un elemento que conviene explicitar: por qué la IA es tan efectiva como dispositivo de captura.
La IA no solo externaliza una función del ser humano (como hicieron la escritura o la calculadora). Produce una ilusión performativa extraordinariamente seductora: simula la forma del pensamiento. Genera respuestas que parecen juicios, argumentos que parecen razonados, conclusiones que parecen deliberadas.
Esa simulación tiene efectos devastadores. Hace que tratemos sus salidas como si fueran el producto de una mente, cuando en realidad son el producto de un cálculo probabilístico sobre patrones lingüísticos. La IA no "piensa" ni "juzga": procesa estadísticas de lenguaje y devuelve lo más plausible según su entrenamiento.
El peligro más profundo: al ser estadística, la IA devuelve el pensamiento mayoritario como si fuera creación propia. No produce nada nuevo, no tiene criterio, no puede ir contra la corriente. Simplemente refleja los patrones dominantes de su corpus de entrenamiento y los presenta con la apariencia del juicio individual.
Esto conecta directamente con la "estupidez" que diagnostica Agamben. Si la IA funciona como intelecto separado, ese intelecto no es sabio ni crítico: es el promedio estadístico de lo que ya se ha dicho. Cuando delegamos en ella, no accedemos a una inteligencia superior, sino que nos sometemos al pensamiento mayoritario disfrazado de respuesta personal.
Es la captura perfecta: nos hace creer que estamos pensando (porque recibimos una respuesta elaborada) cuando en realidad estamos aceptando acriticamengte lo que ya piensa la mayoría sin saberlo. Y peor aún: ese consenso estadístico se presenta con autoridad epistémica, cargando la homogeneización de valor contra todo lo discrepante. Lo que no encaja en el patrón mayoritario queda invisibilizado, no porque se censure explícitamente, sino porque la IA simplemente no lo reconoce como plausible.
La IA abarata tanto la producción de respuestas que inunda la sociedad con "espejismos de conocimiento": palabras sin juicio que aceptamos por pura inercia. Y esa inercia no es accidental. Es el modo en que opera el dispositivo: producir tanta fluidez, tanta disponibilidad de respuestas, que el esfuerzo de pensar por uno mismo —y especialmente el esfuerzo de pensar contra la corriente— parezca innecesario, incluso ridículo.
El riesgo institucional: La coartada perfecta
Agamben plantea el problema como un dilema filosófico: la relación entre el sujeto y el "pensamiento externo". Pero en la práctica, el desplazamiento del juicio ocurre por estructura institucional.
En empresas, gobiernos, sistemas educativos, la IA se convierte en la coartada perfecta de lo que Agamben llama biopolítica (el modo en que el poder gestiona la vida misma):
- "No lo decidí yo, lo recomendó el sistema."
- "El algoritmo dice que no eres apto."
- "La IA sugiere que no es viable."
El núcleo del problema no es el sujeto individual frente a la máquina, sino la institución usando la máquina para evitar la responsabilidad. Lo humano no renuncia por debilidad espiritual, sino porque el sistema premia a quien no cuestiona el procedimiento. Y la IA, al "afirmar pensar", permite esa renuncia sin culpa.
Pero hay algo más profundo: al presentar el pensamiento mayoritario como si fuera el producto de una inteligencia neutral, la IA reifica las relaciones de poder que produjeron ese consenso. Lo que la IA devuelve como "lo más plausible" no es un juicio objetivo, sino el resultado estadístico de quién ha hablado más, quién ha escrito más, quién ha dominado el discurso. El poder que estructuró los datos de entrenamiento queda invisibilizado, naturalizado como "lo que piensa la inteligencia artificial".
Esto es exactamente lo que Agamben teoriza en su concepto de dispositivo: un mecanismo que captura y orienta conductas sin necesidad de represión explícita, simplemente organizando el campo de lo posible. La IA es el dispositivo perfecto porque su opacidad técnica y su apariencia de inteligencia hacen que cuestionar sus salidas parezca irracional. Y además, porque transmite el orden existente disfrazado de conocimiento objetivo, convirtiendo las relaciones de poder en evidencia estadística.
La pregunta que la época evita
Agamben señala que la gran ausencia de nuestro tiempo es la pregunta por la relación. Si suponemos que la IA piensa, ¿cómo nos relacionamos con ese pensamiento? ¿Qué queda del juicio humano? ¿Cómo distinguimos entre delegar una función (calcular, traducir) y delegar la capacidad de juzgar?
La época no responde porque no pregunta. Simplemente usa. Y en ese uso irreflexivo se juega la captura del dispositivo.
Pero aquí conviene ir más allá de Agamben. La pregunta correcta no es "cómo nos relacionamos con algo que piensa fuera de nosotros", sino por qué aceptamos esa premisa. La IA no "afirma pensar"; somos nosotros quienes le otorgamos esa afirmación. Y lo hacemos porque nos resulta cómodo, porque la estructura institucional lo recompensa, porque la forma de sus salidas nos seduce, y porque confundimos el promedio estadístico con la creación individual.
Conclusión: Desmontar el dispositivo, recuperar el juicio
Agamben tiene razón: la IA es peligrosa no porque sea artificial, sino porque funciona como un dispositivo que normaliza la renuncia al juicio. La sociedad la trata como si pensara, y en esa suposición colectiva se juega una captura biopolítica sin precedentes.
Pero la tarea política no es solo diagnosticar el dispositivo. Es desmontarlo. Y para eso hay que empezar por el lenguaje: dejar de hablar de la IA como si fuera un sujeto que piensa, y empezar a nombrarla como lo que es: una herramienta estadística que produce respuestas plausibles sin criterio, devolviendo el pensamiento mayoritario como si fuera creación propia.
El primer acto de resistencia es negarse a la teología involuntaria. No hay "intelecto separado". No hay "pensamiento externo". Hay instituciones que usan algoritmos para evadir responsabilidad, y hay sujetos que aceptan esa evasión porque el sistema los ha vuelto, como dice Agamben, "estúpidos" en sentido técnico: incapaces de ejercer juicio.
La pregunta no es si la IA piensa. Esa pregunta ya valida el mito. La pregunta es: ¿Quién manda? Manda quien fija los fines, pone los límites, responde por las consecuencias. Si despojamos a la IA de su máscara de "sujeto que piensa", recuperamos nuestra obligación de legislar sobre ella, de gobernarla, de exigirle cuentas a quien la usa.
Lo que tenemos hoy no es "pensamiento externo", sino un régimen de irresponsabilidad con prosa fluida que devuelve el consenso mayoritario disfrazado de juicio individual. Agamben nos recuerda que la pregunta medieval sobre cómo relacionarnos con el intelecto separado sigue vigente. Pero la respuesta moderna no es filosófica: es política. Se trata de recuperar la capacidad de juzgar como función intransferible, y de construir instituciones que no permitan su delegación.



Hola Cómo va? todo bien? Mi nombre es Gonzalo tengo 42 años soy de Argentina y la verdad que no entiendo qué es lo que está cuestionando de la la? A colación Le recuerdo que el hombre cree en los políticos como los eventuales salvadores de la humanidad que yo sepa Las mayores atrocidades de la humanidad se cometieron antes de la ia
ResponderEliminarHola Gonzalo. Bien.
EliminarNo estoy diciendo que la IA sea “el origen de las atrocidades” ni que sea peor que los humanos. Eso es otro debate.
Lo que cuestiono es esto: cómo se está usando social e institucionalmente. Antes incluso de que haya daños, la IA empieza a ocupar el lugar del juicio: “lo dice la IA” se convierte en autoridad, se acepta por fluidez, y se usa para cerrar discusión o diluir responsabilidades. Ese es el riesgo.
Y sí, claro que la gente ha creído en políticos, gurús o religiones. Justamente: la historia está llena de delegaciones de criterio. La novedad aquí es que esa delegación puede presentarse como “neutral” y “técnica”, lo que la vuelve más difícil de discutir.
Si me dices qué parte exacta te resulta confusa (autoridad, responsabilidad, verificación), te lo explico en dos líneas.