Entradas

Mostrando las entradas etiquetadas como Inteligencia artificial

Agamben nos advierte: Por qué es peligroso confiar ciegamente en el loro estocástico

Imagen
Agamben y la IA como dispositivo: Cuando la sociedad trata al algoritmo como si pensara Agamben y la IA como dispositivo biopolítico de poder: El desastre previsible de una sociedad que trata al algoritmo como si pensara Giorgio Agamben ha publicado un texto demoledor sobre la inteligencia artificial. Su diagnóstico: la IA no es peligrosa por ser artificial, sino porque la sociedad la trata como si pensara fuera del sujeto. Esa suposición colectiva, dice Agamben, nos convierte en espectadores de nuestro propio juicio y reproduce sin saberlo un esquema teológico medieval. Pero el análisis de Agamben puede malinterpretarse: él no afirma que la IA piense, sino que denuncia que la época supone que piensa sin preguntarse cómo nos relacionamos con ese "pensamiento externo". Este artículo desarrolla su argumento y lo lleva más allá: la IA funciona como dispositivo biopolítico perfecto porque simula juicio, devuelve pensamiento mayor...

El 95% de los proyectos de IA no falla por la tecnología: falla por la empresa

Imagen
El 95% de los proyectos de IA no falla por la tecnología: falla por la empresa Cómo pasar de demos brillantes a sistemas rentables exige ingeniería de procesos, no solo algoritmos Diciembre de 2025. Existe una cifra que está recorriendo los comités de dirección y que está empezando a enfriar el entusiasmo por la Inteligencia Artificial: el 95% de las organizaciones que están invirtiendo en IA generativa no está logrando un retorno de inversión (ROI) medible . Para entender este dato, hay que mirar el informe The GenAI Divide 2025 (MIT Project NANDA / MLQ.ai). Mientras que casi todas las empresas están experimentando, solo un 5% logra que ese impacto llegue al P&L (Profit and Loss, o cuenta de resultados). La conclusión es incómoda: el problema no es que la IA no funcione. El problema es que pasar de una "demo brillante" a un sistema rentable es un desafío de estructura empresarial, no de algoritmos. ...

El capitalismo acelera y devora: innovación, hype y la captura de la IA

Imagen
El capitalismo acelera y devora: innovación, hype y la captura de la IA Prometer primero, producir después: cómo se monetiza el futuro antes de existir y quién paga la factura En 2021–2022, el mundo financiero se convenció de que viviríamos en el Metaverso. No porque la tecnología estuviera lista, sino porque el capital necesitaba un nuevo territorio que colonizar. La prueba simbólica fue explícita: Facebook se rebautizó como Meta el 28 de octubre de 2021 y anunció que su foco sería "traer el metaverso a la vida". Hoy, ese relato ya no organiza el mercado. Y tampoco pasa nada: cuando el rendimiento del mito cae, la maquinaria de fe pivota. Meta aparece ahora planificando recortes fuertes del presupuesto de metaverso mientras intenta reposicionarse en IA. No fue un error de predicción. Fue un modo de operar. En un vistazo: Este artículo documenta el patrón estructural por el cual el capitalismo fin...

No existe solución de IA profesional sin una Gobernanza de la Fiabilidad

Imagen
No existe solución de IA profesional sin una Gobernanza de la Fiabilidad Por qué la madurez en IA no se mide por lo que responde, sino por lo que sabe no responder La promesa de la IA generativa en la empresa siempre suena igual: velocidad, ahorro de costes e "inteligencia" masiva. Pero cuando aterrizas la tecnología en un proceso crítico (Legal, RRHH, Operaciones, Compliance), aparece el muro de la realidad. La IA puede ser brillante… y aun así ser inutilizable. ¿El problema? Por su propia naturaleza, un modelo generativo no es un sistema de verdad: es un sistema de producción probabilística. Puede acertar mucho, pero cuando falla, lo hace con una propiedad especialmente tóxica para el negocio: falla con total confianza . Si no gobiernas la fiabilidad, lo que tienes no es un producto: es una fuente de incertidumbre conectada a tus procesos. En un vistazo: Una solución de IA profesional n...

Simular sociedades con IA: ¿copia fiel o ilusión útil?

Imagen
Simular sociedades con IA: ¿copia fiel o ilusión útil? Por qué la promesa del "laboratorio social" choca con los límites del conocimiento Usar agentes de IA para emular ciudadanos y anticipar respuestas a políticas suena definitivo. Pero un position paper reciente de Park et al. pone un límite metodológico claro: simular sociedad no es "generar sociedad". Para ser algo más que teatro verosímil, la simulación necesita simular pensamiento: creencias, actualización coherente y trazabilidad. Este artículo muestra por qué la IA no elimina los límites del conocimiento social, y por qué el horizonte razonable no es la réplica perfecta sino modelos honestos que declaren supuestos y midan incertidumbre. La tesis en un vistazo: La IA no elimina los límites del conocimiento social: los desplaza y amplifica. Simular sociedades con agentes LLM promete un "laboratorio social" para anticipar respuestas a política...

La IA y los límites del "cuidado" corporativo

Imagen
La IA y el final del "cuidado" corporativo Cuando la productividad tecnológica sube, el humanismo se convierte en guion Hay empresas que hablan de "people first" hasta el día antes de un ERE. No es cinismo: es coherencia. El humanismo corporativo nunca fue un fundamento moral, sino una herramienta de gobernanza. La IA lo está dejando claro porque cambia los incentivos materiales sin tocar el lenguaje. Este artículo ordena esa mecánica y muestra por qué el caso más revelador es que los propios profesionales de RR.HH. gestionan su propia automatización mientras mantienen el discurso del acompañamiento La tesis en un vistazo: La IA funciona como prueba del algodón del humanismo corporativo: cuando la productividad puede obtenerse más barata mediante automatización, el "cuidado" de RR.HH. se disuelve. El discurso humanista es condicional por diseño: dura mientras el coste marginal de retenerte sea menor...

Alpha: la IA que dejó de adivinar y empezó a demostrar

Imagen
De la aproximación a la demostración: la arquitectura neuro-simbólica de Alpha Por qué el próximo salto de la inteligencia artificial no es más datos, sino rigor verificable. Los modelos de lenguaje pueden escribir código, responder preguntas y simular razonamiento, pero tienen un problema fundamental: no saben cuándo están equivocados. Alucinan no por error, sino por diseño: son máquinas de probabilidad, no de verdad. DeepMind ha presentado una alternativa radical con su familia Alpha: sistemas híbridos que combinan intuición neuronal con verificación lógica formal. El generador propone, el verificador audita. Si la estadística falla, la lógica anula el paso. El resultado es una IA que puede demostrar matemáticamente que tiene razón. Y en sectores donde el error no es tolerable —medicina, aviación, finanzas—, esa capacidad no es un extra: es un requisito. ⚡ En un vistazo: La primera era de la IA basada en LLMs ha choc...