Entradas

Mostrando las entradas etiquetadas como Inteligencia artificial

La IA y los límites del "cuidado" corporativo

Imagen
La IA y el final del "cuidado" corporativo Cuando la productividad tecnológica sube, el humanismo se convierte en guion Hay empresas que hablan de "people first" hasta el día antes de un ERE. No es cinismo: es coherencia. El humanismo corporativo nunca fue un fundamento moral, sino una herramienta de gobernanza. La IA lo está dejando claro porque cambia los incentivos materiales sin tocar el lenguaje. Este artículo ordena esa mecánica y muestra por qué el caso más revelador es que los propios profesionales de RR.HH. gestionan su propia automatización mientras mantienen el discurso del acompañamiento La tesis en un vistazo: La IA funciona como prueba del algodón del humanismo corporativo: cuando la productividad puede obtenerse más barata mediante automatización, el "cuidado" de RR.HH. se disuelve. El discurso humanista es condicional por diseño: dura mientras el coste marginal de retenerte sea menor...

Alpha: la IA que dejó de adivinar y empezó a demostrar

Imagen
De la aproximación a la demostración: la arquitectura neuro-simbólica de Alpha Por qué el próximo salto de la inteligencia artificial no es más datos, sino rigor verificable. Los modelos de lenguaje pueden escribir código, responder preguntas y simular razonamiento, pero tienen un problema fundamental: no saben cuándo están equivocados. Alucinan no por error, sino por diseño: son máquinas de probabilidad, no de verdad. DeepMind ha presentado una alternativa radical con su familia Alpha: sistemas híbridos que combinan intuición neuronal con verificación lógica formal. El generador propone, el verificador audita. Si la estadística falla, la lógica anula el paso. El resultado es una IA que puede demostrar matemáticamente que tiene razón. Y en sectores donde el error no es tolerable —medicina, aviación, finanzas—, esa capacidad no es un extra: es un requisito. ⚡ En un vistazo: La primera era de la IA basada en LLMs ha choc...

La ilusión de la caja vacía: por qué nuestro marco mental del buscador distorsiona el uso de los LLM

Imagen
La interfaz parece familiar, pero la arquitectura es otra: cuando tratamos a un modelo generativo como si fuera un buscador, la interacción se contamina y los resultados se degradan. Durante décadas hemos aprendido a confiar en una caja de texto que promete verdad inmediata con el mínimo esfuerzo. Ese hábito cognitivo, útil en la era de los buscadores, se vuelve tóxico con los modelos generativos. Aunque la interfaz de un LLM parece la misma, su funcionamiento no lo es: no busca, no verifica y no razona. Genera. Y cuando entramos con el marco mental equivocado, contaminamos la interacción, provocamos alucinaciones y obtenemos resultados que interpretamos como fallos del sistema. La solución no es exigirle más a la tecnología, sino cambiar el modelo mental desde el que la usamos. Durante veinte años, la humanidad ha aprendido a relacionarse con la información a través de una interfaz simple: una caja de texto que promete verdad inmediata con el mínim...

IA: Cuando la sociedad limita una herramienta que necesita... otra vez

Imagen
De la piratería digital a la IA generativa: misma lógica histórica, distinta magnitud del riesgo Cada tecnología que elimina un coste estructural provoca el mismo reflejo social: persecución, prohibición y resistencia institucional. Ocurrió con el MP3 y vuelve a ocurrir con la IA generativa. La diferencia es que esta vez no está en juego un modelo de negocio, sino los mecanismos que usamos para validar la realidad, la autoría y la verdad social. Misma lógica, distinta magnitud (y distinto riesgo) La comparación entre la piratería digital y la Inteligencia Artificial Generativa no es un ejercicio retórico. Es un patrón histórico confirmado por el análisis: cada vez que aparece una tecnología que elimina un coste estructural, el sistema social entra en crisis y reacciona persiguiendo la misma herramienta que, con frecuencia, acabará necesitando. La piratería digital lo demostró de forma casi didáctica. La IA lo está repitiendo, pero con una ma...

Boltzmann y la IA: cuando el sentido es una propiedad de segundo orden

Imagen
Del orden termodinámico a la coherencia lingüística: la misma ley de emergencia de escala operando en dos mundos distintos Boltzmann descubrió que la estabilidad del universo no es fundamental, sino emergente: un efecto de escala nacido del caos microscópico. Hoy vemos el mismo patrón en la IA: miles de decisiones estocásticas producen coherencia lingüística sin que ningún token la posea por sí mismo. Este artículo explica por qué el sentido es una propiedad de segundo orden, en la materia y en las máquinas. Ludwig Boltzmann murió convencido de que lo habían tratado como a un apestado. Lo que destruyó a Boltzmann no fue la estadística, sino la incapacidad humana de aceptar que el mundo funciona sin darnos certezas . En la Viena de finales del XIX, el determinismo era una creencia moral: el universo debía ser un mecanismo perfecto. Boltzmann sostenía lo contrario: la estabilidad que vemos no está en el origen del mundo, sino en su escala . Veía l...

Cuando la IA deje de ser estocástica

Imagen
La próxima generación será neuro-simbólica y verificable La estocasticidad no es el destino de la inteligencia artificial: es una etapa intermedia. Lo que viene no es una IA que improvisa con patrones, sino una que demuestra lo que afirma. En esta transición, la metamatemática deja de ser teoría y se convierte en arquitectura. La discusión pública sobre la inteligencia artificial se mueve en círculos. Repite que los modelos actuales “predicen palabras”, que funcionan por correlaciones y que eso será siempre así. Pero la estocasticidad no tiene por qué ser el núcleo: puede quedar confinada a un papel secundario dentro de arquitecturas más rigurosas. El futuro de la IA quizá no sea una máquina que produce frases plausibles, sino sistemas híbridos capaces de demostrar que lo que dicen es cierto. La transición ya ha empezado, al menos en algunos dominios. 1. La estocasticidad no es un fallo: es una limitación matemá...

El extraño talento de la IA para estropear lo que ya había entendido

Imagen
Por qué la IA cambia lo que ya funciona: la limitación oculta que te obliga a vigilarla todo el tiempo Lo más frustrante de trabajar con IA no son sus errores, sino sus “arreglos” espontáneos: cambios que no pides, formatos que ya había entendido y de repente rompe, variaciones absurdas que te obligan a volver atrás. Ese comportamiento no es un despiste ni un bug: es una limitación estructural de su diseño. Y explica por qué, sin supervisión constante, la IA no puede mantener tareas repetitivas estables. Hay algo más irritante que los errores de la IA: tener que vigilarla para que no cambie lo que ya funciona. Puedes darle la misma tarea repetitiva veinte veces —una tabla, un esquema, un HTML, un formato que ya ha entendido— y tarde o temprano lo deformará. Cambia columnas, altera el tono, reordena elementos, inventa matices que nadie pidió. Durante meses pensé que era un bug. No lo es. Los estudios recien...

The Self-Correction Blind Spot: el punto ciego más difícil de ver

Imagen
Por qué la IA no reconoce sus propios errores, aunque hable como si los evitara Todo el mundo habla de "alucinaciones" en IA. Pero las alucinaciones no son el verdadero problema. El problema profundo es otro: los modelos no pueden detectar que se equivocan, ni corregirse automáticamente, ni activar por sí mismos un modo seguro cuando entran en error. La investigación lo llama: Self-Correction Blind Spot (SCBS) Los LLM corrigen errores ajenos, pero fallan sistemáticamente al corregir los suyos propios. En pruebas con 14 modelos, el SCBS mostró una ceguera del 64,5%. Es un fallo estructural: cuando la IA se equivoca, queda atrapada dentro de su propio razonamiento. 1. La arquitectura que genera la ilusión (explicada sin tecnicismos) Para entender por qué ocurre, basta con ver cómo está construido un modelo generativo. No se trata de redes profundas...

La IA solo funciona dentro de un marco: fuera de él, inventa

Imagen
El Marco: por qué la IA solo funciona cuando tú defines dónde puede pensar La IA no se equivoca porque sea estúpida, sino porque hace justo lo que fue diseñada para hacer: predecir palabras. Si no le marcas un marco claro, rellena huecos. Y cuando rellena huecos sin límites, alucina. La diferencia entre jugar con IA y usarla en serio es precisamente eso: el marco que decide dónde puede pensar. Las redes están llenas de ejemplos de gente ridiculizando a la IA. La escena es siempre la misma: alguien pide algo vago, la IA completa los huecos, y el usuario dice que "la IA es tonta". El problema no es la IA. El problema es que no existe ningún marco que limite su pensamiento. Cuando no hay marco, la IA improvisa. Y cuando improvisa, alucina. 1. La razón de fondo: la alucinación no es un fallo, es su naturaleza Un modelo de lenguaje no "entiende": predice la siguiente palabra. Esa e...