Entradas

Mostrando las entradas etiquetadas como Cognición Artificial

La ilusión de la caja vacía: por qué nuestro marco mental del buscador distorsiona el uso de los LLM

Imagen
La interfaz parece familiar, pero la arquitectura es otra: cuando tratamos a un modelo generativo como si fuera un buscador, la interacción se contamina y los resultados se degradan. Durante décadas hemos aprendido a confiar en una caja de texto que promete verdad inmediata con el mínimo esfuerzo. Ese hábito cognitivo, útil en la era de los buscadores, se vuelve tóxico con los modelos generativos. Aunque la interfaz de un LLM parece la misma, su funcionamiento no lo es: no busca, no verifica y no razona. Genera. Y cuando entramos con el marco mental equivocado, contaminamos la interacción, provocamos alucinaciones y obtenemos resultados que interpretamos como fallos del sistema. La solución no es exigirle más a la tecnología, sino cambiar el modelo mental desde el que la usamos. Durante veinte años, la humanidad ha aprendido a relacionarse con la información a través de una interfaz simple: una caja de texto que promete verdad inmediata con el mínim...

Cuando la IA deje de ser estocástica

Imagen
La próxima generación será neuro-simbólica y verificable La estocasticidad no es el destino de la inteligencia artificial: es una etapa intermedia. Lo que viene no es una IA que improvisa con patrones, sino una que demuestra lo que afirma. En esta transición, la metamatemática deja de ser teoría y se convierte en arquitectura. La discusión pública sobre la inteligencia artificial se mueve en círculos. Repite que los modelos actuales “predicen palabras”, que funcionan por correlaciones y que eso será siempre así. Pero la estocasticidad no tiene por qué ser el núcleo: puede quedar confinada a un papel secundario dentro de arquitecturas más rigurosas. El futuro de la IA quizá no sea una máquina que produce frases plausibles, sino sistemas híbridos capaces de demostrar que lo que dicen es cierto. La transición ya ha empezado, al menos en algunos dominios. 1. La estocasticidad no es un fallo: es una limitación matemá...

El extraño talento de la IA para estropear lo que ya había entendido

Imagen
Por qué la IA cambia lo que ya funciona: la limitación oculta que te obliga a vigilarla todo el tiempo Lo más frustrante de trabajar con IA no son sus errores, sino sus “arreglos” espontáneos: cambios que no pides, formatos que ya había entendido y de repente rompe, variaciones absurdas que te obligan a volver atrás. Ese comportamiento no es un despiste ni un bug: es una limitación estructural de su diseño. Y explica por qué, sin supervisión constante, la IA no puede mantener tareas repetitivas estables. Hay algo más irritante que los errores de la IA: tener que vigilarla para que no cambie lo que ya funciona. Puedes darle la misma tarea repetitiva veinte veces —una tabla, un esquema, un HTML, un formato que ya ha entendido— y tarde o temprano lo deformará. Cambia columnas, altera el tono, reordena elementos, inventa matices que nadie pidió. Durante meses pensé que era un bug. No lo es. Los estudios recien...