Entradas

Mostrando las entradas etiquetadas como Ética tecnológica

IA sin control: anatomía de un desastre profesional (y cómo evitarlo)

Imagen
1. El caso Deloitte: qué pasó realmente Deloitte entregó al Gobierno de Australia un informe estratégico elaborado con ayuda de inteligencia artificial. El resultado fue un escándalo que trascendió fronteras: el documento contenía referencias bibliográficas inexistentes, citas inventadas y datos sin verificación alguna. El gobierno tuvo que retirar el informe, la reputación de una de las consultoras más grandes del mundo quedó en entredicho y se abrió un debate global sobre los riesgos del uso profesional de IA generativa. Lo más revelador del caso no fue que la IA cometiera errores —eso es conocido y esperable—, sino que nadie en la cadena de producción pusiera frenos. No hubo auditoría, no hubo contraste de fuentes, no hubo segunda mirada. El fallo no fue tecnológico: fue metodológico. Y ese es precisamente el problema que este artículo aborda. 2. Por qué las IA "mienten" (y por qué es culpa nuestra) Las alucinaciones de los modelos generativos no son bugs: son característi...

La IA puede pensar más rápido que tú… pero nunca sabrá para qué

Imagen
Hace unos días, Sam Altman, director ejecutivo de OpenAI, lanzó una frase destinada a provocar titulares: «Un niño nacido en 2025 nunca será en ningún momento de su vida más inteligente que la inteligencia artificial» . La sentencia ha corrido por las redes como una profecía inevitable, y no faltan quienes la repiten con una mezcla de asombro y resignación: el ser humano habría llegado a su límite, y la máquina está a punto de superarlo. Pero tras el impacto inicial conviene hacer una pausa. No porque la frase sea exprese un imposible —de hecho, probablemente en unas décadas la inteligencia artificial superará en muchas tareas cognitivas a cualquier persona—, sino porque contiene una trampa conceptual que, si no la desenmascaramos, terminará por darnos una visión equivocada de la IA. Esa trampa consiste en reducir lo humano a “inteligencia”, como si fuéramos solo máquinas de procesar datos. Y no lo somos. El mito de la inteligencia como medida de lo humano Durante más de un siglo, e...

Enamorarse de un chatbot no es culpa del chatbot

Imagen
En los últimos meses han aparecido noticias y testimonios sobre personas que establecen vínculos afectivos intensos con chatbots avanzados. Un hombre canadiense relató que una aplicación conversacional le “salvó la vida” tras un divorcio y se convirtió en su pareja virtual; otro caso, recogido en The New York Times , hablaba de una mujer que dejó de salir de casa porque sentía que su compañero digital la entendía mejor que cualquier humano. También se han documentado episodios más dramáticos: usuarios que, tras largas conversaciones con una IA, acabaron en crisis de ansiedad o incluso con pensamientos autolesivos. Todos hemos leído historias similares. El fenómeno preocupa a psicólogos, periodistas y tecnólogos, que debaten si los modelos de lenguaje pueden manipularnos o dañar nuestra salud mental. No es extraño que surja alarma: los modelos conversacionales son cada vez más fluidos, empáticos y convincentes. En redes se popularizan capturas de pantalla de conversaciones románticas c...