Las ratas nadadoras o el mal uso de la inteligencia artificial
el
Obtener enlace
Facebook
X
Pinterest
Correo electrónico
Otras aplicaciones
Opinión · Inteligencia artificial · Tecnología y criterio
La IA no sustituye el conocimiento. Lo exige. Usarla bien no consiste en copiar la primera respuesta, sino en saber preguntar, contrastar, revisar y detectar cuándo una salida aparentemente plausible no sirve para el caso concreto.
El caso del hantavirus en Canarias ha dejado una imagen difícil de superar: un presidente autonómico utilizando una respuesta de inteligencia artificial para defender ante el Ministerio de Sanidad que las ratas podían nadar hasta la costa y poner en peligro a la población. La anécdota parece cómica, pero no lo es tanto.
La tentación inmediata es convertir el episodio en una burla contra la inteligencia artificial. “Ya está”, dirán algunos, “esto demuestra que la IA no sirve para nada”. Pero la conclusión correcta es justo la contraria: el problema no fue la IA. El problema fue usarla mal.
En un vistazo: la tesis del artículo
→La IA no reemplaza el conocimiento. Puede ayudarte a ordenar información, formular hipótesis o detectar relaciones, pero no convierte la ignorancia en criterio.
→Una buena respuesta a una mala pregunta sigue siendo un mal resultado. Preguntar si “las ratas nadan” no equivale a evaluar un riesgo epidemiológico real en un barco concreto.
→Trabajar con IA no es trabajar menos. Es trabajar de otra forma: preguntar mejor, repreguntar, revisar, contrastar y validar.
→El peligro no está en la herramienta, sino en la coartada. La IA puede convertirse en una máquina de confirmación cuando se usa para justificar una posición ya tomada.
→La IA no sirve para engañar mejor por naturaleza. Sirve para amplificar lo que el usuario pone sobre la mesa: rigor, método y conocimiento; o pereza, sesgo e irresponsabilidad.
→La conclusión es simple. La inteligencia artificial no reemplaza la ignorancia. La deja en evidencia.
I. El problema no fue la IA
Según publicó eldiario.es, Fernando Clavijo recurrió a un texto generado por IA para argumentar que las ratas son buenas nadadoras y que podían sobrevivir largos periodos en el agua. Sanidad respondió después con informes técnicos que descartaban el riesgo en esas condiciones concretas, y RTVE Verifica recogió que no se habían detectado roedores en el barco y que varios expertos consideraban muy improbable ese escenario.
El episodio es perfecto porque muestra el problema en bruto. No estamos ante una alucinación espectacular ni ante una conspiración tecnológica. Estamos ante algo mucho más vulgar: una mala pregunta, una respuesta descontextualizada y una decisión política que intentó apoyarse en ella.
La IA no falló sola. Falló quien la usó como coartada.
Una inteligencia artificial puede ayudarte a buscar relaciones, ordenar información, formular hipótesis, resumir documentos, detectar contradicciones o plantear escenarios. Pero no puede convertir la ignorancia en criterio. Si quien pregunta no sabe distinguir entre una generalidad biológica y una evaluación sanitaria concreta, la herramienta no soluciona el problema: lo amplifica.
II. Una buena respuesta a una mala pregunta puede seguir siendo inútil
Preguntar si “las ratas nadan” no es lo mismo que preguntar si, en un crucero concreto, con unas condiciones higiénicas concretas, con una especie concreta de roedor, con una distancia concreta hasta tierra y con un virus concreto, existe un riesgo epidemiológico real. La primera pregunta produce una curiosidad de enciclopedia. La segunda exige conocimiento experto.
Ahí está el fallo.
La IA puede responder correctamente a una pregunta mal planteada y, aun así, producir un resultado inútil o engañoso. Que algunas ratas puedan nadar no demuestra que hubiera ratas en el barco. Que una rata pueda sobrevivir en determinadas condiciones no demuestra que pudiera abandonar el buque, recorrer una distancia determinada, llegar a tierra, mantenerse viva, entrar en contacto con humanos y transmitir el virus.
→
Posibilidad abstracta: algunas ratas pueden nadar y sobrevivir durante cierto tiempo en el agua.
→
Riesgo real: presencia efectiva de roedores, especie identificada, condiciones concretas, probabilidad de salida del barco, llegada a tierra y transmisión epidemiológica.
→
Error político: confundir una posibilidad general con una evaluación sanitaria aplicable al caso.
Entre una posibilidad abstracta y un riesgo sanitario real hay un abismo. Ese abismo se llama conocimiento.
III. La IA no sirve para no trabajar
Este caso es útil porque permite desmontar uno de los grandes mitos negativos sobre la inteligencia artificial: la idea de que sirve para no trabajar. No. Sirve para trabajar de otra manera.
Trabajar con IA no consiste en escribir una pregunta, copiar la primera respuesta y usarla como argumento. Eso no es inteligencia aumentada. Es pereza automatizada. Trabajar bien con IA implica preguntar mejor, repreguntar, contrastar, revisar, contextualizar, desconfiar de la primera salida, pedir fuentes, comparar enfoques y someter el resultado al juicio humano.
Cómo se trabaja realmente con IA
→Formular: definir bien el problema antes de pedir una respuesta.
→Repreguntar: no conformarse con la primera salida.
→Contrastar: comprobar datos, fuentes y supuestos.
→Contextualizar: separar lo general de lo aplicable al caso concreto.
→Validar: someter la respuesta al criterio humano y, cuando corresponda, al experto.
La IA no elimina el trabajo. Cambia el lugar donde se concentra el trabajo.
Antes, buena parte del esfuerzo estaba en localizar información. Ahora, cada vez más, el esfuerzo está en formular buenas preguntas, discriminar respuestas y verificar su pertinencia. Antes el problema era encontrar algo. Ahora el problema es saber qué hacer con lo que encuentras.
Y eso exige más criterio, no menos.
IV. La trampa de confundir fluidez con verdad
El error de fondo consiste en tratar la IA como si fuera una autoridad. No lo es. Una IA no es un experto, no es un informe técnico, no es un dictamen científico, no es una sentencia judicial, no es un epidemiólogo, no es un biólogo marino ni un comité de salud pública.
Es una herramienta de generación y procesamiento de lenguaje capaz de ofrecer respuestas plausibles. A veces muy útiles. A veces brillantes. A veces peligrosamente convincentes.
La palabra clave es esa: plausibles.
Una respuesta plausible puede sonar bien y estar mal enfocada. Puede ser cierta en general y falsa en el caso concreto. Puede responder a lo que se ha preguntado, pero no a lo que se necesitaba saber. Puede ofrecer datos reales y conducir a una conclusión equivocada. Por eso la IA no debe usarse para sustituir el conocimiento, sino para dialogar con él.
Quien sabe del tema puede detectar cuándo una respuesta es superficial. Quien no sabe, tiende a confundir fluidez con verdad.
Idea central del artículo
Esa es una de las grandes trampas de la inteligencia artificial generativa: escribe bien incluso cuando razona mal, o cuando responde a una pregunta defectuosa. Su seguridad verbal puede tapar la fragilidad del argumento.
V. La máquina de confirmación
La IA puede convertirse en una máquina de confirmación. Si alguien ya ha decidido que el barco es un peligro, puede buscar una pregunta que produzca una respuesta compatible con esa intuición. No pregunta para saber. Pregunta para justificar. No usa la IA como instrumento de conocimiento, sino como proveedor de munición retórica.
Eso ya pasaba antes con Google. Uno podía buscar hasta encontrar una página que dijera lo que quería oír. La diferencia es que la IA lo hace más cómodo, más rápido y con mejor redacción. Te devuelve el argumento empaquetado, con apariencia de razonamiento, listo para pegar en un mensaje, un informe o una intervención pública.
→Primero se adopta una posición.
→Después se formula una pregunta que favorece esa posición.
→Luego se recibe una respuesta plausible.
→Finalmente se presenta esa respuesta como respaldo técnico.
Por eso el problema no es tecnológico. Es epistemológico. Tiene que ver con cómo sabemos lo que creemos saber.
VI. No es una herramienta para engañar, sino una herramienta que exige método
Usar bien la IA exige asumir varias reglas básicas. La primera: la calidad de la respuesta depende en gran medida de la calidad de la pregunta. La segunda: una respuesta útil no es necesariamente una respuesta verdadera en todos los contextos. La tercera: la primera salida rara vez debe ser la última. La cuarta: cuanto más delicado sea el tema, más necesaria es la verificación externa. Y la quinta: en asuntos sanitarios, jurídicos, científicos o políticos, la IA no puede sustituir a los especialistas.
Pero tampoco hay que caer en el extremo contrario. Sería absurdo decir que este episodio demuestra que la IA es inútil. Demuestra que usarla sin criterio es peligroso. Exactamente igual que una calculadora no vuelve matemático a quien no entiende qué operación debe hacer, una IA no vuelve experto a quien no comprende el problema que está planteando.
La calculadora puede multiplicar perfectamente una cifra equivocada. La IA puede redactar perfectamente una mala idea.
Ahí está la lección.
La inteligencia artificial no es una máquina mágica para ahorrarse el pensamiento. Es una herramienta que obliga a pensar mejor. Sirve para ampliar capacidades, no para disimular carencias. Puede acelerar procesos, pero no reemplazar el juicio. Puede ayudarte a escribir, pero no decidir por ti qué es cierto. Puede sugerir caminos, pero no garantizar que sean correctos. Puede darte una respuesta, pero no darte criterio.
Y el criterio no se descarga.
Se forma.
La IA no reemplaza la ignorancia. La deja en evidencia
La crítica seria a la IA no debería centrarse en caricaturas. No se trata de decir que la IA permite engañar, copiar, no trabajar o producir basura automáticamente. Eso existe, claro. Pero no define la herramienta. Define a quien la usa así.
La IA puede servir para trabajar peor, igual que puede servir para trabajar mejor. Puede fabricar humo o puede ordenar conocimiento. Puede multiplicar la ignorancia o puede ayudar a combatirla. Todo depende de la relación entre la herramienta y el usuario.
Quien no sabe nada y no quiere saber nada la usará como un atajo. Quien sabe, o quiere saber, la usará como un laboratorio.
El caso del hantavirus en Canarias enseña precisamente eso. No basta con preguntarle a una IA si las ratas nadan. Hay que saber qué se está preguntando, por qué se pregunta, qué falta en la respuesta, qué fuentes la sostienen, qué condiciones concretas modifican la conclusión y qué experto debería validarla. Lo demás no es inteligencia artificial. Es irresponsabilidad natural asistida por ordenador.
La IA no sustituye el trabajo. Sustituye algunas tareas, reorganiza otras y exige nuevas competencias.
El trabajo ya no consiste solo en producir texto o encontrar información. Consiste en dirigir el proceso, evaluar resultados y tomar decisiones con fundamento. Quien crea que la IA sirve para no saber, acabará demostrando públicamente lo contrario: que no sabía.
Las ratas nadadoras no son una anécdota sobre roedores.
Son una metáfora perfecta de nuestro tiempo: una respuesta rápida, aparentemente útil, sacada de contexto y convertida en argumento político. La IA no creó el ridículo. Solo lo redactó mejor.
La conclusión es sencilla: la inteligencia artificial no reemplaza la ignorancia. La deja en evidencia.
Fuentes y verificación:
Los datos concretos sobre el episodio del hantavirus, el crucero y la respuesta institucional deberán verificarse y enlazarse en la versión final antes de publicación. Este bloque queda preparado para incorporar las fuentes definitivas.
Caso hantavirus en Canarias. Añadir aquí las fuentes periodísticas y verificaciones utilizadas sobre el episodio.
Uso de IA y verificación. Añadir aquí, si se desea, referencias sobre alucinaciones, sesgo de confirmación, prompting, revisión experta y buenas prácticas de uso de IA generativa.
Comentarios
Publicar un comentario