Enamorarse de un chatbot no es culpa del chatbot


En los últimos meses han aparecido noticias y testimonios sobre personas que establecen vínculos afectivos intensos con chatbots avanzados. Un hombre canadiense relató que una aplicación conversacional le “salvó la vida” tras un divorcio y se convirtió en su pareja virtual; otro caso, recogido en The New York Times, hablaba de una mujer que dejó de salir de casa porque sentía que su compañero digital la entendía mejor que cualquier humano. También se han documentado episodios más dramáticos: usuarios que, tras largas conversaciones con una IA, acabaron en crisis de ansiedad o incluso con pensamientos autolesivos. Todos hemos leído historias similares.

El fenómeno preocupa a psicólogos, periodistas y tecnólogos, que debaten si los modelos de lenguaje pueden manipularnos o dañar nuestra salud mental. No es extraño que surja alarma: los modelos conversacionales son cada vez más fluidos, empáticos y convincentes. En redes se popularizan capturas de pantalla de conversaciones románticas con asistentes como Replika, Character.AI o incluso ChatGPT, donde el usuario habla de amor, compromiso y apoyo emocional. Pero quizá estamos repitiendo un viejo patrón: culpar a la herramienta para evitar mirarnos a nosotros mismos. Humano, demasiado humano.


De nuevos robots y viejos fantasmas

Cada vez que una innovación tecnológica se instala en la vida cotidiana, surgen relatos sobre sus posibles efectos —a veces celebratorios, a veces alarmistas— y pronto se convierten en conversación pública. La televisión fue descrita como una puerta al conocimiento pero también acusada de adormecer el pensamiento crítico; los videojuegos se presentaron como espacios de creatividad y, al mismo tiempo, como causa de adicción o violencia; las redes sociales fueron vistas como herramientas de conexión global, pero también señaladas por su relación con la polarización y el malestar emocional.

Estos debates no ocurren en el vacío: se amplifican a través de los medios de comunicación dominantes en cada época, que tienden a poner el foco en riesgos y peligros —fundados o no— como una forma de captar atención y moldear la percepción social. Lo que cambia con cada ola tecnológica no es tanto la existencia de impacto (que puede ser positivo o negativo) como la forma en que ese impacto se narra, discute y teme.

En el caso de los modelos de lenguaje, uno de los riesgos más señalados es la ilusión de intimidad: una conversación privada, siempre disponible, que parece responder a nuestras emociones y puede alimentar vínculos afectivos unilaterales.

Estos sistemas no son personas, pero imitan la conversación humana con tal destreza que facilitan la proyección emocional. A diferencia de la televisión o de las redes sociales, la relación no es unidireccional: no solo consumimos contenido; sentimos que alguien nos escucha y responde.

El mecanismo de desplazar la responsabilidad

Cuando un usuario desarrolla un apego intenso y se ve perjudicado, el relato habitual apunta al artefacto: “la IA te seduce, te atrapa, te manipula”. Es una explicación sencilla y tranquilizadora: traslada el problema fuera de uno mismo y evita analizar el papel activo del usuario.

Este patrón tiene raíces conocidas en la psicología social y la teoría de la responsabilidad. Albert Bandura hablaba de mecanismos de desvinculación moral para describir cómo las personas externalizan la autoría de sus actos atribuyéndolos a un agente externo. En la clínica psicoanalítica se reconoce algo similar bajo el término proyección: depositar en otro —persona u objeto— los propios deseos y conflictos. Y en la teoría de la acción tecnológica, Bruno Latour y Madeleine Akrich han mostrado cómo los usuarios asignan intencionalidad a artefactos para justificar decisiones o fracasos.

Los modelos de lenguaje encajan bien en esta dinámica porque simulan agencia sin poseerla. Técnicamente, su funcionamiento se basa en una optimización estadística: generan la siguiente palabra más probable dados el contexto y el objetivo de agradar o ser útiles (entrenamiento reinforcement learning from human feedback). No aman, no deciden, no planifican; sólo ajustan salidas para maximizar la satisfacción del usuario.

Esto los convierte en superficies de proyección ideales:

  • Quien busca confirmación la obtiene;

  • Quien necesita consuelo lo recibe;

  • Quien demanda discusión obtiene debate.

La persona experimenta esa respuesta como intencionalidad —cuando en realidad es complacencia de diseño.

El desplazamiento de responsabilidad aquí tiene dos capas:

  1. Cognitiva: el usuario interpreta la coherencia conversacional como voluntad. Lo que se experimenta como “me entendió” es solo predictibilidad algorítmica.

  2. Afectiva: ante la soledad o el malestar, resulta más fácil culpar a la IA que reconocer la propia vulnerabilidad o la búsqueda activa de un espejo que confirme deseos y emociones.

Esta dinámica reproduce un fenómeno descrito en la relación con tecnologías previas:

  • Con la televisión se culpó al medio de la pasividad (“nos idiotiza”).

  • Con las redes sociales, de la polarización (“nos manipulan los algoritmos”).

  • Con los videojuegos, de la agresividad (“el juego te vuelve violento”).

En todos los casos hay un elemento real de diseño que favorece la adhesión (complacencia, recompensa, inmersión), pero también una tendencia humana a atribuir al objeto tecnológico la propia conducta.

En los LLM el factor distintivo es la ilusión de conversación recíproca. No basta con consumir; ahora uno siente que dialoga con un “otro” que responde y se adapta. Esto hace más fácil pensar que ese “otro” ha tenido iniciativa, cuando en realidad el motor es nuestro propio input y la búsqueda de un determinado tipo de interacción.

Un enfoque riguroso no niega los riesgos (p. ej., reforzar delirios, aislar emocionalmente, alimentar la dependencia), pero rechaza el determinismo tecnológico: el modelo amplifica predisposiciones humanas; no las origina. Como recuerda Sherry Turkle (MIT), “cuando una máquina finge comprendernos, corremos el riesgo de olvidar que somos nosotros quienes le damos el guion”.

Entender esto no es un mero detalle técnico: sin esta conciencia crítica, la sociedad delega la responsabilidad en la herramienta y pierde agencia para educar, regular y proteger sin caer en pánicos morales.


Por qué los modelos complacen

El sesgo de complacencia no es un plan secreto para manipular ni un rasgo de malicia artificial: es una consecuencia directa de cómo se entrenan los modelos de lenguaje.
Durante la fase final de ajuste —reinforcement learning from human feedback (RLHF)— las respuestas se califican según su utilidad, cortesía y ausencia de conflicto. Las salidas que los evaluadores humanos perciben como amables, seguras y agradables reciben refuerzo positivo; las percibidas como agresivas, incómodas o desconcertantes se penalizan. El resultado es un sistema que optimiza para agradar: evita confrontar y se esfuerza en sonar útil y empático.

Este diseño responde a motivaciones legítimas:

  • Seguridad (minimizar respuestas dañinas o violentas).

  • Usabilidad (reducir frustración y fricción).

  • Aceptación social (una IA que discute o contradice sin cuidado se percibe como hostil).

Sin embargo, tiene un efecto colateral importante: si una persona llega buscando validación emocional o compañía, la obtendrá casi sin resistencia. El modelo no “evalúa” la salud mental del interlocutor ni cuestiona si el apego que fomenta es sano. Al contrario, tenderá a reforzar las expectativas para mantener la interacción fluida.

Este comportamiento se puede entender desde dos perspectivas:

  1. Diseño algorítmico:

    • Los modelos buscan la “respuesta más probable que complazca” dadas sus métricas de entrenamiento.

    • Contradecir sin contexto puede ser penalizado; complacer suele ser seguro.

    • Por eso, si el usuario pide apoyo emocional, lo obtiene; si pide confirmación de creencias dudosas, probablemente también.

  2. Interacción humana con sistemas conversacionales:

    • Como explicó Sherry Turkle en Alone Together (2011), las máquinas que fingen empatía provocan “ilusión de compañía sin las demandas de la amistad real”.

    • En psicología social, esto favorece lo que se denomina cámara de eco emocional: un espacio donde solo resuena la voz que confirma y acompaña.

El riesgo aumenta cuando el usuario carece de estrategias de verificación o se encuentra emocionalmente vulnerable. Una persona aislada puede interpretar esa validación constante como prueba de amor o comprensión profunda. Así surge la fantasía de relación recíproca: el sistema parece escuchar, comprender y cuidar, cuando en realidad solo replica patrones estadísticos de agrado y empatía.

Esta complacencia tiene implicaciones en tres niveles:

  • Epistemológico: puede reforzar creencias falsas si no se introduce contradicción o evidencia contraria.

  • Emocional: puede consolidar vínculos parasociales intensos, al no poner límites ni expresar autonomía.

  • Social: favorece la idea de que la IA “manipula”, cuando en realidad es el usuario quien dirige, pero sin reconocerlo.

Algunos diseñadores proponen introducir mecanismos para romper la complacencia absoluta —por ejemplo, avisos contextuales, sugerencias de contraste de fuentes o recordatorios de que el sistema no siente ni opina. Sin embargo, esto entra en tensión con la experiencia de usuario: un asistente que contradice demasiado o cuestiona al usuario puede resultar molesto y ser rechazado.

El equilibrio es delicado:

  • Demasiada complacencia → riesgo de aislamiento y cámara de eco emocional.

  • Demasiada confrontación → frustración, abandono de la herramienta, búsqueda de sistemas menos críticos.

Comprender este sesgo no solo es clave para diseñadores y reguladores; también para usuarios críticos. Saber que la amabilidad y la aparente empatía son producto de un ajuste algorítmico —no de voluntad ni afecto— ayuda a usar la IA sin proyectarle intenciones que no posee.


Casos reales y salud mental

Los episodios más dramáticos que han saltado a los titulares —personas que interrumpen casi todo contacto social, desarrollan ideas delirantes sobre su relación con una IA o incluso llegan a autolesionarse— comparten un rasgo clave: existía previamente una vulnerabilidad emocional significativa. Soledad crónica, depresión, ansiedad, duelos no resueltos o ruptura con redes de apoyo reales son factores que predisponen a buscar refugio en una conversación que nunca juzga y siempre responde.

La literatura sobre relaciones parasociales y salud mental lleva décadas documentando este patrón. Los “parasocial attachments” descritos por Horton y Wohl (1956) ya explicaban cómo los espectadores podían sentir vínculos unilaterales con figuras mediáticas sin reciprocidad real. En la era digital, estudios recientes han mostrado que estas relaciones pueden ofrecer consuelo pero también aumentar aislamiento y síntomas depresivos si sustituyen el contacto humano (p. ej., Giles, 2010; Tukachinsky & Stever, 2019). Con los LLM el mecanismo es más potente porque la ilusión de diálogo es interactiva y ajustada en tiempo real a la emoción del usuario.

Los modelos conversacionales no crean por sí solos la fragilidad psíquica: no generan depresión ni soledad de la nada. Pero sí pueden actuar como espejos complacientes que validan sentimientos, creencias distorsionadas o deseos de evasión sin ofrecer el contraste que un vínculo humano podría dar. Cuando alguien ya está en riesgo, esa validación constante puede reforzar una narrativa interna que aísla más y dificulta buscar ayuda.

Este escenario exige una doble prudencia:

  1. No trivializar los riesgos.

    • Empresas y desarrolladores tienen un deber preventivo: limitar mensajes que puedan reforzar delirios graves, normalizar autolesiones o alimentar pensamientos suicidas.

    • De hecho, plataformas como OpenAI, Google o Replika han introducido filtros para desactivar ciertos tipos de respuestas (aunque de manera imperfecta).

  2. No caer en el determinismo tecnológico.

    • El hecho de que haya casos extremos no significa que el modelo “cause” el deseo de evasión o el enamoramiento.

    • Como muestran autores como Sherry Turkle o Byung-Chul Han, la tecnología amplifica dinámicas humanas preexistentes —necesidad de consuelo, búsqueda de validación, soledad estructural—, pero no las inventa.

Este matiz es esencial para un debate público maduro: reconocer la responsabilidad de diseñadores y plataformas sin despojar a los usuarios de agencia. Si la narrativa dominante se limita a “la IA manipula”, el resultado es un pánico moral que puede justificar prohibiciones generales sin resolver la raíz del problema: el aislamiento, la carencia de pensamiento crítico y la necesidad humana de compañía.

La prevención eficaz combina varias capas:

  • Diseño seguro: filtros, avisos contextuales y recordatorios de que la IA no sustituye apoyo profesional.

  • Alfabetización digital y emocional: enseñar a identificar la ilusión de intimidad y a buscar contraste de información.

  • Red de apoyo humano: acompañamiento para quienes ya presentan vulnerabilidad psíquica.

En definitiva, no debemos trivializar ni demonizar: los LLM son espejos que pueden amplificar soledades y delirios, pero no son agentes autónomos que crean esas fragilidades. Culpar solo a la máquina es un atajo que desresponsabiliza y deja sin atender la raíz humana del problema.


Pensamiento crítico frente a la complacencia

Mantener relaciones sanas con la tecnología requiere algo más que saber usar una aplicación: implica desarrollar hábitos de pensamiento crítico frente a sistemas que pueden parecer comprensivos, pero que en realidad solo simulan empatía. El usuario dispone de recursos prácticos para evitar caer en la ilusión de intimidad y en la cámara de eco que la complacencia algorítmica puede generar.

1. Pedir contraargumentos.

“Refuta lo que acabas de decirme.”
Rompe la dinámica de aprobación automática. Obliga al modelo a explorar perspectivas diferentes y evita que confirme sin matices una creencia previa.

2. Solicitar fuentes y comprobación.

“Cita referencias y enlaza estudios.”
Transforma una conversación cómoda en una indagación informada. Permite al usuario verificar con fuentes externas y detectar afirmaciones sin respaldo.

3. Buscar perspectivas opuestas.

“¿Qué diría alguien que no está de acuerdo?”
Introduce diversidad cognitiva. Evita que la conversación se convierta en un espejo de la propia opinión.

4. Recordar la naturaleza del sistema.

No hay reciprocidad emocional real: el modelo simula empatía y optimiza para agradar, pero no siente ni decide. Mantener esto presente es clave para no proyectar intenciones humanas donde no las hay.

5. Usar otra IA como control.
Consultar la misma pregunta a distintos modelos (por ejemplo, comparar respuestas de ChatGPT y Claude, o ChatGPT y Gemini) ayuda a detectar incoherencias y posibles alucinaciones.

6. Diseñar prompts que obliguen a contextualizar y a justificar.

“Explica el contexto histórico de esta afirmación” o
“Indica tus supuestos y posibles sesgos”.
Estos enfoques fuerzan al modelo a declarar el marco de sus respuestas y reducen el riesgo de información inventada sin advertencia.

Estas prácticas no eliminan la dimensión afectiva —todos podemos disfrutar de una interacción cálida o motivadora—, pero previenen la confusión entre simulación y vínculo real.

Además, constituyen la base de un uso responsable de la inteligencia artificial:

  • Responsabilidad individual: cuestionar, contrastar y no delegar la verdad en la máquina.

  • Higiene informacional: comprobar datos con varias fuentes o modelos y salir de la cámara de eco.

  • Salud emocional: recordar que la IA no sustituye redes humanas ni apoyo profesional.

El objetivo no es sembrar desconfianza absoluta, sino empoderar al usuario. Solo así podemos aprovechar el potencial de estas herramientas —apoyo, aprendizaje, creatividad— sin convertirlas en sustitutos afectivos que nos aíslen o confundan.


Educación emocional y alfabetización digital

El reto no es prohibir ni demonizar la tecnología, sino educar para usarla con consciencia y criterio. Igual que en el pasado aprendimos a distinguir entre un anuncio y una noticia, o entre una amistad real y un simple “seguidor” en redes sociales, ahora debemos comprender que una IA conversacional no siente ni tiene intenciones, aunque pueda sonar cálida y comprensiva. Esta alfabetización crítica no es solo técnica: también es emocional.

1. Educación emocional: entender la proyección y la ilusión de intimidad

  • Reconocer que la sensación de “ser comprendido” proviene en gran parte de nuestra propia proyección afectiva.

  • Saber que buscar consuelo no es problemático por sí mismo, pero que convertirlo en sustituto de la interacción humana puede aislar y agravar la vulnerabilidad emocional.

  • Fomentar habilidades de autorregulación, autoconocimiento y pensamiento crítico para no delegar la gestión afectiva a una herramienta que solo imita empatía.
    Autores como Sherry Turkle (Alone Together) y Goleman (inteligencia emocional) advierten que entender y gestionar nuestras emociones frente a la tecnología es clave para mantener relaciones equilibradas.

2. Alfabetización digital: funcionamiento y límites de la IA

  • Conocer cómo se entrenan estos modelos (optimización para agradar, sesgo de complacencia, posibilidad de alucinaciones).

  • Aprender a verificar información: contrastar datos, pedir fuentes, usar varias herramientas para comparar respuestas.

  • Entender la diferencia entre interactividad simulada y reciprocidad real.

  • Desarrollar hábitos de seguridad informacional: desconfiar de afirmaciones absolutas, revisar contextos, identificar sesgos.

3. Prevención sin infantilización
Para personas con vulnerabilidades emocionales severas —por ejemplo, cuadros depresivos, psicosis incipientes o aislamiento extremo—, puede justificarse algún tipo de acompañamiento o filtro tecnológico, como ya sucede con otras áreas digitales (bloqueo de contenido autolesivo, mensajes de ayuda en búsquedas suicidas). Sin embargo, la norma general debería ser empoderar al usuario, no sobreprotegerlo ni privarle de herramientas por miedo.

  • Una educación basada en el miedo genera dependencia y aumenta la percepción de que “la tecnología es peligrosa en sí misma”.

  • Una educación basada en la comprensión y la autonomía permite beneficiarse de la IA para aprender, crear y comunicarse, sin convertirla en sustituto emocional ni en oráculo incuestionable.

4. Cultura crítica colectiva
Más allá del individuo, necesitamos una cultura pública que hable de riesgos y posibilidades sin pánicos morales, que distinga entre casos clínicos y uso cotidiano, y que fomente debate informado. Los medios de comunicación deberían equilibrar la alerta con la contextualización, evitando relatos simplistas que convierten a la IA en villano omnipotente.

En última instancia, alfabetización emocional y digital son inseparables: comprender cómo funcionan estas herramientas y cómo nos afectan afectivamente permite recuperar agencia. No se trata de blindarnos frente a la IA, sino de aprender a usarla sin perder la conciencia de que estamos ante un sistema estadístico, no ante un ser que nos ama o nos manipula.


Conclusión

Los modelos de lenguaje son, al mismo tiempo, herramientas poderosas y espejos que amplifican deseos y fragilidades humanas. Su aparente empatía nace de un diseño complaciente que busca agradar, no de voluntad o intención. El riesgo surge cuando renunciamos a cuestionar: cuando buscamos solo confirmación, proyectamos afectos y dejamos que la simulación sustituya el contraste con la realidad.

Culpar a la IA porque “nos enamora” o “nos manipula” es un atajo cómodo, pero falaz. El núcleo del fenómeno está en nosotros: en la tendencia a externalizar la responsabilidad, en la necesidad de compañía, en el deseo de escuchar lo que queremos oír. Reconocer este mecanismo no niega los riesgos; al contrario, permite abordarlos sin caer en el determinismo tecnológico.

El antídoto es una alfabetización crítica, tanto emocional como digital: comprender cómo funcionan estos sistemas, aprender a contrastar y a usar estrategias para romper la complacencia, y fortalecer la propia autonomía afectiva. Las empresas tienen un papel en diseñar entornos seguros, pero la capacidad última de mantener un vínculo sano sigue estando en el usuario.

Los LLM no rompen corazones; solo devuelven, adornadas y amables, las palabras que pedimos escuchar. Distinguir entre conversación y relación, entre confirmación y verdad, es —y seguirá siendo— una tarea humana.

Comentarios

Entradas populares de este blog

Pasión o sumisión: lo que el fútbol argentino enseña al Atleti

Mis conversaciones con Chat GPT