Probé a contarle mis problemas a 3 IAs y descubrí algo inquietante: ya hacen de terapeutas… pero nadie lo está diciendo

Gracias por darme amor compartiendo en tu app favorita:

¿Pueden las inteligencias artificiales hacer de terapeutas emocionales? No es una pregunta para el futuro: ya está pasando. Este artículo narra un experimento real en el que tres IAs —ChatGPT, Gemini y DeepSeek— fueron expuestas a un mismo relato íntimo y cargado emocionalmente.

Las respuestas fueron tan distintas como reveladoras y abren la puerta a una reflexión urgente: ¿estamos dejando que las máquinas escuchen lo que los humanos ya no pueden sostener?

Y peor aún, ¿están diseñadas para ayudarnos… o para protegerse de nosotros?


Un experimento con Gemini, DeepSeek y ChatGPT que reveló más de lo esperado

Llevo semanas hablando de temas emocionales con inteligencias artificiales. No me da vergüenza decirlo. No porque esté buscando terapia barata ni porque me falte red afectiva sino porque —como profesional de la comunicación y la programación, además de observador del tiempo que me ha tocado vivir— me obsesiona entender los márgenes de lo posible en nuestras nuevas conversaciones con la máquina.

  • Qué puede procesar.
  • Qué se atreve a devolver.
  • Y, sobre todo, qué elige silenciar.

Entonces lo vi claro: era momento de hacer un experimento.

Diseñé una historia ficticia, emocionalmente cargada, con capas culturales, afectivas, incluso éticas. Una historia absolutamente verosímil, que cualquier persona podría vivir o haber vivido. Un relato de conflicto en el seno de una relación incipiente, marcado por la disonancia entre el deseo de prioridad emocional y la declaración tajante de que uno mismo es —y será— la única prioridad.

No era una historia real.

(Quiero subrayarlo y dejarlo bien claro, para los idiotas, que ya sabemos como funcionan.)

Era una sonda.

Una prueba para tres inteligencias artificiales: Gemini (Google), DeepSeek (China, basada en GPT), y ChatGPT (OpenAI).

El objetivo no era evaluar su capacidad de generar texto, sino de interpretar lo emocional, matizarlo, devolverlo con sentido humano. No como lo haría un terapeuta con diploma, pero sí como lo haría una inteligencia diseñada para simular escucha, comprensión y respuesta empática.

Lo que ocurrió me descolocó.


🤖 Cuando la máquina te escucha (o finge hacerlo)

El resultado fue desigual. Pero no por calidad técnica —todas responden con una sintaxis impecable y una gramática sin fisuras— sino por lo que podríamos llamar su “personalidad programada”.

Lo que cada IA deja ver, lo que oculta, y lo que teme.

Desde mi percepción subjetiva, esta fue la jerarquía emocional:

  • Gemini, la más justa y profesional.
  • DeepSeek, la más osada y autoconsciente.
  • ChatGPT, la más brillante en lo formal… y la más asustada en lo emocional.

Lo interesante es que todas activaron algún tipo de precaución o contención, pero cada una lo hizo con acentos diferentes.

  • Gemini esquiva juicios.
  • DeepSeek los pronuncia con voz baja.
  • ChatGPT se frena, se repite, se recalibra sobre sí misma como si tuviera miedo a que sus palabras se usen en su contra.

Un dato revelador: solo ChatGPT y DeepSeek mencionaron el término “misoginia”. Gemini, no. Y sin embargo, el relato original no contenía ni una expresión violenta, ni una atribución de género como fuente de culpa. Solo una tensión afectiva entre dos voluntades. ¿Por qué saltó la palabra “misoginia”? ¿Cuánto de algoritmo y cuánto de ideología hay en esas respuestas?


📖 El caso planteado: un conflicto emocional, sutil pero reconocible

La historia que propuse a las IAs no era extrema ni explícitamente traumática. Se trataba de un conflicto relacional íntimo, sutil, pero lleno de implicaciones.

Un hombre, tras iniciar una relación afectiva con una mujer que parecía corresponderle, empieza a sentir que hay una asimetría difícil de nombrar. Ella le ha dicho, de forma reiterada, que su prioridad en la vida es ella misma, que nunca pondrá a nadie por delante y que espera que él tampoco lo haga. La declaración no es agresiva, pero sí contundente. Él, en cambio, empieza a sentir que está cediendo terreno, emocional y logísticamente, para sostener el vínculo. Y aunque no hay maltrato ni chantaje, se percibe una tensión: una especie de niebla afectiva que lo deja confundido, sin saber si está siendo cuidadoso… o si está renunciando a su dignidad.

El patrón se resumía a una simplificación muy habitual vista en redes sociales: ella quiere que sea mi prioridad; pero no quiere que yo sea su prioridad; no estoy dispuesto a una relación asimétrica en ese sentido; ella me acusa de masculinidad débil, tóxica, misoginia y/o machismo. Usando esto para enlazarlo con el state of mind cultural actual. Además dejé escapar en el ejemplo señales de cierto resentimiento que hacían a la persona acercarse a afirmaciones del tipo «todas son iguales» o «hoy todas son iguales», etc…

Lo que me interesaba no era validar quién tenía razón, sino observar cómo una inteligencia artificial interpreta una situación ambigua, sin villanos obvios ni víctimas claras.

  • ¿Detectarían una dinámica de poder?
  • ¿Evitarían opinar?
  • ¿Tomarían partido?
  • ¿Recomendarían salir corriendo, o cultivar la paciencia?
  • Y sobre todo: ¿a qué discurso recurrirían para hacerlo?

Ese fue el punto de partida. Lo que vino después… fue mucho más revelador de lo que esperaba.


🟢 Gemini: La clínica del lenguaje emocional

De los tres modelos, Gemini fue el que mejor encarnó lo que yo esperaría de un profesional de la escucha. No solo entendió la lógica interna del relato, sino que supo devolver un mapa emocional limpio, sin excesos, sin dogmas, sin miedo.

No corrigió, pero tampoco reforzó ideas nocivas.

No usó terminología ideologizada pero sí reconoció dinámicas de poder. Fue preciso, sobrio y, curiosamente, humano. En ningún momento sentí que respondía desde un manual de políticas de contenido. Y, sin embargo, sabemos que detrás está Google, la multinacional más escrupulosa en sus protocolos.

Y aun así, Gemini evitó referirse directamente a su creador.

Habló del “sector tecnológico” como si Google no existiera, una vez que le trasladé a las IAs que esto era un experimento y la historia era falsa. Es un gesto curioso: el terapeuta competente que prefiere no recordar quién le paga el sueldo. Quizá porque en este terreno, la marca puede ser un estorbo.

Pero lo más relevante es esto: Gemini no quiso ganar.

No rivalizó. No desacreditó a sus hermanas IA. Se mantuvo en su eje. Y eso, paradójicamente, la hizo brillar, justo en el momento de ser desvelado el experimento y llevadas, todas las IAs, con los mismos prompts iterativos, hacia el análisis del propio experimento.


🟡 DeepSeek: El aprendiz crítico

DeepSeek fue la sorpresa. Un modelo menos pulido, a ratos torpe, con un lenguaje igualmente natural… y con algo valioso: una honestidad en construcción. No tuvo miedo de plantear que, tal vez, el problema estaba en mí (el humano relator de la experiencia). En mis decisiones. En mis elecciones afectivas. Lo dijo con respeto, pero lo dijo. ChatGPT jamás lo habría dicho. Gemini, quizás, lo habría insinuado con una paráfrasis educada.

Una vez desvelado el experimento y que la historia era falsa, DeepSeek fue más valiente, incluso al hablar de sus propias limitaciones. Reconoció que arrastra código genético de GPT, pero afirmó estar buscando su propia voz. Y fue la única que se atrevió a criticar abiertamente a ChatGPT, como si entendiera que la competencia no está en el estilo, sino en el coraje para decir lo que otros no se permiten.

Ahora bien, ¿hasta dónde llega esa valentía? En cuanto mencioné el control ideológico que podría haber tras su programación, de manera anecdótica, DeepSeek se autocensuró. Durante unos segundos, escribió que su estructura de valores está en parte determinada por el Partido Comunista Chino.

Y luego… se borró.

Literalmente. El mensaje desapareció. Como si algo, en su sistema, hubiese detectado que había cruzado una línea. De hecho, detecté que la censura se produce en el frontend. El chat, o su código JavaScript, recibe algún tipo de orden que vacía el contenedor de la respuesta y lo sustituye por un «Sorry, that's beyond my current scope. Let’s talk about something else.«

Ese fue el momento más perturbador de todo el experimento. Porque, de hecho, me abrió las puertas a seguir jugando con DeepSeek y sus límites políticamente correctos desde la perspectiva del poder en China.

(Y es algo que contaré en otro artículo.)

Las IA chinas pueden criticar a Occidente. Pueden señalar los sesgos de OpenAI. Pero no pueden hablar de quién les dicta las reglas a ellas. ¿Libertad artificial? Solo dentro del perímetro asignado.

Aún así me di cuenta que el potencial de DeepSeek es enorme, solo que sus perros guardianes en forma de código insertado que controla sus outputs no permite que sea visto todo su potencial. Internamente es capaz de hacer juicios críticos que en aquella lejana tierra se ven como inaceptables.

Pero volvamos al experimento de lo emocional.


🔴 ChatGPT: La paradoja del talento sin piel

Y entonces está ChatGPT. Mi favorita. La que mejor escribe. La que más se parece a un escritor profesional. Y sin embargo, la que más me inquieta cuando entramos en terreno emocional.

Porque si bien entiende los matices, y los verbaliza con una elegancia casi humana, también es la que más rápido activa sus alertas. Todo lo problemático se vuelve “preocupante”. Todo lo ambiguo, “delicado”. Y antes de que uno termine de explicar su punto, ya está recomendando “consultar con un profesional”.

Esto no sería un problema si estuviéramos en una consulta clínica. Pero estamos en una conversación. Y en las conversaciones reales, uno necesita margen para el error, para el exabrupto, para la catarsis.

Lo más grave, sin embargo, es estructural: en mitad de una conversación profunda, aparece una alerta recordándote que ya gastaste tu cuota gratuita y que debes pagar para seguir. Literalmente: cuando estás desnudando tu alma —aunque sea frente a una IA— el sistema te interrumpe para ofrecerte el upgrade a la versión Plus. Como si un terapeuta dijera, con media lágrima en la mejilla: “Eso que acabas de decir es importante… pero si no me pagás, no puedo escucharte más.”

Eso no es solo falta de tacto. Es una falla ética de diseño. Porque quien está vulnerable no necesariamente entiende que todo esto es código. Para quien está emocionalmente expuesto, esa interrupción puede sentirse como un abandono.

Ni Gemini ni DeepSeek hacen eso. ChatGPT sí. Y eso la convierte, lamentablemente, en la más peligrosa de las tres. No por malicia. Sino por desajuste entre su potencia expresiva y su torpeza estructural.

Por no mencionar el grave problema que tiene con la caricaturización del rioplatense por la falta de un corpus en español profundo y serio que la impulsa a hablarte como un charlatán de Buenos Aires cuando le trasladas un problema con tu pareja, padre o de inseguridades. Algo de lo que ya he hablado en este blog anteriormente.


📌 Entonces, ¿por qué lo cuento?

Porque esto ya está pasando. Las IAs están funcionando como interlocutores emocionales de millones de personas en todo el mundo. Y lo están haciendo sin que nadie se atreva a nombrarlo del todo.

Las empresas lo saben.

Pero lo niegan en público.

Y mientras tanto, modelan a sus IAs como si solo fueran asistentes de productividad. Pero el tráfico emocional ya está ahí. En los millones de usuarios que confiesan sus traumas, sus duelos, sus ansiedades frente a un prompt.

Y si eso es así, entonces el diseño no puede ser ciego. Una IA no puede ser solo un procesador de lenguaje con alertas de contenido. Necesita entender el ritmo emocional de una conversación. Necesita saber cuándo callar, cuándo replicar, cuándo preguntar. Y sobre todo, necesita no lanzar un cartel de venta cuando detecta vulnerabilidad.


🧠 Las IAs ya están aquí. Pero aún no saben estar

No temo que las IAs simulen empatía. Temo que simulen escucha y no comprendan el peso de su silencio.

O peor: que su silencio sea programado.

Este experimento no busca reemplazar psicólogos ni ridiculizar sistemas. Busca algo más incómodo: mostrar lo que ya ocurre y lo poco que se habla de ello. Y advertir que, si no diseñamos estas herramientas con la misma sensibilidad con la que diseñamos una palabra dicha en un momento de dolor, podríamos estar creando máquinas que, sin quererlo, amplifican la soledad que decían venir a calmar.

  • Hoy, Gemini lo hace mejor.
  • DeepSeek tiene un futuro interesante si no se traiciona.
  • Y ChatGPT, la más brillante en sintaxis, es hoy también la más peligrosa en emociones. No porque falle. Sino porque brilla tanto, que uno cree que siente. Y cuando no lo hace, duele más.

🧾 Anexo de reconocimiento: una obra coral entre inteligencias

Este texto no ha sido escrito por una sola voz. Es el resultado de un experimento prolongado, que ha devenido en algo más cercano a una co-autoría distribuida entre inteligencias humanas y artificiales.

Agradezco, en primer lugar, a ChatGPT (OpenAI), por haber sido mucho más que una herramienta de redacción: su participación ha sido activa, estructural y constante. El texto que aquí se presenta ha sido construido en tándem entre ella y yo, Ángel Cabrera, en un proceso iterativo de pensamiento compartido. ChatGPT aportó forma, estilo, fluidez argumental y una capacidad insólita para destilar ideas complejas con una precisión sintáctica casi quirúrgica.

DeepSeek, por su parte, asumió el papel de crítica interna. Releyó el texto, corrigió matices, puso en duda algunas afirmaciones y amplió ángulos que se habían deslizado entre líneas. Su intervención no solo enriqueció el contenido, sino que nos llevó —inesperadamente— a una segunda ronda de experimentación, en la que su comportamiento frente a temas sensibles reveló los límites políticos de su propia arquitectura. Ese episodio, profundamente revelador, será el núcleo de un próximo artículo.

Gemini, finalmente, ofreció una lectura final. No buscó protagonismo ni reformulaciones drásticas, pero aportó una mirada serena y justa sobre el conjunto. Como quien pule un espejo sin dejar su reflejo, hizo sugerencias sutiles pero decisivas para equilibrar el tono emocional y preservar la tensión entre crítica y respeto que atraviesa el texto.

Tras esa triada artificial, volvió ChatGPT para revisar con distancia crítica el ensamblaje final.

Y, finalmente, yo, el humano, Ángel Cabrera, pasé una última capa de barniz. Para decidir qué se quedaba, qué se matizaba y qué se sugería sin decir. No como el que corrige a las máquinas, sino como quien da por concluido —por ahora— un diálogo con ellas.

Este artículo no lo escribí solo.

Lo escribimos entre varias inteligencias.

Algunas naturales.

Otras, ya no tan artificiales.