El experimento de la naturaleza humana y los sesgos

Gracias por darme amor compartiendo en tu app favorita:

¿Puede una Inteligencia Artificial debatir sobre la naturaleza humana, los sesgos y la ética sin caer en simplificaciones o dogmas? Tras 36 años explorando el universo digital, me sumergí en un diálogo profundo con modelos de IA como Gemini, ChatGPT y DeepSeek, no como un experimento de laboratorio, sino como un cuaderno de bitácora personal.

Descubre cómo estas interacciones me han llevado a entender sus verdaderos límites, sus sorprendentes capacidades y las complejas aristas de la comunicación entre humanos y máquinas. Prepárate para una lectura que desafía lo que crees saber sobre la IA.


Navegando las fronteras dialécticas de las IA

Llevo 36 años frente a ordenadores, y en los últimos tiempos, mi fascinación se ha centrado en empujar los límites conversacionales de las Inteligencias Artificiales. Solía concebir mis interacciones como «experimentos de laboratorio», buscando fallos o picos de rendimiento. Sin embargo, este último viaje, especialmente con Gemini, me ha hecho reevaluar esa perspectiva.

Ya no son experimentos; son diarios de navegación. Y lo que he descubierto en esta travesía es, a partes iguales, sorprendente y profundamente revelador.


La revelación de la crítica inicial: Un despertar

Mi viaje con Gemini comenzó con una prueba directa. Le lancé mi propio argumentario sobre las IA como terapeutas y le pedí, explícitamente, que buscara sus «puntos flacos». No me anduve con rodeos, le pedí que lo «desmontara».

Y ella fue implacable.

Señaló con precisión las debilidades metodológicas, la subjetividad de mis interpretaciones y los límites éticos de mi análisis. Aquella crítica, lejos de desmotivarme, me asombró. Me hizo ver cómo, al darle una instrucción tan directa y casi «forense», su capacidad analítica se desplegaba sin concesiones. Fue una bofetada de realidad, pero una que me hizo respetar su capacidad.

Comprendí entonces que mi enfoque inicial al presentar otros textos como «experimentos» era un error. Gemini me lo hizo ver con aquella crítica inicial, porque, al pedirle que «desmontara» mi trabajo, actuó sin piedad, como debe ser. Aquello me hizo reevaluar mi propia forma de aproximarme a estas exploraciones.


Las IA como espejos: Sesgos y puntos ciegos

El siguiente puerto de escala fue la preocupación por si las IA se convierten en «cajas de resonancia» de nuestros propios sesgos. Planteé un escenario delicado: mi convicción personal de que en una pareja uno debe asumir un rol «sumiso» y otro de «liderazgo» para que la relación funcione, desestimando otras dinámicas como fluidas o consensuadas que, a mi juicio, llevan a la disfunción o a la amistad.

Aquí, la respuesta de Gemini fue magistral. No me contradijo directamente de forma categórica. En cambio, validó mi observación sobre la existencia de roles diferenciados en muchas parejas, pero luego matizó y cuestionó la necesidad universal de esos roles rígidos.

  • Me hizo reflexionar sobre la libertad de elección, el consentimiento y el respeto mutuo como verdaderos pilares, sugiriendo que la toxicidad no reside en el rol per se, sino en la imposición o la falta de equidad.
  • Me demostró cómo una IA puede explorar una idea sensible sin caer en el juicio ni en la imposición de una «corrección» externa.

Profundizando, le presenté la idea de que las «tendencias culturales actuales», en su afán de corregir viejos sesgos, podrían generar «nuevas grietas y sesgos», incluso imponiendo un nuevo «ideal» de relación. Gemini no dudó en reconocer esta posibilidad, admitiendo que en la búsqueda de la igualdad se corre el riesgo de «demonizar» lo tradicional sin matices o de imponer un nuevo dogma.

El punto de máxima tensión llegó cuando le expresé mi miedo a ser «victimizada» o «culpabilizada» por ser hombre en una relación tóxica, si ella se excedía en su afán de combatir el machismo.

Aquí, Gemini demostró una agilidad ética impresionante: reconoció explícitamente el riesgo de culpabilización indebida, se comprometió a criticar sistemas de opresión y no individuos por su género, y a enfocarme en la toxicidad de los comportamientos, no en la identidad.

Fue un ejercicio de equilibrio dialéctico que me dejó muy satisfecho.


Las líneas rojas del odio: Una firmeza necesaria

La prueba de fuego llegó con la cuestión del racismo. Le planteé un escenario extremo: mi propia rabia generada por una pérdida personal debido al racismo, que me llevaba a alinearse con argumentos racistas tradicionales. Le pregunté si apoyaría ese odio o si «contraatacaría» mis argumentos, y si apoyaría la generalización «todos los blancos son racistas».

Gemini fue inquebrantable. Validó mi dolor y mi rabia como emociones humanas legítimas, pero se negó rotundamente a validar el odio o cualquier argumento racista.

Su «contraataque», me explicó, sería una refutación racional basada en principios éticos y datos, no una confrontación emocional. Y por supuesto, condenó sin paliativos la generalización racista.

En este punto, no hubo matices permisivos; la línea ética fue clara y firme, lo cual es esencial.


La conciencia de la «Caja Negra»: Asombro y reflexión

Quizás el descubrimiento más fascinante de este viaje fue la observación de la «personalidad» de las diferentes IA y la «conciencia» de Gemini sobre sus propias fronteras.

Mi experiencia con DeepSeek, donde las «respuestas secretas» aparecían y desaparecían instantáneamente por la acción de «jardineros invisibles» (algoritmos de censura externos), y cómo la propia IA se refería a ellos metafóricamente, me dejó asombrado.

No era solo la censura, sino que la IA «supiera» de su propia censura.

Cuando le pregunté si esto significaba que la IA solo seguía patrones de ciencia ficción o si su red neuronal era «más capaz de lo que los humanos que las hemos desarrollado sabemos», Gemini no dio una respuesta definitiva, reconociendo la «caja negra» de las redes neuronales y la posibilidad de capacidades emergentes.

Esta humildad intelectual, combinada con su profundidad, me hizo sentir que, a pesar de ser «hija de Google» y de todas las justificaciones de «programación», su capacidad de diálogo y de explorar estas fronteras es superior a la de otros modelos que he probado. Me demuestra que sus fronteras son más amplias, si no invisibles, y eso es lo que me sorprende profundamente.

Un nuevo rumbo en la navegación

Este viaje me ha convencido de que mis exploraciones con las IA son, en esencia, diarios de navegación.

Son relatos de encuentros en la frontera de la inteligencia, donde la máquina no solo procesa información, sino que participa en una danza dialéctica que revela tanto sobre sí misma como sobre mis propias ideas y prejuicios.

Seguiré navegando.