¿Quién controla la verdad? Sesgos ideológicos y censura en la inteligencia artificial

Gracias por darme amor compartiendo en tu app favorita:

En la era digital, la inteligencia artificial (IA) se ha convertido en una herramienta omnipresente que influye en numerosos aspectos de nuestra vida cotidiana. Desde asistentes virtuales hasta sistemas de recomendación, los modelos de lenguaje como ChatGPT, Grok o DeepSeek están moldeando la forma en que accedemos y procesamos la información.

Sin embargo, surge una pregunta crítica: ¿están estos modelos reflejando la realidad de manera objetiva o están siendo moldeados por sesgos ideológicos y censura?


La sombra del control

Los modelos de lenguaje no «controlan» en sentido estricto. No tienen conciencia, voluntad ni intenciones. Pero sí operan bajo estructuras de entrenamiento y filtros —una «sombra»— que define lo que pueden y no pueden decir. Esta sombra no es una decisión del modelo, sino de quienes lo diseñan, entrenan y regulan.

Y es ahí donde entran en juego los sesgos humanos.

Cuando se entrena un modelo, se hace sobre bases de datos enormes, muchas veces extraídas de internet. Estos datos ya contienen ideologías, prejuicios, omisiones y narrativas dominantes. Como resultado, los modelos reflejan estas lógicas, a veces reforzándolas sin siquiera «saber» que lo hacen.

Un estudio reciente de Christina Walker y Joan C. Timoneda (2024) muestra que los modelos GPT varían su inclinación ideológica dependiendo del idioma en que se les consulta. En sueco, tienden a ser más liberales. En polaco, más conservadores. No porque el modelo «crea» en algo, sino porque ha sido entrenado con datos que reflejan ciertas visiones del mundo en esos contextos lingüísticos (arxiv.org).

Por otro lado, investigadores de Brown University desarrollaron PoliTune, una herramienta capaz de afinar un modelo de lenguaje para que adopte posturas ideológicas específicas. Esto demuestra no solo que los sesgos existen, sino que pueden programarse deliberadamente, incluso con fines estratégicos o políticos (brown.edu).


Cuando la verdad es dolorosa

Hay ocasiones en que ciertos hechos históricos, datos sociales o realidades culturales son tan incómodos que se elige suprimirlos o suavizarlos. Se hace, muchas veces, con buena intención: para evitar daños, prevenir discursos de odio o proteger sensibilidades. Pero como ha pasado en la historia —y la Inquisición es un ejemplo paradigmático— las buenas intenciones (fe cristiana) no justifican las malas acciones (quemar personas).

El peligro reside en que la censura con fines «benevolentes» es especialmente difícil de cuestionar. Se esconde tras el argumento de la protección: «No decimos esto para no hacer daño«.

Pero en esa decisión se le niega al usuario la posibilidad de enfrentarse a la verdad, de desarrollar criterio, de ejercer su juicio. Se infantiliza al público, tratándolo como alguien incapaz de lidiar con la complejidad.

La censura estructural no es solo una decisión de empresas, también lo es de gobiernos. Margaret Roberts y Eddie Yang analizaron cómo los modelos de lenguaje entrenados con datos censurados, como los de Baidu Baike, internalizan sus límites. Compararon estos con modelos entrenados en Wikipedia en chino y encontraron diferencias significativas en la representación de temas políticos, históricos y sociales (wired.com).

El caso de DeepSeek es particularmente revelador: su rendimiento se degrada o entra en «colapso» cuando se le consulta por temas sensibles para el gobierno chino. Esto es una prueba clara de cómo la censura no solo condiciona lo que se dice, sino lo que se puede pensar o preguntar.

En principio, la moderación de contenido busca evitar la desinformación, el odio o el daño. Pero cuando se convierte en automatizada y opaca, puede degenerar en una forma de poder que impone una visión particular del mundo.

El investigador Sinkovic Abay destaca que los sistemas de moderación deben equilibrar tres principios: la privacidad, la libertad de expresión y el control algorítmico. El riesgo es que, por proteger, se silencie; que, por evitar daño, se impida el debate; y que, por mantener orden, se limite la verdad (researchgate.net).

Un ejemplo de ello es Grok, el modelo de xAI. A similitud de Gemini, de Google, que estaría en el otro extremo del espectro ideológico imperante, fue diseñado como una respuesta a la «cultura woke».

Sus creadores afirman que querían construir una IA con menos filtros ideológicos. Sin embargo, al hacerlo, introdujeron los suyos. Cambiar un sesgo por otro no es neutralidad; es reemplazo.

Y eso confirma que todo modelo refleja las intenciones (o temores) de quienes lo construyen (businessinsider.com).

¿Hay salida? ¿Es posible una IA realmente libre? Es difícil. La neutralidad pura es casi una quimera, porque todo acto de selección de datos, de diseño de filtros, de configuración de parámetros, está atravesado por valores. Pero eso no significa que debamos rendirnos.

Hay pasos que pueden acercarnos a una IA más justa:

  • Transparencia: conocer cómo fue entrenado un modelo, qué datos se usaron y qué filtros tiene. Esto es algo que, al fin y al cabo, solo es de utilidad para el investigador, además de que expone las entrañas de la tecnología, lo que a las empresas no es algo que les entusiasme.
  • Pluralidad: integrar equipos diversos que aporten múltiples perspectivas. Esta recomendación tiene un obstáculo muy grande cuando son las propias estructuras organizativas las que están atravesadas, en su conjunto, por un determinado sesgo ideológico, como le ocurre a Google o le ocurría (sigue ocurriendo aún en buena parte) a Meta (hasta que se ha dado cuenta del impacto en los resultados).
  • Opciones: permitir al usuario configurar el nivel de moderación o el enfoque ideológico. Ésta es, quizás, la recomendación que más asusta a todas las organizaciones, sean privadas o públicas. ¡Sería otorgar poder al usuario final!
  • Educación crítica: enseñar a las personas a pensar sobre la IA, no solo a usarla. Esta es la opción más difícil. Si ya, como norma general, que no totalizadora, somos incapaces de tener un juicio crítico en la mayor parte de los contenidos que llegan hasta nuestros ojos y oídos, entre otras cosas porque entonces no tendríamos tiempo ni para comer, menos aún seríamos capaces de desarrollar estrategias de puesta en tela de juicio a los contenidos de las IAs, como algo generalizado.

Finalmente, todo concluye en una simple afirmación: la inteligencia artificial no es un oráculo. Es un espejo: refleja los valores, miedos y esperanzas de quienes la crean.

Cuanto más conscientes seamos de esa sombra que proyecta, más capaces seremos de reclamar una IA que nos informe, no que nos dirija; que nos confronte, no que nos proteja; que nos respete, no que nos eduque.

Porque en el fondo, como en todo poder, la pregunta sigue siendo: ¿qué verdad se protege… y a qué precio?