La irrupción de la inteligencia artificial generativa (IAG) —encarnada en modelos como GPT-4 de OpenAI, Gemini de Google o Claude de Anthropic— ha transformado radicalmente nuestra forma de producir contenido, buscar información y codificar conocimiento.
Estos modelos, entrenados con billones de palabras y trillones de parámetros, pueden generar desde ensayos filosóficos hasta código Python funcional, pasando por poesía, resúmenes científicos o asesoría legal rudimentaria.
Sin embargo, esta versatilidad ha sido a menudo malinterpretada como una suerte de omnisciencia artificial, una ilusión poderosa y peligrosa. La apariencia de competencia no equivale a comprensión y la fluidez verbal no garantiza veracidad. Como dijo el físico Richard Feynman:
“El primer principio es que no debes engañarte a ti mismo, y tú eres la persona más fácil de engañar.”
Las IA generativas han demostrado una gran capacidad para generar texto coherente, imágenes sorprendentes o código funcional. Por ejemplo, ChatGPT ha superado pruebas como el examen de acceso al MBA en Wharton, y herramientas como Midjourney están siendo utilizadas por agencias de publicidad para crear campañas visuales innovadoras.
¿Cómo “piensa” un modelo generativo?
A pesar de su aparente inteligencia, los modelos generativos no entienden en el sentido humano. Son sistemas estadísticos de predicción de palabras.
“La IA generativa es un loro estocástico muy sofisticado: puede repetir, combinar y remezclar, pero no razona ni tiene sentido del mundo.”
Gary Marcus, investigador
Por ejemplo, ChatGPT ha sido conocido por inventar títulos de libros inexistentes y atribuirlos a autores reales, creando referencias bibliográficas completamente ficticias. Doy testimonio de estas anécdotas. Como, otro caso, crear personajes relevantes de la lucha sindical de los trabajadores migrantes latinos en el sector primario en los EEUU, que nunca existieron y de los que hay cero constancia documental (es decir, fue información «deducida»). O incluir lugares relevantes a visitar en la isla de Tenerife, ubicaciones pertenecientes a otras islas… de la misma provincia. También cabe decir que estos errores son cada vez más excepcionales.
Este fenómeno se conoce técnicamente como ‘alucinación’ o ‘fabulación’, y ha motivado el desarrollo de soluciones híbridas como RAG (Retrieval-Augmented Generation), donde el modelo se apoya en bases de datos externas para reducir la invención de contenido.
Esto significa que incluso cuando una IA ofrece respuestas convincentes, lo hace sin conocimiento empírico ni comprensión del contexto.
Parafraseando a Emily Bender y Timnit Gebru, estas IAs son ‘loros estocásticos’: que repiten patrones estadísticos de lenguaje sin entender ni tener intenciones. Simulan comprensión sin alcanzarla.
El concepto de ‘loro estocástico’ proviene del artículo académico ‘On the Dangers of Stochastic Parrots’ (Bender, Gebru et al., 2021), que advirtió sobre los peligros éticos y epistémicos de los grandes modelos de lenguaje. Su publicación generó controversias internas en Google que llevaron a la salida forzada de Gebru, lo que puso de relieve la tensión entre ética e innovación en la industria.
El fenómeno de alucinación —cuando el modelo genera contenido completamente falso pero plausible— es tan común que ha sido objeto de investigaciones específicas por parte de Stanford, MIT y Berkeley.
Errores con estilo: Falibilidad camuflada
La IAG puede generar errores graves con una convicción que enmascara su falta de fundamento. En 2023, un abogado en Nueva York fue sancionado por presentar un escrito legal con jurisprudencia completamente inventada por ChatGPT. Las citas y casos eran ficticios, aunque bien redactados.
Ocurrió durante el caso ‘Mata v. Avianca’ donde el abogado Stephen Schwartz presentó seis precedentes legales falsos generados por esta IA, lo que llevó a sanciones, descrédito profesional y, sobre todo, para muchas personas y profesionales, puso sobre la mesa los riesgos de confiar ciegamente en estas herramientas.
“Los modelos de lenguaje grandes no entienden el mundo. Solo repiten lo que han visto. Son útiles, pero peligrosos si se usan como oráculos.”
Yann LeCun, Premio Turing, Meta
En programación, por ejemplo, los modelos pueden omitir condiciones críticas, cometer errores lógicos o generar funciones que parecen correctas pero no lo son, afectando la seguridad y eficiencia del código.
El riesgo epistémico: cuando la IA parece autoridad
Además de los casos citados más arriba, se han documentado casos donde ChatGPT, Gemini o Copilot, por citar a cualquiera de ellas, proporcionó letras de canciones incorrectas o información geográfica errónea, lo que subraya la necesidad de verificar la información generada por estas IAs.
Este fenómeno ha sido denominado ‘autoridad algorítmica’, donde la presentación técnica y objetiva de la información automatizada induce una confianza desmedida en los usuarios, reduciendo su juicio crítico (Gillespie, 2014).
Los humanos tendemos a confiar en lo que se comunica con seguridad y los modelos generativos siempre suenan seguros. Este efecto puede generar desinformación convincente. Porque la coherencia textual no equivale a exactitud factual. Un texto puede sonar perfectamente lógico y, sin embargo, estar completamente equivocado.
“El problema no es que las máquinas mientan, sino que lo hagan sin saberlo, y que nosotros no sepamos cuándo ocurre.”
Luciano Floridi, filósofo
Sumado a esto, los filtros ideológicos o políticas internas de moderación pueden llevar a autocensura algorítmica, afectando la pluralidad de perspectivas. La transparencia en estos sistemas aún es insuficiente.
Cómo desarrollar alfabetización crítica en IA
1. Comprensión técnica básica
Entender cómo funcionan los modelos, cómo aprenden y por qué fallan. No hace falta ser ingeniero, pero sí usuario consciente.
IBM, a través de su plataforma gratuita SkillsBuild ofrece ciertas formaciones sin ningún coste, entre ellas varias destinadas a adquirir una mayor comprensión del funcionamiento de las inteligencias artificiales, con un contenido que es accesible incluso sin bases tecnológicas.
2. Verificación activa
Nunca aceptar una respuesta generada como fuente final. Verificar con fuentes primarias o expertos humanos, tomando como máxima la afirmación de Carl Sagan:
“Afirmaciones extraordinarias requieren pruebas extraordinarias.”
Carl Sagan, divulgador científico
Es esencial contrastar la información obtenida de la IA con fuentes confiables y diversas, especialmente en temas sensibles o de alta importancia.
3. Consciencia de sesgos
Todo modelo hereda los sesgos de los datos con los que fue entrenado. Detectarlos y compensarlos es una tarea humana. Los sesgos pueden provenir de los propios datos de entrenamiento, sin embargo hay un tipo de sesgo ideológico que nace de la implementación de las políticas DEI que, en origen, pretenden buscar un mundo más justo y equilibrado pero que, en la práctica, generan desinformación, ocultamiento y manipulación al tratar de adaptar la realidad al discurso ideológico.
Expertos como Margaret Mitchell argumentan que la solución no es eliminar contenido ‘potencialmente sesgado’, sino ofrecerlo con contexto crítico, ya que la censura algorítmica puede generar más distorsión que corrección.
4. Exigir transparencia
Apoyar iniciativas de código abierto, trazabilidad de fuentes y políticas claras de moderación de contenido. Sin embargo, está bien apuntar que en las redes neuronales que sustentan las inteligencias artificiales generativas, los vínculos de los datos que luego generarán una respuesta pueden ser un misterio incluso para los creadores de esas IAs.
Una IA recombina información en una forma nueva, antes no existente, rellenando los huecos. Pero los creadores de esa IA no pueden afirmar a ciencia cierta cómo se combina o qué decisiones se toman tanto para la recombinación del contenido como para el rellenado de huecos.
5. Educación continua
La IA evoluciona rápido. Estar actualizado es parte de nuestra responsabilidad como ciudadanos digitales. De hecho no ha habido en la historia una tecnología que haya escalado tan rápido, si bien no es que haya nacido en estos últimos años, ni se haya introducido tan rápido en la sociedad ni que haya tenido una aceptación tan generalizada sin ningún tipo de revisión crítica por parte de los usuarios finales.
“No necesitamos una IA más poderosa; necesitamos una humanidad más consciente.”
Timnit Gebru, investigadora en ética de IA
Inteligencia humana para guiar a la artificial
La inteligencia artificial generativa no es un oráculo, ni un enemigo, ni un sustituto. Es una herramienta poderosa, y como toda herramienta, su impacto depende de cómo la usemos.
El objetivo no es una sustitución, a la que tendemos más por dejadez y comodidad que por una cuestión de fuerza u obligación. El objetivo es una complementación. O en palabras de IBM y Google, buscar un patrón de Inteligencia Aumentada en la que la Inteligencia Humana se suma a la Inteligencia Artificial.
El ajedrecista Garry Kasparov propuso la metáfora del ‘centauro digital’: humanos que usan IA como extensión cognitiva. No se trata de competir contra la máquina, sino de pensar mejor junto a ella.
O quizás reconocer que el primer error fue llamarlo inteligencia cuando, hasta el momento, solo es una herramienta de procesamiento matemático complejo del lenguaje (en el caso de las generativas).
“La tecnología no es destino. Solo se convierte en tal cuando los humanos abdican de su responsabilidad.”
Yuval Noah Harari, divulgador e historiador
Navegar este nuevo mundo no requiere ceder el pensamiento a las máquinas, sino fortalecer nuestra capacidad crítica, ética y técnica. La IA generativa puede ayudarnos a pensar mejor, pero nunca debe pensar por nosotros. No basta con tener acceso a la información: necesitamos desarrollar el juicio para distinguir lo valioso de lo falso. La IA puede ser una herramienta poderosa, pero el pensamiento crítico sigue siendo insustituible.