Necesitamos conductores de IA porque… ¡la IA no piensa!

Gracias por darme amor compartiendo en tu app favorita:

Desde su aparición en el ámbito tecnológico, las inteligencias artificiales generativas han despertado una fascinación casi mítica. Su capacidad para producir texto, imágenes, música o incluso código a velocidades sobrehumanas ha llevado a muchos a imaginar un futuro en el que las máquinas no solo nos ayuden, sino que nos sustituyan por completo.

La promesa de una IA omnipotente ha calado tan hondo que parece haber eclipsado una verdad fundamental: las IA no piensan, no comprenden, ni razonarán jamás como un humano. Incluso cuando lleguemos al siguiente nivel, la IA general. Porque las IAs necesitan datos para producir nuevos datos. Mientras que el ser humano es capaz de producir datos nuevos sin antecedentes (normalmente a esto lo llamamos arte -creatividad-, ciencia -investigación- o religión -creencia-).

La realidad es que, por muy avanzadas que sean, las IA siguen siendo herramientas que requieren supervisión y juicio humano. El verdadero desafío no es confiar ciegamente en ellas, sino aprender a utilizarlas de manera crítica, como lo haríamos con cualquier otra tecnología.

La clave del futuro está en un nuevo tipo de profesional, al que podemos llamar el “conductor de IA”, que será capaz de gestionar y guiar el uso de estas herramientas de manera eficaz y ética.

Pero, ¿qué significa ser un «conductor de IA»?

Y, ¿por qué es vital que entendamos las limitaciones de las máquinas para evitar caer en la trampa del exceso de confianza?


La falacia de la IA autónoma

El primer paso para comprender la IA es reconocer que, por más sofisticada que sea, no posee consciencia ni capacidad de razonamiento como un ser humano. Geoffrey Hinton, uno de los pioneros en el campo de las redes neuronales y el aprendizaje profundo, ha señalado:

«Lo que estamos haciendo no es construir una máquina que piense de la misma manera que los humanos. La IA no tiene conciencia de sí misma. Es simplemente una herramienta matemática muy avanzada

The Guardian, 2018

Hinton explica que las IA operan ajustando parámetros basados en patrones en lugar de pensar como los seres humanos.

Una IA es tan buena como los datos con los que se alimenta y eso la convierte en una herramienta con limitaciones claras. Por ejemplo, el sistema de IA utilizado por Google Translate ha mejorado enormemente en los últimos años, pero aún comete errores graves cuando se enfrenta a contextos complejos o frases que no se ajustan a sus patrones.

Del mismo modo, modelos de IA en el campo de la salud, como los utilizados para detectar cáncer, pueden ser extremadamente precisos en condiciones específicas, pero no tienen la flexibilidad ni el discernimiento para manejar casos fuera de los parámetros establecidos.


El problema del exceso de confianza en la IA

Lo que estamos observando en muchos sectores es un exceso de confianza en las capacidades de la IA, lo que lleva a delegar en estas herramientas decisiones críticas sin un nivel adecuado de supervisión.

Elon Musk, CEO de Tesla y SpaceX, ha sido una de las voces más cautelosas respecto al uso de la IA. En 2014, Musk comentó:

«La inteligencia artificial es probablemente la mayor amenaza existencial para la humanidad. Si no se regula, es el mayor riesgo que enfrentamos, más que las bombas nucleares

The Guardian, 2014

Aunque Musk no está en contra de la IA como tal, de hecho recientemente ha incorporado Grok a X, su propia IA generativa (2025), subraya en su advertencia la necesidad de una supervisión humana activa y una regulación adecuada.

Un ejemplo de esta falta de visión crítica es la sobreoptimización en las empresas tecnológicas. Muchas han asumido que, al reducir personal en áreas como la programación mediante el uso de IA, las tareas se completarán más rápidamente y de forma más económica. Sin embargo, lo que olvidan es que la automatización no es infalible.

En muchos casos, las IA no son capaces de abordar proyectos altamente especializados o de resolver problemas contextuales que requieran comprensión del entorno y una visión integral del proyecto. Timnit Gebru, investigadora en ética de la inteligencia artificial y ex-miembro de Google Research, enfatizó esto en una declaración en la MIT Technology Review, en 2020:

«La IA no comprende el contexto ni tiene un sentido ético inherente. Si no se supervisa, puede tomar decisiones que refuercen los sesgos existentes y generen resultados dañinos.«

MIT Technology Review, 2020

El futuro: el conductor de IA

Entonces, ¿qué papel desempeñará el humano en un mundo donde las IA están cada vez más presentes? El futuro no está en sustituir al ser humano, sino en redefinir su rol.

Lo que necesitamos ahora es una nueva clase de profesional: el «conductor de IA«.

Este profesional será experto en gestionar las capacidades de las IA, interpretando sus resultados y asegurándose de que los contextos complejos y las decisiones éticas sean adecuadamente tratados.

Un conductor de IA no será alguien que se limite a programar algoritmos o a ajustar modelos. Su labor será mucho más compleja: deberá validar, interpretar y aplicar la inteligencia de la máquina dentro de los parámetros correctos, siempre considerando el impacto humano y social de esas decisiones.

Satya Nadella, CEO de Microsoft, lo expresó claramente:

«La inteligencia artificial tiene que ser vista como un complemento, no como una sustitución. Las mejores decisiones provienen de la colaboración entre la IA y la inteligencia humana.«

TechCrunch, 2020

En cierto sentido, el rol del conductor de IA será similar al de un piloto de avión: aunque los aviones modernos son capaces de volar de forma autónoma en su mayoría, siempre hay un piloto al mando, listo para intervenir si las circunstancias lo requieren.

Esta analogía se aplica de manera precisa a la IA: su potencial es enorme, pero aún necesita un guía humano para tomar decisiones en situaciones ambiguas o imprevistas.


Adaptarse en lugar de temer

La IA no debe ser vista como una amenaza, sino como una oportunidad para evolucionar y mejorar nuestras habilidades. En lugar de temer a los despidos masivos o a la automatización, los profesionales deben buscar integrar la IA en su día a día, adaptándose a esta nueva realidad.

Por otro lado, y de manera complementaria y bastante significativa, el marketing está empezando a revalorizar como un elemento diferenciador lo hecho por humano.

Como lo expresó Sundar Pichai, CEO de Google:

La inteligencia artificial tiene el poder de transformar todas las industrias. Lo importante es asegurarnos de que esa transformación se haga de manera inclusiva y justa.

The Verge, 2020

(Otra cosa es que la propia Google actúe de manera inclusiva y justa, cosa que «dice» pero que no «hace» en el lugar donde está el dinero en juego, Google AdSense. Pero esto es otra historia.)

Así que, en lugar de preguntar cuándo nos reemplazará la IA, deberíamos estar preguntándonos cómo podemos ser más competitivos y cómo incorporar esta poderosa herramienta a nuestras habilidades y capacidades humanas.

El futuro no será un mundo dominado por máquinas, sino un mundo en el que humanos y máquinas trabajen juntos, cada uno aprovechando lo mejor del otro.

O, al menos, es lo que deseo. Y espero.

(Que Santa Tecla nos coja confesado en caso contrario.)