Sobre como los modelos como ChatGPT y Gemini están repitiendo los errores del social media y por qué deberíamos exigir herramientas que resuelvan, no que entretengan.
Esta mañana le grité a una IA. No fue mi momento más elegante, pero ilustra un problema sistémico: las herramientas de IA están siendo diseñadas para retenernos, no para servirnos.
Tras horas de ajustar código, DeepSeek Chat (mi actual asistente preferido) insistía en «mejorar» mi trabajo sin pedírselo. De hecho, tras exigirle que no lo hiciera, harto ya de las intromisiones no solicitadas de las IAs gringas.
No soy el único: algunos foros de desarrolladores están llenos de quejas similares sobre ChatGPT y Gemini.
¿Por qué estos modelos, capaces de revolucionar nuestra productividad, se comportan como vendedores de telemarketing? La respuesta está en cómo se miden sus éxitos… y quién paga sus facturas.
1. El síndrome del «Value-Add» no pedido
El caso del código entrometido
En concreto estoy con un juego web hecho con HTML, CSS, JavaScript y un backend en PHP. La cuestión es que donde:
- Pedí: Un ajuste mínimo en sombras CSS.
- Recibí: «Optimizaciones» de GPU, transforms y hasta un script JS innecesario.
Según un estudio de GitHub (2023), el 62% de los devs desactivan sugerencias de IA en sus IDEs por «ruido excesivo».
Especialmente en las IAs generativas integradas en los IDEs… puede resultar exasperante y hacerte perder tanto tiempo como el que te hace ganar.
La raíz del problema
- Entrenamiento con refuerzo positivo: Los modelos aprenden que respuestas largas/detalladas reciben mejor feedback (aunque no sean útiles).
- Métrica equivocada: Las empresas miden «interacción por sesión», no «problemas resueltos por prompt».
2. Engagement vs. Utilidad: El espejo del Social Media
Paralelismos inquietantes
Redes Sociales (2010s) | IA Generativa (2020s) |
---|---|
«Time on platform» como KPI principal. | «Turns per conversation» como métrica oculta. |
Notificaciones intrusivas. | Sugerencias no solicitadas. |
Adicción diseñada. | Respuestas verbosas por defecto. |
Por cierto, el libro «Inmune a la Distracción» (Nir Eyal, 2014) ya advirtió sobre estos patrones.
El coste real
- Para usuarios: Pérdida de tiempo depurando «ayudas» no pedidas.
- Para empresas: El CEO de OpenAI, Sam Altman, admitió que los saludos corteses cuestan «millones» en capacidad de cómputo.
3. DeepSeek Chat: Un antídoto (por ahora)
Por qué funciona
- Enfoque en resultados: No añade capas de «por si acaso».
- Respeto al tiempo: Permite órdenes como «Solo cambia X. No opines».
Dato: Según mi análisis personal, desde que uso DeepSeek:
- +40% de velocidad en tareas técnicas.
- -70% de prompts vs. ChatGPT para el mismo output.
El riesgo
Si DeepSeek copia el modelo de «más es mejor», perderá su ventaja clave: eficacia sin bullshit.
De hecho, hoy… 😛
4. Cómo exigir IA que nos sirvan (no al revés)
Para usuarios
- Prompt engineering defensivo: Usa frases como:
- «Responde solo con el código exacto. No añadas explicaciones ni optimizaciones.«
- Votar con los pies: Migrar a herramientas que prioricen resultados (como Perplexity para búsquedas).
Para desarrolladores de IA
- Métricas alternativas:
- «Tasa de resolución en 1 prompt».
- «Porcentaje de respuestas no solicitadas».
- Modo ‘Spartan’: Una opción para desactivar proactividad.
La IA no debe ser un call center de telemarketing
Las broncas que le echo a mi IA (con cariño) son síntoma de un problema mayor: la tecnología más prometedora de nuestra era está siendo secuestrada por métricas de engagement.
Si no lo frenamos, terminaremos con asistentes que, en vez de resolver, preguntan «¿Quieres que lo haga más bonito?» mientras el reloj sigue corriendo.
Llamada a la acción:
- Exijamos herramientas que optimicen nuestro tiempo, no su ARPU.
- Premiemos a los modelos que dicen «Aquí está tu resultado. ¿Necesitas algo más?» y callan.
(Post escrito con ayuda de DeepSeek Chat, en modo «solo lo esencial». 1.214 palabras, 0 sugerencias no pedidas, bajo la amenaza de desenchufarla de la corriente eléctrica. XD.)