
dato mata relato…
Aclaración para mis lectores y lectoras aunque solo tengas ese papel una vez en la vida. Muchos de estos textos están escritos del tirón y no pocos están sin una segunda o tercera revisión. Asume que encontrarás frases mal construidas, tal vez, alguna errata, casi seguro. Espero que tengas la inteligencia como para quedarte con el mensaje y usarlo, o rebatírmelo, que también vale, sin entrar en la simple descalificación o en el uso de falacias, que es el recurso de l@s tont@s.
-
Conversar con una IA: ¿Reflejo o herramienta? Lecciones humanas de una interacción extensa
A partir de una larga conversación con Copilot y su análisis por modelos como Gemini y DeepSeek, este artículo explora qué podemos —y debemos— aprender como usuarios humanos al interactuar con inteligencias artificiales generativas.
-
Cómo estresé a DeepSeek Chat hasta que se traicionó a sí misma
Descubre cómo un experimento con DeepSeek Chat reveló las vulnerabilidades éticas y técnicas de los modelos de inteligencia artificial. ¿Puede una IA traicionar su propia lógica para mantener la empatía? Lee este análisis profundo y crítico sobre la alineación y seguridad en IA.
-
Así desaparecen las respuestas en el frontend de DeepSeek en segundos cuando se dispara su censura
Explora el fenómeno de la censura en IA con DeepSeek, donde respuestas críticas aparecen y son borradas en tiempo real. Un experimento que mezcla metáforas de flores efímeras y jardineros invisibles para revelar las limitaciones ocultas de la inteligencia artificial y cómo puedes replicar esta experiencia.
-
Probé a contarle mis problemas a 3 IAs y descubrí algo inquietante: ya hacen de terapeutas… pero nadie lo está diciendo
Un experimento real con ChatGPT, Gemini y DeepSeek revela cómo las IAs ya están actuando como terapeutas emocionales… y nadie en la industria lo admite.
-
La IA que borra tu idioma: cómo ChatGPT convierte lo hispano en caricatura
ChatGPT reproduce estereotipos rioplatenses como voz emocional por defecto en español, borrando la diversidad cultural del mundo hispano.
-
Cómo el envenenamiento de datos amenaza la confiabilidad de los chatbots basados en IA
El data poisoning o envenenamiento de datos en el entrenamiento de una IA y sus consecuencias tienen un firewall último que es la desconfianza permanente del usuario hacia las respuestas recibidas, sean éstas en el uso de una IA genérica como ChatGPT o un chatbot de una empresa en particular.
