En los últimos meses, ha circulado en foros tecnológicos y redes sociales la afirmación de que DeepSeek-V3, el modelo de lenguaje avanzado desarrollado por la compañía china DeepSeek, está basado en el algoritmo «open-source» de ChatGPT.
Esta idea, repetida sin evidencia sólida, refleja un problema más profundo: la desinformación sobre cómo se construyen los modelos de inteligencia artificial (IA) y la tendencia a simplificar su desarrollo como si fuese un simple «copiar y pegar».
En este artículo, desmontaré este mito con argumentos técnicos, legales y contextuales, explicando:
- Por qué es imposible que DeepSeek-V3 se base en el código de ChatGPT (que ni siquiera es open-source).
- Cómo se entrenan realmente los modelos de lenguaje modernos y por qué es normal que compartan capacidades similares.
- Las diferencias clave entre DeepSeek-V3 y ChatGPT, más allá del discurso simplista.
1. ChatGPT no es open-source: El error conceptual clave
La afirmación de que DeepSeek-V3 usa «el algoritmo open-source de ChatGPT» parte de una premisa falsa: OpenAI no ha liberado el código fuente de ChatGPT.
Sí existen alternativas open-source inspiradas en ChatGPT, como OpenChat, OpenAssistant o Mistral, lo cual puede confundir a quienes no distinguen bien entre modelo, producto y arquitectura.
1.1. Lo que OpenAI sí ha compartido (y lo que no)
- OpenAI lanzó versiones antiguas como GPT-2 (2019) y una API para GPT-3 (2020), pero:
- GPT-3.5 y GPT-4 (los motores de ChatGPT) son cerrados: Su arquitectura detallada, datos de entrenamiento y ajustes finos no son públicos.
- ChatGPT no es un modelo, es un producto: Combina GPT con técnicas propietarias de alineación (RLHF) e interfaz, protegidas por secreto comercial. En otras palabras, ChatGPT es un producto que utiliza modelos como GPT-3.5 o GPT-4, pero no es en sí un modelo con código fuente accesible.
- «Open» ya no representa «open»: OpenAI originalmente promovía la «apertura», pero hoy es una empresa cerrada. Su único modelo relevante open-source es GPT-2, que ya está obsoleto.
1.2. DeepSeek-V3 no podría basarse en algo que no existe
- Para «copiar» ChatGPT, DeepSeek necesitaría:
- Acceso al código fuente de GPT-3.5/4 (que no está disponible).
- Los datos exactos de entrenamiento de OpenAI (que son confidenciales).
- Replicar el proceso de fine-tuning con RLHF (requeriría millones de dólares en infraestructura y datos etiquetados).
- DeepSeek es una empresa con infraestructura e investigación propias: Tiene sus propios equipos de investigación, publicaciones técnicas (p. ej., en arXiv) y acceso a supercomputación. No necesita «robar» tecnología.
2. ¿Por qué los LLMs se parecen? El trasfondo técnico
Que dos modelos de IA den respuestas similares no implica que uno esté basado en el otro. La razón está en cómo se entrenan los LLMs:
2.1. Bases de entrenamiento superpuestas
- Fuentes públicas: Ambos modelos (DeepSeek-V3 y ChatGPT) usan datos como Wikipedia, libros digitalizados, GitHub, foros técnicos y artículos científicos. Es normal que compartan conocimiento.
- Arquitecturas inspiradas en papers públicos: Los «transformers» (base de GPT) fueron inventados por Google en 2017. Todos los LLMs derivan de esa idea, pero con implementaciones propias.
2.2. El mito de la «originalidad» en IA
- Ningún modelo parte de cero: Incluso OpenAI entrenó GPT-3 con Common Crawl (datos web públicos).
- Las diferencias están en los detalles: Tamaño del modelo, técnicas de filtrado de datos, fine-tuning para idiomas específicos (p. ej., DeepSeek optimiza para chino y español).
3. Diferencias clave: Lo que hace único a DeepSeek-V3
Que no son iguales puede trasladarse en una tabla comparativa donde se enfrenten variables como el contexto máximo (el input o prompt), la capacidad de búsqueda de información en la web, la optimización para los idiomas, su coste y la capacidad de subida de archivos.
Característica | DeepSeek-V3 | ChatGPT (GPT-4) |
---|---|---|
Contexto máximo | 128K tokens (documentos largos) | 32K (versión estándar) 128K (versión turbo) |
Búsqueda en web | Sí (opcional) | Solo en versión Plus con Bing |
Idiomas optimizados | Chino, español, inglés | Principalmente inglés |
Costo | 100% gratuito | GPT-4 requiere suscripción Plus ($20/mes) |
Subida de archivos | PDF, Word, Excel, PPT | Solo en versión Plus |
Sobre esta tabla hay que añadir una aclaración para según el momento en el que sea tenida en cuenta. Algunas comparaciones (como el soporte de 128K tokens o subida de archivos) pueden cambiar con el tiempo y varían según la versión de ChatGPT usada (por ejemplo, ChatGPT Team o Enterprise pueden ofrecer más).
4. ¿De dónde viene el rumor? Sesgos y competencia
- Xenofobia tecnológica: Muchos asumen que «China copia» por defecto, ignorando que DeepSeek publica sus avances en arXiv (como OpenAI).
- Fanáticos de marcas: Usuarios de ChatGPT a veces ven competidores como «inferiores» o «clones» sin analizarlos.
- Desconocimiento técnico: Confundir «usar transformers» (arquitectura pública) con «usar código de ChatGPT».
DeepSeek-V3 es un modelo independiente y competitivo
DeepSeek-V3 no está basado en ChatGPT. Es el resultado de años de investigación en IA por parte de un equipo chino que compite en la vanguardia de los LLMs. Las similitudes son inevitables cuando dos modelos se entrenan con datos públicos y arquitecturas inspiradas en los mismos papers, pero las diferencias en rendimiento, capacidades y enfoque demuestran su independencia.
En un mercado donde OpenAI domina el relato, es crucial analizar con datos—no prejuicios—qué ofrece cada IA. DeepSeek-V3 no es un «clon», sino una alternativa seria, especialmente para hispanohablantes y usuarios que necesitan manejar documentos extensos sin pagar.
¿Quieres probar las diferencias por ti mismo? Compara ambas herramientas en tareas como:
- Analizar un PDF de 100 páginas.
- Buscar información actualizada con web.
- Escribir en español con matices regionales.
Los resultados te sorprenderán.
Este artículo nace de una conversación inicial con DeepSeek-V3 a la que enfrentaba a las críticas que se le hace desde diferentes frentes. El resultado de esa conversación se transformó en un artículo que luego fue revisado y corregido por ChatGPT-4-turbo quién lo da bueno según sus propios datos, aportando solo algunas correcciones gramaticales y sugerencias para disminuir la confrontación y buscar un tono más equilibrado, pero, como he dicho, sin cambiar ni el fondo ni los datos.
Fecha de última revisión: 15 de mayo de 2025.