El nuevo modelo de DeepSeek parece deber mucho a Google: parece que ha sido entrenado con la IA de Gemini

Varios expertos coinciden que el último modelo de DeepSeek tiene preferencias ya vistas en Gemini de Google

El nuevo modelo de DeepSeek parece deber mucho a Google: parece que ha sido entrenado con la IA de Gemini
DeepSeek es la inteligencia artificial china que puso patas arriba el sector en enero de 2025
Publicado en Web3

El inicio de 2025 estuvo marcado por la aparición de un nuevo actor en la industria de la inteligencia artificial. De un día para otro, OpenAI, la compañía tras el desarrollo de ChatGPT, vio peligrar su liderazgo con la llegada del modelo R1 de DeepSeek, un laboratorio chino especializado en IA que aseguraba que su tecnología era igual de potente que la de la empresa de Sam Altman, pero mucho más barata.

En las semanas siguientes, DeepSeek estaba en los teclados de todos los medios tecnológicos y en las bocas de todos los entusiastas de la inteligencia artificial. La aplicación para dispositivos móviles se coló entre las más descargadas, no tardando en ocupar la primera posición. No había prácticamente nadie que no estuviera interesado en probarla, pero pronto surgió la desconfianza y las restricciones en diversos países.

Parecía que la fiebre por DeepSeek ya había pasado cuando hace unos días, el laboratorio lanzó una versión actualizada de su modelo de razonamiento de inteligencia artificial R1, el cual destaca sobre todo en pruebas de matemáticas y programación. Sin embargo, existe la sospecha de que habría sido entrenado utilizando la tecnología de Google.

DeepSeek habría pasado de tener de referente a OpenAI para inspirarse en Google

Aunque DeepSeek no ha revelado la fuente de los datos utilizados para entrenar su último modelo de IA, algunos investigadores especializados en la materia creen que, al menos, una parte provendría de la familia Gemini desarrollada por Google. Entre ellos, Sam Paech, un desarrollador con sede en Melbourne que crea evaluaciones de inteligencia emocional para IA.

Paech ha publicado lo que, según él, constituye una evidencia de que el último modelo de DeepSeek se entrenó con resultados de Gemini. R1-0528 (así es como se llama el último modelo del laboratorio chino), preferiría palabras y expresiones similares a las que utiliza Gemini 2.5 Pro de Google, como ha compartido en su perfil oficial de la red social X, anteriormente conocida como Twitter.

Si te preguntas por qué el nuevo DeepSeek R1 suena un poco diferente, creo que es porque han cambiado del entrenamiento en OpenAI a Gemini

Si bien no es una prueba irrefutable, otro desarrollador ha señalado también que los rastros del modelo DeepSeek, algo así como los «pensamientos» que genera al llegar a una conclusión, "se leen como rastros de Gemini". En el pasado ya se acusó a DeepSeek de entrenarse con datos de modelos de IA rivales. Algunos desarrolladores avisaron en diciembre de 2024 que el modelo V3 de DeepSeek solía identificarse como ChatGPT, según Tech Crunch.

A principios de 2025, OpenAI declaró que había encontrado pruebas que vinculaban a DeepSeek con el uso de la destilación, una técnica para entrenar modelos de IA mediante la extracción de datos de modelos más grandes y potentes. Aunque no se trata de una práctica poco común, los términos de OpenAI prohíben que los clientes utilicen los resultados del modelo de la empresa para crear una IA capaz de competir con ChatGPT.

Para ti
Queremos saber tu opinión. ¡Comenta!