Anthropic afirma que DeepSeek y otras empresas chinas utilizaron a Claude para entrenar a sus inteligencias artificiales

La compañía identificó a los actores con “alta confianza” al analizar direcciones de protocolo de Internet y los metadatos

Anthropic afirma que DeepSeek y otras empresas chinas utilizaron a Claude para entrenar a sus inteligencias artificiales
Anthropic IA
Publicado en Tecnología

A pesar de las alternativas disponibles en el mercado, ChatGPT continúa siendo el bot conversacional más popular del mundo, con algo más de 800 millones de personas utilizándolo cada semana. Le sigue de cerca Gemini, la propuesta de Google, que recientemente comunicó que su chatbot ya contaba con una base de más de 750 millones de usuarios, siendo la alternativa más próspera a la herramienta de OpenAI.

Muy por detrás en número se encuentra Claude. La creación de Anthropic, según los últimos datos, es utilizada por casi 20 millones de personas todos los meses, siendo Estados Unidos y la India sus dos mercados principales. ¿Significa eso que es peor que ChatGPT y Gemini? Ni mucho menos. Se ha demostrado que la «criatura» de Anthropic suele ser superior en redacción natural, análisis de textos extensos y código complejo, si bien no suele ser tan versátil.

A principios de junio de 2025, la plataforma de redes sociales y foros de discusión Reddit denunció a Anthropic. Al parecer, los bots de la compañía tras Claude habían estado accediendo al contenido de Reddit para entrenarse, a pesar de que Anthropic aseguró hacía tiempo que había realizado unos ajustes para que sus bots no pudieran acceder al servicio. Ahora, Anthropic ha comunicado que DeepSeek y otras compañías chinas han usado Claude para entrenar sus inteligencias artificiales.

Crearon miles de cuentas falsas y usaron servicios proxy para evitar ser detectados

La compañía con sede en San Francisco ha dicho que DeepSeek, MiniMax Group Inc. y Moonshot generaron colectivamente más de 16 millones de intercambios con Claude creando miles de cuentas falsas y utilizando servicios proxy para evitar la detección. Esta táctica, conocida como desitlación, permite a los desarrolladores entrenar sus propios modelos con los resultados de sistemas más avanzados.

Anthropic afirma que esta práctica violaba sus términos de servicio y tenía como objetivo reconstruir las avanzadas capacidades de Claude. Al parecer, solo DeepSeek generó más de 150 mil intercambios, mientras que MiniMax representó más de 13 millones de interacciones, como asegura la compañía en un comunicado oficial publicado en su blog.

La noticia se ha dado a conocer poco después de que Sam Altman, CEO de OpenAI, hiciera afirmaciones similares contra los desarrolladores de inteligencia artificial chinos, intensificando el escrutinio en Washington sobre si estas empresas están ganando terreno al aprovechar los sistemas construidos en Estados Unidos.

La compañía dijo que identificó a los actores con “alta confianza” al analizar direcciones de protocolo de Internet, metadatos y corroborar señales de socios de la industria que observaron un comportamiento similar en sus propias plataformas. Supuestamente se utilizaron redes proxy, que pueden ocultar la ubicación e identidad de un usuario en línea, para crear y operar un gran número de cuentas. Estas redes pueden permitir el acceso desde regiones restringidas y ayudar a los usuarios a evadir las medidas de seguridad de la plataforma.

Para ti
Queremos saber tu opinión. ¡Comenta!