Escándalo en la IA: Anthropic acusa a tres empresas chinas de «robar» capacidades de Claude mediante 24.000 cuentas falsas

​​

En un rotundo mensaje, la compañía de IA Anthropic ha acusado a empresas chinas de «robar» conocimiento de su popular modelo Claude. Para ello, habrían utilizado miles de cuentas falsas. En concreto, la operación habría involucrado más de 24.000 cuentas simuladas y millones de interacciones destinadas a «copiar» el comportamiento del sistema.

Es lo que los expertos en esta tecnología conocen con el nombre de «distillation». Básicamente, entrenar un modelo de inteligencia artificial usando las respuestas generadas por otro sistema más avanzado. Aunque esta técnica es común en la industria, Anthropic asegura que las empresas involucradas habrían violado los términos de servicio y las restricciones de acceso regional.

Anthropic contra los sistemas de IA chinos

Según Anthropic, las compañías chinas DeepSeek, Moonshot AI y MiniMax habrían coordinado una campaña para generar alrededor de 16 millones de respuestas del modelo de Anthropic. Con todos estos datos en su poder, habrían podido entrenar sus propios sistemas de inteligencia artificial, permitiéndoles acercarse al rendimiento de Claude sin necesidad de replicar su arquitectura.

Anthropic argumenta en su comunicado que esta práctica no solo constituye una posible infracción contractual, sino que también representa un riesgo estratégico para el desarrollo de la IA segura. La empresa sostiene que el esfuerzo invertido en diseñar modelos con altos estándares de seguridad y alineación ética puede verse comprometido si terceros proceden a copiar sus datos sin más.

El problema, según parece, es que una cosa es dar por hecho que esta actividad se ha llevado a cabo, y otra muy distinta probarlo ante la ley. A diferencia del software tradicional, los sistemas de IA generan conocimiento de forma probabilística, lo que hace complicado demostrar cuándo se está ante una copia ilegal y cuándo frente a un modelo entrenado de manera independiente.

Dicho de otra forma: la línea entre el aprendizaje aceptable y el abuso es a veces difusa. Las empresas de IA suelen analizar los resultados de modelos de la competencia para mejorar sus propios sistemas, algo que en ciertos contextos se considera una práctica normal de investigación. Sin embargo, en este caso se estaría hablando de 24 mil cuentas simuladas. Una barbaridad.

La batalla por liderar la IA entre Estados Unidos y China

No es ningún secreto para nadie que Estados Unidos y China están llevando a cabo una auténtica batalla para liderar todo lo que tiene que ver con la IA. Si las acusaciones de Anthropic fuesen ciertas, esto tendría consecuencias incluso en el terreno geopolítico, por así decirlo. El gigante asiático podría estar reduciendo el coste del desarrollo de su IA mediante técnicas poco éticas.

Sin embargo, los propios expertos reconocen que resulta complicado hacer algo al respecto. Más que nada, por la ausencia de marcos legales que dejan claro el tema de la propiedad intelectual en lo que respecta a la IA. Lo que si saben es que este tipo de «robos» van a ser cada vez más comunes entre unas compañías y otras.

 

Comentarios

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *