La controversia entre DeepSeek y OpenAI sigue escalando, ahora con acusaciones de que o3-mini podría haber sido desarrollado utilizando código abierto de DeepSeek. El modelo de OpenAI, lanzado por sorpresa hace unos días, destacó por ser un 24% más rápido y reducir errores en un 36%, pero ha llamado la atención por generar respuestas en chino, incluso cuando se le solicita hablar en inglés.
Este comportamiento ha llevado a especulaciones de que OpenAI podría haber integrado datos o código de DeepSeek sin supervisión suficiente. DeepSeek es una iniciativa de código abierto enfocada en modelos de IA en idioma chino, lo que ha hecho aún más sospechoso el rendimiento del o3-mini en este lenguaje. La situación se intensificó cuando un desarrollador recibió una respuesta técnica sobre API en chino, lo que llevó a más expertos a sugerir que OpenAI podría haber usado datos de DeepSeek sin refinarlos adecuadamente antes del lanzamiento.
OpenAI utilizó datos sin permiso de DeepSeek.
OpenAI no ha respondido oficialmente a las acusaciones, lo que aumenta la preocupación sobre la transparencia y ética en el entrenamiento de modelos de IA. Mientras tanto, el caso ha puesto nuevamente en debate el uso de datos públicos en Internet para entrenar inteligencia artificial, así como la propiedad intelectual en modelos de código abierto.
Si se confirma que OpenAI utilizó el código de DeepSeek, el caso podría derivar en un conflicto mayor dentro de la comunidad de inteligencia artificial y tecnología. Ahora la gran pregunta es si el rendimiento de o3-mini en chino es un error inesperado del entrenamiento o si realmente se trata de un uso no autorizado del trabajo de DeepSeek.