El nuevo Qwen2.5-Max supera las capacidades de DeepSeek
13:20, 31.01.2025
Tras los lanzamientos de Qwen2.5, Qwen2.5-VL, está disponible una nueva versión de Qwen2.5-Max. La nueva versión de Qwen muestra un rendimiento superior detrás de DeepSeek V3 en los siguientes benchmarks - GPQA-Diamond, Arena-Hard, LiveCodeBench y LiveBench.
Arquitectura y características del modelo
La versión Max es un proyecto a gran escala del modelo de Mezcla de Expertos. La singularidad de este modelo en particular fue el entrenamiento en feedback de usuarios reales (RLHF), usando Supervised-Fine-Tuning, y por supuesto el entrenamiento en 20 trillones de tokens.
Por el momento, los datos de la nueva versión aún no están publicados en GitHub, sólo está disponible por ahora el acceso a la API y al chat de Qwen. Es muy probable que la falta de datos en HuggingFace y GitHub indique una prisa por desvelar el nuevo proyecto o una promoción planeada por la empresa para incentivar la adopción de su plataforma en la nube.
Qwen ha publicado resultados sobre el nuevo modelo. Según la tabla de datos abiertos de la nueva versión de Qwen comparada con LLaMA3.1 y DeepSeek-V3, la versión Max supera a sus competidores en la mayoría de las características. Si se compara con Claude Sonnet y GPT, la versión Max pierde frente a GPT.
La empresa ha invertido un presupuesto importante en datos de entrenamiento, y la superioridad con los competidores existe, pero es relativamente insignificante. Por ello, algunos expertos opinan que es posible ampliar las capacidades de los modelos lingüísticos utilizando la potencia de cálculo durante las pruebas.