El nuevo Qwen2.5-Max supera las capacidades de DeepSeek

watch 1m, 20s
views 2

13:20, 31.01.2025

Tras los lanzamientos de Qwen2.5, Qwen2.5-VL, está disponible una nueva versión de Qwen2.5-Max. La nueva versión de Qwen muestra un rendimiento superior detrás de DeepSeek V3 en los siguientes benchmarks - GPQA-Diamond, Arena-Hard, LiveCodeBench y LiveBench.

Arquitectura y características del modelo

La versión Max es un proyecto a gran escala del modelo de Mezcla de Expertos. La singularidad de este modelo en particular fue el entrenamiento en feedback de usuarios reales (RLHF), usando Supervised-Fine-Tuning, y por supuesto el entrenamiento en 20 trillones de tokens.

Por el momento, los datos de la nueva versión aún no están publicados en GitHub, sólo está disponible por ahora el acceso a la API y al chat de Qwen. Es muy probable que la falta de datos en HuggingFace y GitHub indique una prisa por desvelar el nuevo proyecto o una promoción planeada por la empresa para incentivar la adopción de su plataforma en la nube.

Qwen ha publicado resultados sobre el nuevo modelo. Según la tabla de datos abiertos de la nueva versión de Qwen comparada con LLaMA3.1 y DeepSeek-V3, la versión Max supera a sus competidores en la mayoría de las características. Si se compara con Claude Sonnet y GPT, la versión Max pierde frente a GPT.

La empresa ha invertido un presupuesto importante en datos de entrenamiento, y la superioridad con los competidores existe, pero es relativamente insignificante. Por ello, algunos expertos opinan que es posible ampliar las capacidades de los modelos lingüísticos utilizando la potencia de cálculo durante las pruebas. 

Compartir

¿Te ha resultado útil este artículo?

Ofertas populares de VPS

Otros artículos sobre este tema

cookie

¿Acepta las cookies y la política de privacidad?

Utilizamos cookies para asegurar que damos la mejor experiencia en nuestro sitio web. Si continúa sin cambiar la configuración, asumiremos que acepta recibir todas las cookies del sitio web HostZealot.