Novedades de Qwen 3

La carrera mundial de la IA se acelera. Instituciones de investigación, empresas privadas e incluso naciones enteras compiten ahora por el liderazgo en el ámbito de la IA. A grandes rasgos, esta carrera puede dividirse en varias fases. La primera fase consistió en la creación de IA restringida. Los modelos de redes neuronales existentes, como GPT, MidJourney y AlphaFold, demuestran que esta etapa se ha superado con éxito.
La siguiente etapa prevé la evolución de la IA hacia la AGI (Inteligencia Artificial General). La AGI debería igualar a la inteligencia humana en la resolución de una amplia gama de tareas, desde escribir historias y realizar cálculos científicos hasta comprender situaciones sociales y aprender de forma autónoma. En el momento de escribir estas líneas, aún no se ha alcanzado este nivel.
La última etapa en el desarrollo de la IA se denomina ASI (Superinteligencia Artificial). Superaría con creces las capacidades humanas en todos los ámbitos. Esto permitiría desarrollar tecnologías que hoy ni siquiera podemos imaginar y gestionar sistemas globales con una precisión superior a las capacidades humanas. Sin embargo, esto sólo podría hacerse realidad tras décadas (o incluso siglos) de avances continuos.
Por ello, la mayoría de los participantes en la carrera de la IA se centran en alcanzar la AGI manteniendo el control sobre ella. El desarrollo de la inteligencia artificial está estrechamente ligado a una serie de complejos retos técnicos, éticos y legales. Aun así, las recompensas potenciales superan con creces los costes, razón por la que empresas como Alibaba Group están invirtiendo fuertemente en este campo.
El lanzamiento de Qwen 3 marca un hito importante no sólo para las redes neuronales de una empresa, sino también en la escena mundial. En comparación con su predecesor, el modelo introduce varias innovaciones importantes.
Características
Qwen 2.5 se preentrenó en un conjunto de datos de 18.000 millones de tokens, mientras que el nuevo modelo ha duplicado esa cantidad hasta 36.000 millones de tokens. El mayor conjunto de datos ha mejorado significativamente la precisión del modelo base. Curiosamente, además de los datos de Internet disponibles públicamente recogidos mediante análisis sintáctico, el sistema también se entrenó con documentos PDF. Estos documentos suelen estar bien estructurados y ser densos en conocimientos, lo que ayuda al modelo a dar respuestas más precisas y a comprender mejor las formulaciones complejas.
Una de las direcciones más prometedoras en el desarrollo de la IA es la construcción de modelos capaces de razonar, que pueden ampliar el contexto de la tarea mediante un proceso iterativo. Por un lado, esto permite resolver problemas de forma más exhaustiva, pero por otro, el razonamiento tiende a ralentizar considerablemente el proceso. Por ello, los desarrolladores de Qwen 3 han introducido dos modos operativos:
- Thinking mode. El modelo construye el contexto paso a paso antes de ofrecer una respuesta final. Esto permite abordar problemas complejos que requieren una comprensión profunda.
- Non-thinking mode. El modelo responde casi instantáneamente, pero puede producir respuestas más superficiales sin un análisis en profundidad.
Este control manual sobre el comportamiento del modelo mejora la experiencia del usuario en el manejo de muchas tareas rutinarias. Reducir el uso del modo de pensamiento también disminuye significativamente la carga de la GPU, lo que permite procesar más tokens en el mismo periodo de tiempo.
Además de esta elección binaria, también existe un mecanismo de cambio suave. Este comportamiento híbrido permite al modelo adaptarse al contexto utilizando mecanismos internos de ponderación. Si el modelo considera que una tarea es difícil, activará automáticamente el razonamiento o incluso la autoverificación. También puede responder a indicaciones del usuario como "Pensemos paso a paso".
Otra mejora significativa es la ampliación del soporte multilingüe. Mientras que Qwen 2.5 sólo admitía 29 idiomas, la versión 3 puede ahora entender y generar texto en 119 idiomas y dialectos. Esto ha mejorado enormemente el seguimiento de instrucciones y la comprensión contextual. Como resultado, Qwen 3 puede utilizarse ahora eficazmente en entornos no anglosajones.
Además, Qwen 3 está ahora significativamente mejor integrado con los servidores MCP, lo que proporciona al modelo herramientas para profundizar en la resolución de problemas y ejecutar acciones. Ahora puede interactuar con fuentes externas y gestionar directamente procesos complejos.
Formación del modelo
Formación previa
Un avance tan sustancial no habría sido posible sin un sistema de formación en varias fases. Inicialmente, el modelo se preentrenó con 30B tokens con una longitud de contexto de 4K, lo que le permitió adquirir conocimientos generales y habilidades lingüísticas básicas.
A continuación se perfeccionó con datos más científicos y estructurados. Durante esta etapa, el modelo también adquirió la capacidad de escribir eficazmente aplicaciones en múltiples lenguajes de programación.
Por último, se entrenó en un conjunto de datos de alta calidad con contexto ampliado. Como resultado, Qwen 3 admite ahora una longitud de contexto efectiva de 128.000 tokens, lo que equivale aproximadamente a 350 páginas de texto mecanografiado, dependiendo del idioma. Por ejemplo, los idiomas cirílicos suelen tener tokens más cortos debido a la morfología y al uso de prefijos, sufijos, etc.
Proceso de razonamiento
Construir modelos capaces de razonar es un proceso fascinante pero laborioso que combina varias técnicas existentes destinadas a simular el pensamiento humano. Basándonos en la información pública disponible, podemos suponer que el entrenamiento del razonamiento de Qwen 3 implicó cuatro etapas principales:
- Cold start for long chains of thought. Entrenamiento del modelo para dividir los problemas en múltiples pasos sin adaptación previa. Esto le ayuda a aprender el pensamiento iterativo y a desarrollar una capa básica de habilidades de razonamiento.
- Reinforcement learning based on reasoning. En esta etapa, las recompensas dependen no sólo de la respuesta final, sino también de lo bien que el modelo construya cadenas de razonamiento lógicas, interpretables y estructuradas. También se evalúa la ausencia de errores y alucinaciones.
- Merging reasoning modes. Los seres humanos suelen basarse en dos estilos de pensamiento: rápido (intuitivo) y lento (analítico). En función del tipo de tarea, el modelo neuronal debe aprender tanto a alternar entre estos estilos como a integrarlos. Para ello se suelen utilizar ejemplos que mezclan ambos estilos o fichas especiales que indican qué estilo aplicar.
- General reinforcement learning. Esta etapa final se asemeja a un entorno de caja de arena en el que el modelo aprende a interactuar con herramientas, realizar tareas de varios pasos y desarrollar un comportamiento adaptativo. Aquí también se adapta a las preferencias del usuario.
Conclusión
Qwen 3 es un hito importante para Alibaba Group. La calidad de su formación y su metodología lo convierten en un serio competidor frente a empresas consolidadas como OpenAI y Anthropic. Las mejoras con respecto a la versión anterior son sustanciales.
Una ventaja añadida es su naturaleza de código abierto, con la base de código disponible públicamente en GitHub bajo la licencia Apache 2.0.
Un mayor desarrollo de la familia de modelos Qwen contribuirá a reforzar su posición en el panorama mundial de la IA y a reducir la brecha con los modelos comerciales de código cerrado. Y todos los logros actuales son, de un modo u otro, pasos hacia el progreso de la humanidad en la construcción de AGI.
Ver también:
Publicado: 14.07.2025