El
gigante
chino
de
e-commerce
Alibaba
se
ha
propuesto
sacudir
el
mundo
de
la
IA
buscando
hacerse
con
el
anhelado
puesto
del ‘OpenAI
chino’.
Y
lo
hace
poniendo
sobre
la
mesa
su
nuevo
modelo
QwQ-32B,
un
LLM ‘open
source’
que
promete
desafiar
a
los
titanes
del
sector,
como
ChatGPT
y
DeepSeek.
Con
una
arquitectura
optimizada
y
un
consumo
de
recursos
significativamente
menor
que
el
de
sus
competidores
(y
DeepSeek
ya
destacaba
con
soltura
en
este
apartado),
QwQ-32B
parece
ser
una
IA
de
la
que
vamos
a
seguir
oyendo
hablar
en
próximas
semanas.
Hablemos
de
parámetros
(y
de
ahorrar
en
mantenimiento)
QwQ-32B
es
un
modelo
de
lenguaje
de
32
mil
millones
de
parámetros
que
destaca
por
su
capacidad
de
razonamiento
complejo
(recurre
al
aprendizaje
por
refuerzo
y
destaca
a
la
hora
de
manejar
tareas
secuenciales
y
estructurar
conocimientos
de
manera
coherente).
«Espera
un
momento,
32
mil
millones
de
parámetros…
¿eso
son
muchos
o
pocos?»,
te
preguntarás;
pues,
para
ponerlo
en
perspectiva,
se
estima
que
modelos
como
GPT-4
de
OpenAI
tienen
1-1,8
billones
de
parámetros,
mientras
que
DeepSeek-R1
cuenta
con
alrededor
de
67
mil
millones.
Uno
de
los
puntos
clave
que
ha
generado
gran
interés
en
la
comunidad
tecnológica
es
su
eficiencia
en
el
uso
de
recursos.
Mientras
que
modelos
de
alto
rendimiento
como
DeepSeek-R1
y
los
de
OpenAI
pueden
llegar
a
requerir
hasta
1500
GB
de
memoria
VRAM,
QwQ-32B
puede
operar
con
menos
de
24
GB,
lo
que
lo
convierte
en
una
opción
mucho
más
accesible
y
escalable.
El
modelo
QwQ-32B
no
sólo
ha
sido
diseñado
para
ofrecer
potencia
de
cálculo,
sino
también
para
ser
una
herramienta
versátil
en
diversos
sectores.
Su
licencia
libre
Apache
2.0
permite
a
empresas
y
desarrolladores
personalizar
su
implementación,
adaptándola
a
necesidades
específicas
en
diversos
campos
profesionales.
Además,
QwQ-32B
ya
está
disponible
en
plataformas
abiertas
como
Hugging
Face,
lo
que
facilita
su
acceso
y
experimentación
por
parte
de
la
comunidad
de
IA.

¿Conclusión?
El
desarrollo
de
QwQ-32B
es
un
paso
más
en
la
estrategia
de
Alibaba
para
consolidarse
como
uno
de
los
líderes
en
el
sector
de
la
inteligencia
artificial.
Si
este
modelo
sigue
demostrando
un
rendimiento
excepcional
con
un
bajo
consumo
de
hardware,
podría
marcar
el
inicio
de
una
nueva
etapa
en
la
IA
accesible
y
eficiente.
Se
acumulan
las
novedades
desde
el
gigante
asiático:
llega
Manus
El
lanzamiento
de
QwQ-32B
ha
coincidido
en
el
tiempo
con
el
anuncio
del
lanzamiento
de
otra
IA
china
que
está
generando
gran
expectación
como
es
Manus,
un ‘agente
de
IA‘
que
se
presenta
como
una
solución
para
la
automatización
de
tareas
complejas
en
entornos
reales,
desde
la
creación
de
sitios
web
hasta
la
elaboración
de
análisis
financieros.
Sin
embargo,
a
pesar
del
entusiasmo
inicial
por
Manus,
han
surgido
críticas
sobre
su
eficiencia
y
aplicabilidad
real.
Según
las
primeras
noticias
que
nos
empiezan
a
llegar
(actualmente
se
encuentra
en
fase
de
pruebas
cerradas
y
solo
está
disponible
mediante
invitación),
su
velocidad
de
procesamiento
es
excesivamente
baja
y
su
consumo
de
tokens
extremadamente
alto,
lo
que
podría
limitar
su
adopción
masiva.
Un
aspecto
interesante
de
su
modelo
es
su
capacidad
para
dividir
tareas
complejas
en
subtareas
manejables,
permitiendo
que
la
IA
ejecute
procesos
de
forma
autónoma
sin
intervención
humana…
pero
su
dependencia
de
APIs
externas
y
scripts
predefinidos
le
quita
lustre
a
su
reivindicación
de
ser
el «primer
agente
de
IA
general»,
pues
reduce
su
flexibilidad
y
capacidad
de
adaptación
a
escenarios
inesperados.
Sin
embargo,
esto
no
ha
reducido
la
expectación
por
probarla
en
su
mercado
de
origen:
al
estar
disponible
sólo
en
beta
cerrada,
en
China
ha
generado
un
mercado
paralelo
donde
los
códigos
de
acceso
se
venden
por
precios
exorbitantes,
aumentando
el
hype
alrededor
del
producto.
Imagen
|
Marcos
Merino
mediante
IA
En
Genbeta
|
Uno
de
los
referentes
de
la
IA
en
China
advierte:
o
prescinden
de
NVIDIA
o
siempre
dependerán
de
EE.UU.