Como
ya
se
difundió
hace
cuatro
meses,
OpenAI
ha
anunciado
el
lanzamiento
de
gpt-oss-120b
y
gpt-oss-20b,
dos
potentes
modelos
de
lenguaje
bajo
licencia ‘open
source’
(más
concretamente,
bajo
licencia
Apache
2.0),
que
prometen
redefinir
los
límites
del
rendimiento
en
tareas
de
razonamiento,
uso
de
herramientas
y
eficiencia
operativa.
Este
anuncio
marca
el
regreso
de
OpenAI
al
ecosistema
de
modelos
abiertos,
siendo
esta
su
primera
aportación
en
este
campo
desde
el
lanzamiento
de
GPT-2,
en
2019.
Ambos
modelos
(ya
disponibles
para
descarga)
han
sido
entrenados
utilizando
técnicas
de
aprendizaje
profundo
inspiradas
en
los
modelos
internos
más
sofisticados
de
OpenAI,
como
o3
y
o4-mini.
En
palabras
del
propio
Sam
Altman,
CEO
de
OpenAI,
«Estamos
entusiasmados
de
poner
este
modelo
—fruto
de
miles
de
millones
de
dólares
en
investigación—
al
alcance
del
mundo,
para
que
la
IA
llegue
al
mayor
número
posible
de
personas».
Cualquier
desarrollador,
organización
o
país
podrá
ejecutar,
modificar
y
desplegar
estos
modelos
en
su
propia
infraestructura
sin
restricciones
comerciales
GPT-4
en
4
MINUTOS
Potencia
y
eficiencia
para
todos
los
entornos
-
gpt-oss-120b:
Equiparable
al
modelo
o4-mini
de
OpenAI
en
tareas
de
razonamiento,
puede
ejecutarse
en
una
sola
GPU
de
80
GB,
gracias
a
su
diseño
eficiente
basado
en
mixture-of-experts
(MoE).
Accesible
para
centros
de
investigación,
universidades
y
startups
que
cuenten
con
recursos
medianamente
avanzados. -
gpt-oss-20b:
Diseñado
para
dispositivos
con
tan
solo
16
GB
de
memoria,
supera
incluso
a
modelos
propietarios
como
o1
y
GPT-4o
en
benchmarks
relacionados
con
temáticas
como
salud
y
matemáticas.
Su
eficiencia
y
rendimiento
lo
convierten
en
una
herramienta
ideal
para
entornos
descentralizados
o
con
restricciones
de
infraestructura.
En
cuanto
a
capacidades
avanzadas,
los
dos
modelos
destacan
por:
-
Razonamiento
de
cadena
de
pensamiento
(CoT)
sin
supervisión
directa. -
Soporte
nativo
para
funciones
estructuradas
y
llamadas
de
herramientas
como
búsquedas
web
o
ejecución
de
código
Python. -
Optimización
para
distintos
niveles
de
razonamiento
(bajo,
medio,
alto)
con
ajuste
mediante
un
simple
prompt.
Ambos
modelos
están
pensados
para
ser
utilizados
directamente
o
afinados
por
desarrolladores
en
función
de
sus
necesidades
específicas,
lo
que
los
hace
ideales
tanto
para
usuarios
individuales
como
para
empresas
y
gobiernos.
Herramientas
para
desarrolladores
Con
el
objetivo
de
facilitar
la
adopción
y
el
uso
responsable
de
los
modelos,
OpenAI
también
ha
publicado:
-
Guías
técnicas
para
el ‘ajuste
fino’
(fine-tuning)
de
modelos. -
Integraciones
listas
para
usar
con
plataformas
populares
como
Hugging
Face,
vLLM,
Ollama,
llama.cpp,
y
los
principales
entornos
de
GPU
y
aceleradores.
Este
ecosistema
de
soporte
garantiza
que
equipos
de
todos
los
tamaños,
desde
startups
hasta
grandes
organizaciones,
puedan
comenzar
a
trabajar
con
estos
modelos
desde
el
primer
día,
reduciendo
tiempos
de
implementación
y
aumentando
el
control
sobre
sus
despliegues.
Nuevos
protocolos
de
seguridad
Uno
de
los
aspectos
más
destacados
de
este
lanzamiento
es
su
enfoque
en
la
seguridad.
OpenAI
no
solo
ha
evaluado
sus
modelos
bajo
las
pruebas
estándar,
sino
que
ha
desarrollado
y
publicado
una
metodología
específica
para
simular
escenarios
de
uso
malicioso
extremo
(denominada «protocolo
en
el
peor
escenario
posible«),
como
aplicaciones
en
biotecnología
o
ciberseguridad
ofensiva.
En
palabras
de
Altman,
«Desde
nuestros
inicios
en
2015,
la
misión
de
OpenAI
ha
sido
garantizar
que
laInteligencia
Artificial
General
(AGI)
beneficie
a
toda
la
humanidad.
En
ese
sentido,
nos
entusiasma
que
el
mundo
pueda
desarrollar
sobre
la
base
de
una
infraestructura
de
IA
abierta,
creada
en
Estados
Unidos,
basada
en
valores
democráticos,
disponible
de
forma
gratuita
y
orientada
al
beneficio
colectivo».
Imagen
|
Marcos
Merino
mediante
IA