DeepSeek marcó un punto de inflexión en OpenAI: ahora refuerza su seguridad mientras GPT‑5 asoma en el horizonte, según FT

0
413

La
irrupción
de

DeepSeek

en
el
mercado
no
pasó
desapercibida.
El
20
de
enero
de
2025
puso
en
circulación
su

chatbot
gratuito
,
y
en
cuestión
de
días

escaló
hasta
lo
más
alto

del
ranking
en
la
App
Store
estadounidense,
superando
a

ChatGPT
.
El
impacto
fue
tal
que
incluso
afectó

directamente
al
valor
bursátil
de
NVIDIA
.

Este
éxito
no
tardó
en
generar
fricciones.
Hacia
finales
de
ese
mismo
mes,
OpenAI
lanzó
una
acusación
seria:
la
startup
china
habría
usado
sus
modelos
cerrados
para
entrenar
su
alternativa
de
código
abierto.

En
declaraciones
a
Financial
Times
,
la
compañía
dirigida
por

Sam
Altman

afirmó
tener
evidencia
de
un
proceso
de
destilación
que
apuntaba
a
su
rival
chino.

OpenAI
refuerza
sus
medidas
de
seguridad

Desde
entonces
han
pasado
casi
seis
meses.
Y
si
algo
ha
quedado
claro
es
que
OpenAI
no
dejó
pasar
el
episodio
por
alto.

Según
el
mencionado
periódico
británico
,
la
compañía
inició
una
revisión
a
fondo
de
sus
prácticas
internas
y

reforzó
sus
medidas
de
seguridad

para
reducir
el
riesgo
de
filtraciones
o
lo
que
internamente
ya
se
refieren
como
“espionaje
corporativo”.

“El
episodio
motivó
a
OpenAI
a
ser
mucho
más
riguroso”,
dijo
alguien
cercano
al
equipo
de
seguridad.
La
compañía
estadounidense
ha
intensificado
sus
esfuerzos
para
blindarse
por
dentro:
no
solo
ha
ampliado
su
plantilla
en
ciberseguridad,
también
ha
revisado
sus
protocolos
y
endurecido
sus
políticas
internas.

Entre
las
medidas
más
relevantes
está
el
aislamiento
de
buena
parte
de
su
tecnología
patentada,
que
ahora
se
gestiona
en
entornos
fuera
de
línea
o
separados
del
resto
de
sus
redes.
También
ha
implementado

controles
biométricos

de
acceso
a
sus
oficinas,
reforzado
la
seguridad
física
de
sus
centros
de
datos
y
aplica
una
política
de «salida
denegada
por
defecto
»
para
proteger
los
pesos
de
sus
modelos.

Chatgpt

Si
te
preguntas
en
qué
consiste
esta
última
medida,
la
respuesta
es
bastante
simple:
implica
que
toda
transferencia
de
datos
críticos
queda
bloqueada
por
norma
general,
y
solo
se
permite
si
ha
sido
autorizada
de
forma
expresa.
Así,
cualquier
intento
de
extraer
los
modelos
—o
partes
sensibles
de
ellos—
queda
automáticamente
denegado
salvo
que
se
habilite
manualmente,
reduciendo
al
mínimo
el
riesgo
de
fuga.

Este
blindaje
llega
en
un
momento
clave
para
la
compañía.
La
carrera
por
el
liderazgo
en
inteligencia
artificial
se
ha
acelerado,
y
OpenAI
ya
no
es
vista
como
una
fuerza
inalcanzable.

La
competencia
se
estrecha
,
el
talento
se
encarece
Meta
ha
empezado
a
pagar
cifras
desorbitadas
por
sus
ingenieros

y
todas
las
miradas
están
puestas
en
la
llegada
de

GPT‑5
.

Aunque
OpenAI
no
ha
confirmado
la
fecha
exacta,

Sam
Altman
ha
dicho
que

el
nuevo
modelo
está
en
camino
y
que
será
“una
gran
evolución”
respecto
a
lo
que
conocemos.

Todo
apunta
a
que
GPT‑5
unificará
lo
mejor
de
las
versiones
anteriores
,
con
mayor
capacidad
de
razonamiento,
mejor
personalización,
y,
presumiblemente,
una
ventana
de
contexto
más
amplia.
La
presión
por
lanzarlo
sin
errores,
en
un
entorno
cada
vez
más
competitivo,
es
máxima.

Imágenes
|

Solen
Feyissa

|
Xataka
con
Grok

En
Xataka
|

La
rencilla
de
Huawei
y
Alibaba
amenaza
con
transformarse
en
una
auténtica
guerra:
la
de
la
IA
entre
compañías
chinas