¿Alguna
vez
te
has
preguntado
dónde
se
procesan
todas
preguntas
que
le
haces
a
ChatGPT?
Si
no
estás
demasiado
inmerso
en
el
mundillo
de
la
inteligencia
artificial,
la
respuesta
podría
sorprenderte:
todo
ocurre
en
servidores
que
son
propiedad
de
Microsoft.
Esta
infraestructura,
a
su
vez,
está
impulsada
principalmente
por
el
más
moderno
hardware
de
NVIDIA,
pero
tenemos
razones
para
creer
que
las
cosas
cambiarán
en
el
futuro.
Las
dependencias
excesivas
no
son
recomendables.
En
el
sector
empresarial,
predisponen
escenarios
de
vulnerabilidad,
innovación
limitada
y
pérdida
de
control.
Uno
de
los
ejemplos
más
claros
que
podemos
encontrar
de
esto
en
la
industria
tecnológica
es
la
pasada
dependencia
de
Apple
a
los
procesadores
Intel,
algo
que
los
de
Cupertino
abordaron
desde
el
chip
M1
en
adelante.
Microsoft
quiere
reducir
su
dependencia
de
NVIDIA
Salvando
las
diferencias,
parte
del
presente
(y
del
futuro)
de
Microsoft
está
atado
a
los
productos
de
NVIDIA.
Y,
no
nos
engañemos,
esto
le
ha
traído
muchos
beneficios.
La
compañía
dirigida
por
Satya
Nadella
comenzó
a
construir
su
relación
con
OpenAI
en
un
lejano
2016
ofreciendo
uno
de
sus
tesoros
más
preciados,
que
no
era
otra
cosa
que
su
servicio
de
computación
Microsoft
Azure.
En
aquel
entonces,
el
servicio
se
sostenía
principalmente
por
una
enorme
cantidad
de
GPU
NVIDIA
Tesla
K80
con
arquitectura
Kepler,
aunque
ya
se
hablaba
de
hacer
una
gran
actualización
hacia
las
próximas
GPU
del
fabricante
basadas
en
su
nueva
arquitectura
Pascal.
OpenAI
necesitaba
supercomputadores
rápidos
para
entrenar
sus
modelos
más
avanzados,
y
Microsoft
los
tenía,
gracias
al
hardware
de
NVIDIA,
claro.
Los
centros
de
datos
de
Azure
alcanzaron
otro
nivel
cuando
en
2019
Microsoft
hizo
su
primera
inversión
en
OpenAI.
Puso
sobre
la
mesa
1.000
millones
de
dólares
en
la
compañía
le
prometió
construir
un
supercomputador
con
una
potencia
descomunal.
La
firma
dirigida
por
Sam
Altman
necesitaba
entrenar
modelos
cada
vez
más
grandes
y,
una
vez
más,
Microsoft
ofrecía
su
solución.
Esta
vez,
adquirió
GPU
NVIDIA
A100
para
hacer
más
robusta
y
potente
su
infraestructura
en
la
nube.
Se
trataba
de
uno
de
los
cambios
más
importantes
que
Azure
había
sufrido
en
los
últimos
años.
De
hecho,
los
ingenieros
de
Microsoft
debieron
innovar
en
métodos
para
hacer
que
tantas
GPU
funcionasen
juntas.
Pero
la
industria
de
la
IA
se
mueve
rápido,
muy
rápido.
Aquella
estupenda
―y
multimillonaria―
inversión
del
gigante
de
Redmond
pronto
empezó
a
ser
insuficiente.
La
carrera
por
liderar
el
desarrollo
de
la
IA
requería
de
más
cambios.
Así
que
Microsoft
sacó
la
cartera
dos
veces
más,
en
2021
y
en
2023,
para
financiar
a
OpenAI,
y
volvió
a
comprar
el
más
moderno
hardware
de
NVIDIA,
las
NVIDIA
H100,
y
después
encargó
las
nuevas
NVIDIA
H200.
Como
podemos
ver,
el
vínculo
entre
OpenAI
y
Microsoft
se
ha
sostenido
en
base
a
las
potentes
inversiones
de
esta
última
en
combinación
con
su
estupenda
infraestructura
de
cómputo
con
espíritu
NVIDIA.
Ambas
compañías,
sin
embargo,
ya
están
trabajando
para
reducir
su
dependencia
de
la
firma
dirigida
por
Jensen
Huang,
aunque
sus
esfuerzos
tardarán
en
dar
los
primeros
frutos.
Según
Windows
Central,
el
plan
de
Satya
Nadella
y
Sam
Altman
es
tremendamente
ambicioso.
En
concreto,
contempla
una
inversión
de
alrededor
de
100.000
millones
de
dólares
en
infraestructura
de
cómputo
para
aplicaciones
de
IA.
Estamos
hablando
de
una
inversión
superior
a,
por
ejemplo,
lo
que
Microsoft
pagó
Activision
Blizzard.
Recordemos
que
la
operación
se
cerró
en
69.000
millones
de
dólares.
El
plan,
de
acuerdo
a
los
rumores,
tiene
varias
aristas.
Por
un
lado,
se
construirá
un
supercomputador
de
IA
para
Azure
conocido
bajo
el
nombre
código
“Stargate”
que
no
contaría
con
hardware
de
NVIDIA.
Por
otro
lado,
se
prepararía
otro
supercomputador
algo
más
pequeño
para
uso
exclusivo
de
OpenAI.
El
primero
estaría
listo
en
2028
mientras
que
el
segundo
arrancaría
en
2026.
Puede
que
te
preguntes
qué
alternativas
a
NVIDIA
tiene
Microsoft
en
la
actualidad.
La
respuesta
que
el
gigante
de
Redmond
también
es
una
compañía
de
hardware,
y
desde
hace
tiempo
lleva
dedicando
presupuesto
para
desarrollar
sus
propios
chips
de
IA.
En
el
evento
Microsoft
Ignite
del
año
pasado
nos
enteramos
de
la
existencia
de
dos
de
sus
nuevos
productos.
Azure
Maia
AI
es
un
chip
para
centro
de
datos
optimizado
para
la
IA
generativa
e
IA
general.
Azure
Cobalt,
basado
en
ARM,
ha
sido
diseñado
para
impulsar
computación
de
propósito
general.
“Estamos
reimaginando
cada
aspecto
de
nuestros
centros
de
datos
para
satisfacer
las
necesidades
de
nuestros
clientes”,
decía
Scott
Guthrie,
responsable
de
IA
y
servicios
en
la
nube,
durante
el
evento.
Imágenes
|
Microsoft
En
Xataka
|
Empresas
de
EEUU
y
China
se
dan
la
mano
por
un
buen
motivo:
crear
el
primer
estándar
global
de
IA
generativa