Durante
años,
Google
ha
sido
el
gigante
dormido
de
la
industria
de
la
IA.
Con
una
trayectoria
plagada
de
avances
científicos
revolucionarios
—como
la
creación
del
transformer,
base
de
todos
los
modelos
actuales
de
lenguaje—,
la
compañía
californiana
parecía
destinada
a
liderar
esta
nueva
era
tecnológica.
Sin
embargo,
desde
que
OpenAI
irrumpió
en
escena
con
ChatGPT,
Google
ha
vivido
a
la
sombra,
relegado
al
papel
de «el
que
pudo
haber
sido».
Pero
todo
eso
ha
cambiado.
En
2025,
Google
ya
no
solo
compite:
está
ganando.
Aunque
todavía
le
queda
lo
más
difícil
de
conquistar:
la
mente
del
público.
cuando
MICROSOFT
lanzaba
anuncios
ANTI-GOOGLE
El
gran
error:
cómo
Google
se
quedó
parado
mientras
OpenAI
hacía
historia
Para
entender
por
qué
el
ascenso
actual
de
Google
en
la
carrera
de
la
IA
es
tan
significativo,
hay
que
recordar
el
momento
en
que
todo
cambió:
el
30
de
noviembre
de
2022,
día
en
que
OpenAI
lanzó
ChatGPT.
Fue
una
fecha
que
marcó
un
antes
y
un
después
en
la
percepción
pública
de
la
inteligencia
artificial.
El
impacto
fue
inmediato:
en
cuestión
de
días,
ChatGPT
acumulaba
millones
de
usuarios.
Y
pilló
a
Google
completamente
a
contrapié.
Paradójicamente,
Google
tenía
toda
la
tecnología
necesaria
para
lanzar
algo
similar
—e
incluso
superior—
a
ChatGPT.
En
sus
laboratorios
ya
se
trabajaba
con
LaMDA,
un
modelo
conversacional
muy
avanzado.
Tenían
también
los
transformers,
la
infraestructura,
los
equipos
científicos,
y
años
de
ventaja.
Pero
no
se
atrevieron
a
dar
el
paso.
La
razón
fue
estratégica:
los
directivos
temían
que
un
lanzamiento
precipitado
de
un
chatbot
pudiera
dañar
el
negocio
principal
de
la
empresa,
las
búsquedas
y
la
publicidad
contextual,
que
en
aquel
entonces
generaban
la
mayor
parte
de
sus
ingresos.
Un
error
de
cálculo
comprensible,
pero
que
se
saldó
con
un
coste
reputacional
altísimo:
Google
pasó
de
ser
el
líder
silencioso
del
desarrollo
en
IA…
a
parecer
un
seguidor
rezagado.
Así,
Google
fue
obligado
a
seguir
el
paso
que
marcaban
otros:
primero
con
Bard,
un
lanzamiento
apresurado
y
lleno
de
fallos.
Aunque
muchas
cosas
han
cambiado
en
estos
dos
años
y
medio.
Pero
ahora
Google
lo
está
haciendo
prácticamente
todo
bien
En
términos
tecnológicos,
Google
—a
través
de
su
filial
DeepMind—
ha
puesto
toda
la
carne
en
el
asador.
Su
nuevo
buque
insignia,
Gemini
2.5
Pro,
ha
alcanzado
el
primer
puesto
en
prácticamente
todos
los
benchmarks
relevantes
del
sector:
LMArena,
GPQA
Diamond,
AIME,
LiveBench,
etc.
No
solo
supera
a
GPT-4
en
razonamiento
y
precisión,
sino
que
además
es
más
rápido,
más
barato
y
tiene
una
gigantesca
ventana
de
contexto
de
un
millón
de
tokens
(superior
a
GPT
incluso
tras
su
último
lanzamiento).
Además,
la
percepción
general
entre
expertos
y
usuarios
técnicos
ha
cambiado:
muchos
coinciden
en
que
Gemini
2.5
Pro
es
el
mejor
modelo
del
momento.
La
versión
Flash,
pensada
para
dispositivos
móviles,
es
aún
más
veloz
y
económica.
Google
ha
diseñado
así
una
gama
de
modelos
que,
como
mostró
el
analista
@Swyx, ‘ocupan
toda
la
frontera
de
Pareto’:
máximas
prestaciones
al
menor
coste.
Los
otros
gigantes:
más
allá
de
Gemini
Aunque
Gemini
2.5
Pro
se
ha
llevado
los
titulares
técnicos,
Google
ha
desplegado
en
paralelo
un
auténtico
arsenal
de
modelos
especializados
que
refuerzan
su
dominio
en
áreas
clave
de
la
inteligencia
artificial
generativa.
Cada
uno
de
ellos
apunta
a
una
modalidad
distinta
—imagen,
vídeo,
música,
voz,
código,
open
source—
y
juntos
forman
un
ecosistema
de
capacidades
sin
parangón.
-
Imagen
3:
el
modelo
de
generación
de
imágenes
de
Google
representa
la
cúspide
del
realismo
visual
alcanzado
por
una
IA.
A
diferencia
de
versiones
anteriores
o
rivales
como
DALL·E
3,
Imagen
3
se
caracteriza
por
una
comprensión
mucho
más
precisa
del
texto
y
una
fidelidad
estética
impresionante. -
Veo
2:
es
el
modelo
de
generación
de
vídeo
de
Google,
lanzado
poco
después
de
la
presentación
de
Sora
por
parte
de
OpenAI.
A
pesar
de
haber
sido
eclipsado
mediáticamente
por
aquel
teaser
de
corte
cinematográfico,
Veo
2
ofrece
resultados
superiores,
especialmente
en
términos
de
estabilidad
temporal,
comprensión
semántica
del
prompt
y
calidad
de
renderizado. -
Lyria:
es
una
propuesta
ambiciosa
para
transformar
la
música
generativa,
generando
pistas
musicales
completas
a
partir
de
descripciones
textuales,
géneros,
emociones
o
instrumentos
específicos.
No
solo
compone
melodías:
es
capaz
de
entender
progresiones
armónicas,
ritmos
complejos
y
texturas
sonoras
propias
de
un
estudio
profesional. -
Chirp
3:
en
el
campo
del
audio,
es
la
apuesta
de
Google
para
la
síntesis
de
voz
y
el
reconocimiento
de
lenguaje
hablado.
Este
modelo
es
capaz
de
generar
voces
hiperrealistas,
con
entonación
natural
y
matices
emocionales,
así
como
transcribir
audio
con
precisión
en
múltiples
idiomas.
Su
aplicación
en
herramientas
como
NotebookLM,
que
puede
transformar
documentos
en
podcasts
de
voz
humana
creíble,
lo
convierte
en
un
pilar
de
la
IA
conversacional
y
accesible. -
Gemma
3:
es
la
respuesta
de
Google
al
auge
de
los
modelos ‘open
source’
como
LLaMA
de
Meta
o
Mistral.
Este
modelo
open
source
ha
sido
entrenado
para
competir
directamente
con
los
mejores
del
mercado
en
tareas
de
lenguaje
natural,
manteniendo
un
alto
rendimiento
sin
sacrificar
eficiencia.
También
están
los
agentes:
Google
está
desarrollando
asistentes
como
Project
Astra
(integrado
con
realidad
aumentada)
o
Project
Mariner
(navegación
autónoma
en
la
web),
y
ha
sido
pionera
en
protocolos
de
interoperabilidad
entre
agentes,
como
Agent2Agent
y
el
apoyo
al
Model
Context
Protocol.
Aquí,
de
nuevo,
se
adelanta
al
resto.
Y,
sin
embargo,
algo
falla:
el
relato
Pese
a
todos
estos
logros,
Google
sigue
sin
conquistar
el
corazón
del
gran
público.
Cada
nuevo
lanzamiento,
por
impresionante
que
sea,
se
ve
eclipsado
por
las
campañas
virales
de
OpenAI.
Cuando
Gemini
2.5
Pro
se
lanzó
gratuitamente
para
usuarios
de
Google
One,
el
mundo
hablaba
de
otra
cosa:
de
las
imágenes «al
estilo
Studio
Ghibli»
generadas
por
ChatGPT.
Esto
no
es
casualidad.
OpenAI
ha
sabido
convertir
cada
actualización
en
un
evento,
cada
demo
en
una
experiencia.
Sora,
su
generador
de
vídeo,
acaparó
titulares
durante
semanas,
a
pesar
de
que
Google
lanzó
poco
después
un
modelo,
Veo
2,
que
lo
superaba
técnicamente.
Ni
siquiera
cuando
Google
lanza
algo
tan
innovador
como
NotebookLM
—una
herramienta
que
convierte
textos
en
podcasts
con
voces
generadas
por
IA—
logra
captar
la
misma
atención.
Aunque
incluso
Andrej
Karpathy,
exdirector
de
IA
en
Tesla
y
cofundador
de
OpenAI,
ha
elogiado
esta
tecnología,
su
impacto
mediático
ha
sido
mínimo.

NotebookLM
El
talón
de
Aquiles:
la
marca
La
clave
de
esta
desconexión
es
el
branding.
OpenAI
ha
creado
una
marca
aspiracional,
como
ya
hizo
Apple
en
su
momento
en
el
campo
de
los
gadgets.
ChatGPT
es,
para
el
público
general,
la
IA.
Google,
en
cambio,
sigue
percibiéndose
como
una
empresa
de
herramientas:
útil,
sí,
pero
poco
inspiradora.
Esto
tiene
consecuencias.
Mientras
Google
despliega
sus
modelos
en
su
suite
de
productos
(Android,
Chrome,
Gmail,
Maps,
Drive,
Docs…),
OpenAI
sigue
siendo
el
nombre
que
genera
titulares,
memes,
TikToks,
artículos
virales
y
promesas
futuristas.
Incluso
cuando
Google
lanza
una
función
que
ya
está
disponible
y
es
superior
técnicamente,
OpenAI
consigue
que
la
suya
parezca
más
revolucionaria.
No
sólo
hacer,
sino
que
otros
no
hagan
La
cuestión
del
talento.
Más
allá
de
los
modelos,
infraestructuras
o
productos,
la
carrera
de
la
IA
es
también
una
batalla
por
el
talento.
Y
en
este
campo,
Google
ha
desplegado
una
estrategia
tan
agresiva
como
silenciosa:
mantiene
en
plantilla
a
expertos
en
IA
sin
tareas
asignadas,
únicamente
para
evitar
que
se
marchen
a
la
competencia.
Esta
política
puede
parecer
sorprendente,
pero
responde
a
una
realidad:
algunos
de
los
nombres
más
destacados
del
boom
de
la
IA
generativa
tienen
raíces
en
Google:
Sam
Altman
fichó
a
muchos
antiguos
empleados
de
Google
Brain
o
DeepMind,
y
la
propia
Anthropic
fue
fundada
por
ex-empleados
de
Google.
La
cuestión
del
I+D.
La
cultura
interna
de
Google
DeepMind
también
ha
cambiado
como
consecuencia
de
la
nueva
estrategia.
Durante
años,
Google
fue
sinónimo
de
investigación
abierta
en
IA.
Publicaba
sus
avances,
compartía
sus
descubrimientos
y
liberaba
herramientas
clave
—como
el
paper
de
los
transformers
en
2017—
que
pavimentaron
el
camino
para
modelos
como
ChatGPT.
Pero
esa
era
está
llegando
a
su
fin:
la
empresa
está
cerrando
el
grifo
de
la
transparencia
científica,
limitando
la
publicación
de
papers
y
restringiendo
el
acceso
abierto
a
sus
modelos.
El
objetivo
ya
no
es
sólo
liderar
tecnológicamente,
sino
impedir
que
otros
se
beneficien
de
su
esfuerzo
y
recursos.
Una
ventaja
estratégica
inmensa…
si
sabe
usarla
Pese
a
esta
desventaja
narrativa,
Google
tiene
cartas
muy
poderosas
en
sus
manos:
Integración
masiva
Cuenta
con
más
de
siete
productos
con
más
de
2.000
millones
de
usuarios
activos:
YouTube,
Search,
Gmail,
Chrome,
Maps,
Play
Store,
Android.
La
integración
nativa
de
Gemini
en
todos
ellos
le
da
acceso
inmediato
a
miles
de
millones
de
personas.
Esto
se
extiende
también
a
sus
dispositivos
físicos:
con
su
gama
Pixel,
Google
no
solo
compite
en
software,
sino
que
puede
llevar
Gemini
directamente
al
bolsillo
del
usuario.
La
carta
que
Google
guarda
bajo
la
manga:
su
autonomía
en
hardware
Uno
de
los
factores
más
infravalorados
del
dominio
de
Google
en
inteligencia
artificial
es
su
control
total
sobre
la
infraestructura
de
hardware.
Mientras
que
rivales
como
OpenAI
dependen
de
los
chips
y
servidores
de
Microsoft
Azure,
y
Anthropic
de
Amazon
Web
Services,
Google
no
solo
es
un
proveedor
de
nube
(Google
Cloud),
sino
que
además
diseña
sus
propios
chips
de
IA,
los
TPU
(Tensor
Processing
Units).
En
la
edición
de
Google
Cloud
Next
2025,
la
compañía
presentó
su
última
generación:
TPU
v7 «Ironwood»,
diseñada
específicamente
para
cargas
de
trabajo
de
inferencia
a
gran
escala.
Así,
según
Creative
Strategies,
«A
diferencia
de
OpenAI,
Meta
o
incluso
los
grandes
laboratorios
chinos,
no
depende
de
Nvidia
ni
de
terceros
para
sus
necesidades
de
computación.
Y
eso,
en
el
contexto
actual,
es
un
superpoder».

Y
el
contexto
actual
importa:
el
cuello
de
botella
más
importante
para
el
desarrollo
y
la
democratización
de
la
IA
no
es
ni
la
ciencia,
ni
la
regulación,
ni
la
ética.
Es
la
escasez
de
capacidad
de
cómputo.
Las
GPU
de
Nvidia
están
sobredemandadas,
los
costes
se
disparan,
y
los
proveedores
de
nube
compiten
ferozmente
por
cada
chip.
Aquí,
Google
tiene
un
acceso
prioritario,
exclusivo
y
optimizado
a
su
propio
stack
de
hardware,
lo
que
le
permite:
-
Entrenar
modelos
como
Gemini
sin
límites
externos. -
Ejecutar
sus
productos
de
forma
más
rápida
y
barata. -
Escalar
soluciones
como
Gemini
2.5
Flash
a
móviles
sin
depender
de
otros. -
Ofrecer
servicios
en
Vertex
AI
con
márgenes
más
competitivos.
La
otra
gran
batalla
(que
también
está
ganando)
El
foco
mediático
se
centra
en
la
rivalidad
entre
Google
y
OpenAI,
pero
internamente
en
Google
la
percepción
era
diferente
no
hace
tanto
tiempo.
Un
informe
filtrado
en
2023,
que
causó
gran
revuelo,
revelaba
que
dentro
de
la
compañía
se
consideraba
al
movimiento
open
source
—más
que
a
OpenAI—
como
el
verdadero
competidor
estratégico
en
la
carrera
de
la
IA.
«OpenAI
no
importa«,
rezaba
el
documento.
Su
preocupación
era
legítima.
En
pocos
meses,
modelos
como
Mistral,
LLaMA,
Falcon
o
Vicuna
habían
demostrado
rendimientos
sobresalientes.
Pero
Google
respondió:
con
el
lanzamiento
de
Gemma,
su
familia
de
modelos
open
source,
la
compañía
ha
entrado
en
el
terreno
del
software
libre
no
como
observador,
sino
como
actor
principal.
Su
versión
más
reciente,
Gemma
3,
ha
demostrado
estar
a
la
altura
de
los
mejores
modelos
open
source,
y
en
ciertos
aspectos
incluso
por
encima
de
ellos.
Su
integración
con
las
herramientas
de
desarrollo
de
Google
(como
Colab
o
Vertex
AI)
y
su
diseño
modular
para
tareas
específicas
lo
convierten
en
un
modelo
versátil
y
competitivo.
Imagen
|
Marcos
Merino
mediante
IA