OpenAI acaba de acercarnos más que nunca a ‘Her’: su nuevo modelo de voz nos acompañará (y quizás enamorará)

0
65

Las
películas
suelen
darnos
la
posibilidad
de
conocer
anticipadamente
algunos
avances
tecnológicos
que
probablemente

acaben
haciéndose
realidad
.
Viaje
a
la
Luna
’,
inspirada
en
obras
literarias
de
Julio
Verne,
hablaba
de
viajes
espaciales
a
principios
del
1900.
2001:
Una
odisea
del
espacio
’,
estrenada
en
1968,
introdujo
el
concepto
de
un
supercomputador
avanzado
con
inteligencia
artificial
(IA)
capaz
de
razonar
y
de
comunicarse
en
lenguaje
natural
con
los
humanos.

Más
recientemente,
en
2013,
Joaquin
Phoenix
interpretó
a
Theodore
Twombly
en
Her’.
Esta
obra
cinematográfica
escrita
y
dirigida
por
Spike
Jonze
cuenta
la
historia
de
un
hombre
solitario
y
con
poca
vida
social
que
empieza
a
interactuar
con
una
asistente
virtual
llamada
Samantha.
Ella
tiene
varias
características
inusuales
para
las
máquinas,
como
buen
sentido
del
humor,
empatía,
deseo
y
una
creciente
necesidad
de
autodescubrimiento.
Theodore
termina
enamorándose
de
ella.

Cuando
‘Her’
llegó
a
las
salas
de
cines,
lo
más
cercano
que
teníamos
a
un
asistente
de
voz
con
IA
era
Siri.
Los
anuncios
de
Apple
nos
presentaban
a
esta
característica
como
algo

tremendamente
innovador
,
y,
sobre
todo,
intuitivo.

Podíamos
ver
a
Samuel
Jackson

pidiéndole
a
un

iPhone
4s

en
lenguaje
natural
que
le
buscara
una
tienda
cercana
donde
comprar
hongos
orgánicos,
o
preguntándole
cuántas
onzas
hay
en
una
taza.
Esta
tecnología
prometía
hacernos
la
vida
más
fácil.
No
fue
así.

Rápidamente
entendimos
que
lo
de
hablarle
con
lenguaje
natural
a
Siri
o
a
cualquier
otro
asistente
de
voz
era
una
misión
casi
imposible.
La
clave
para
poder
utilizarlos
era
memorizar
una
serie
de
comandos
para
pronunciarlos
exactamente
cómo
el
sistema
esperaba.
Para
algunos
esto
iba
a
solucionarse
con
el
paso
del
tiempo,
después
de
todo
la
tecnología
evoluciona,
pero
otros
tenían
menos
esperanzas
a
corto
plazo.
Una
década
después
las
cosas
no
habían
cambiado
demasiado.

Cuando
la
ciencia
ficción
empieza
a
hacerse
realidad

En
la
actualidad
utilizamos
los
asistentes
de
voz
incorporados
en
nuestros
teléfonos
para
poner
música,

programar
temporizadores
y
poco
más
.
Productos

impulsados
por
IA

que,
según
sus
creadores,
tenían
mucho
para
ofrecer,
como
el

Rabbit
R1

y
el

Humane
AI
Pin
,

todavía
están
demasiado
verdes
.
OpenAI,
sin
embargo,
acaba
de
mostrar
algo
que
puede
revivir
las
esperanzas
de
aquellos
que
esperan
un
asistente
de
voz
que
sea
mucho
más
que
eso,
que
sea
un
acompañante
virtual.

Desde
hace
tiempo
que

ChatGPT

cuenta
con
un
modo
de
conversación
que
nos
permite
interactuar
con
el
chatbot.
Esta
opción,
aunque
interesante,
tiene
muchas
carencias.
La
síntesis
de
voz
puede
sentirse
demasiado
artificial
y,
por
si
esto
fuera
poco,
los
tiempos
de
latencia
de
entre
2,8
y
5,4
segundos
se
presentan
como
un
obstáculo
a
la
hora
de
mantener
una
interacción
fluida.
OpenAI
pretende
dejar
atrás
estas
limitaciones
con
su
nuevo
modelo.

Voz Chatgpt

ChatGPT
empezará
a
funcionar
con

GPT-4o

(la
“o”
es
de
“omni”,
que
significa
que
está
en
todas
partes).
Estamos
hablando
de
un
modelo
de
lenguaje
grande
que,
a
diferencia
de
las
versiones
anteriores,
ha
sido
entrenado
íntegramente
para
ofrecer

capacidades
de
visión,
texto
y
audio
.
Presumiblemente
también
estamos
ante
un
modelo
del
tipo
Mixture
of
experts
(MoE),
que
apunta
a
la
eficiencia
sin
perder
capacidades.
GPT-4o
tiene
una
latencia
promedio
de
320
milisegundos.

Así
que
estamos
viendo
un
ChatGPT
muy
diferente
al
que
conocimos
por
primera
vez
en
noviembre
de
2022.
El
chatbot
con
GPT-4o
tiene
un
rendimiento
equiparable
a

GPT-4
Turbo

en
inteligencia
de
texto,
razonamiento
y
codificación.
Presume
de
una
variedad
de
características
propias
de
los
humanos,
como
la
de
conversar
naturalmente,
reír,
cantar,
reconocer
imágenes
y
hasta
identificar
el
sentido
del
humor
del
usuario.
Además,
puede
interactuar
en
más
de
50
idiomas.

Estamos
acercándonos
rápidamente
a
lo
que
Spike
Jonze
nos
proponía
en
‘Her’.
O
al
menos
esto
es
lo
que
creemos
tras
las
demostraciones
que
la
propia
OpenAI
he
hecho
en
su
directo
del
lunes.
En
uno
de
los
vídeos
podemos
ver
a
uno
de
los
miembros
de
OpenAI
sosteniendo
su
iPhone
con
la
aplicación
de
ChatGPT.
Oye,
¿cómo
te
va?
”,
pregunta,
y
ChatGPT
saluda
a
través
de
una
voz
femenina
y
describe
con
bastante
precisión
lo
que
está
viendo,
demostrando
así
sus
capacidades
de
visión.

“Veo
que
estás
usando
una
sudadera
con
capucha
abierta
de
OpenAI.
Buena
elección”.
La
IA,
no
obstante,
detecta
algo
que
le
llama
la
atención
(si
es
que
así
podemos
denominarlo)
y
pregunta
qué
hay
con
el
techo,
y
pregunta
si
el
joven
está
en
una
oficina
de
estilo
industrial
o
algo
parecido.
El
usuario
invita
a
ChatGPT
a
adivinar
qué
está
haciendo
allí.
“Por
lo
que
puedo
ver,
parece
que
estás
en
algún
tipo
de
setup
de
grabación
o
setup
de
producción.
Esas
luces,
trípodes,
y
posiblemente
un
micrófono.
Parece
que
podrías
estar
preparándote
para
grabar
una
escena
de
vídeo
o
tal
vez
una
transmisión”.

El
miembro
del
equipo
de
OpenAI
responde
que
están
preparando
un
anuncio,
pero
la
IA
muestra
lo
que
podría
ser
intriga
y
especula
sobre
los
detalles
del
anuncio.
“¿Este
anuncio
está
relacionado
con
la
IA?”,
pregunta.
“¿Qué
pasaría
si
te
dijera
que

eres
el
anuncio?”,
responde
el
joven.
¿Yo?
¿El
anuncio
es
sobre
mí?
”,
pregunta
el
sistema,
mostrando
sorpresa
sobre
lo
que
el
usuario
acaba
de
decir.
La
conversación
es
realmente
interesante,
principalmente
si
tenemos
en
cuenta
que
estamos
hablando
con
un
modelo
de
IA
multimodal.

Pero
hay
mucho
más.
Greg
Brockman,
presidente
de
OpenAI,
hizo
una
interesantísima
demostración
de
dos
IA
interactuando
y
cantando.
Brockman
le
explica
en
lenguaje
natural
a
ChatGPT
de
uno
de
los
móviles
que
le
permitirá
hablar
con
otra
IA.
Le
dice
que
la
otra
IA
podrá
ver
el
mundo
a
través
de
una
cámara,
y
que
le
podrá
hacer
preguntas.
“Bueno,
bueno,
bueno,
eso
suena
bien”,
responde.
Brockman
hace
lo
propio
con
el
otro
móvil.

“Habrá
otra
IA
que
te
hablará
y
esta
IA
no
podrá
ver
nada,
pero
podrá
hacerte
preguntas
(…)
puede
preguntarte
lo
que
quieras.
Tu
trabajo
debería
ser
útil.

Solo

‘punchy’,
directo,
describe
todo

y
haz
lo
que
la
IA
te
pida”.
Momentos
después
ambas
IA
empiezan
a
interactuar
como
podemos
ver
en
el
vídeo.
En
un
momento
Brockman
le
pide
a
una
de
las
IA
que
cante
una
canción
de
lo
que
acaba
de
ver,
y
que
se
complemente
con
la
otra
IA
línea
tras
línea.

Lo
último
de
OpenAI
abre
muchas
puertas.
GPT-4o
se
presenta
como
un
modelo
capaz
de
detectar
el
sarcasmo,
resolver
problemas
matemáticos,
hacer
traducción
instantánea,
y
mucho
más.
Estamos
frente
a
una
máquina
cuyas
habilidades
se
parecen
cada
vez
más
a
las
de
los
humanos.
Estamos
frente
a
un
avance
que,
aunque
fue
sugerido
por
la
ciencia
ficción,
parecía
impensable
hace
poco
tiempo.
OpenAI,
una
vez
más,
parece
estar
más
avanzada
que
la
competencia.

El
directo
de
hoy
ha
llegado
acompañado
de
varios
anuncios.
En
primer
lugar,
que
acaba
de
empezar
el
despliegue
gradual
de
GPT-4o
entre
todos
los
usuarios
de
ChatGPT,
aunque
aquellos
que
utilizan
las
versiones
pagas

tendrán
límites
más
altos
.
Presumiblemente,
GPT-3.5
y
GPT-4
seguirán
estando
disponibles
y
los
usuarios
podrán
cambiar
entre
modelos.
El
nuevo
sistema
de
voz,
no
obstante,
será
exclusivo
de
las
versiones
de
pago,
y
llegará
en
estado
alfa
en
las
próximas
semanas.

Openai 5

También
se
ha
anunciado
una
aplicación
de
escritorio
de
ChatGPT,
que
de
momento
llegará
a
macOS.
Podremos
utilizar
esta
app
para
invocar
al
chatbot
en
cualquier
momento
y
pedirle
que
utilice
sus
capacidades
de
visión
para
obtener
información
de
lo
que
tengamos
en
pantalla.
Además,
podremos
invitar
a
la
IA
a
sumarse
a
una
videoconferencia
para
que
interactúe
con
los
participantes.

Ya
entrando
en
el
campo
de
los
rumores,

se
cree
que
Apple
habría
ultimado
un
acuerdo
con
OpenAI

para
utilizar
la
tecnología
de
la
compañía
dirigida
por
Sam
Altman
para
impulsar
algunas
funciones
de

iOS
18
.
¿Podría
servir
esta
tecnología
para
mejorar
el
asistente
de
voz
del
iPhone?
En
la

WWDC
2024

que
comenzará
el
10
de
junio
probablemente
recibiremos
alguna
respuesta.

Para
que
la
IA
se
acerque
mucho
más
a
lo
que
es
Samantha
en
‘Her’,
debería
ser
capaz
de
hacer
tareas
por
nosotros,
como
llamar
por
teléfono
en
nombre
nuestro,
chequear
nuestros
correos
electrónicos,
examinar
y
organizar
nuestros
archivos

e
incluso
pedirnos
un
Uber
.
Ciertamente,
esto
sería
estupendo,
pero
también
traería
muchos
dilemas
en
cuanto
a
la
seguridad
y
la
privacidad.

Imágenes
|

Warner
Bros.
Pictures

|

OpenAI

En
Xataka
|

ARM
prepara
chips
de
IA
para
2025.
Los
móviles
ya
se
le
han
quedado
pequeños