El CEO de OpenAI desvela el uso más común que le damos a ChatGPT. Y pide filosofar menos en Twitter y más trabajo real en seguridad

0
9

Cada
año,
la
Fundación
Sohn
Conference
organiza
un
concurso
de
ideas
de
inversión,
y
la
idea
ganadora
del
concurso
se
presenta
en
una
conferencia
que
se
celebra
anualmente
en
EE.
UU..
Pero
no
es
lo
único
que
se
hace
durante
dicho
evento.
En
la
conferencia
de
hace
un
año,

el
CEO
de
Stripe
(Patrick
Collison)
entabló
una
conversación/entrevista
con
su
colega
de
OpenAI
(Sam
Altman)

en
la
que
hablaron
largo
y
tendido
sobre
el
futuro
de
la
IA.

Empezaron
hablando
sobre
economía
(y
sobre
World
Coin,
el
polémico
proyecto ‘cripto’
de
Altman).
El
propio
Altman
se
mostró
convencido
de
que
la
IA
podría
provocar
un
aumento
masivo
del
crecimiento
económico
real
al

identificar
las
inversiones
y
los
diseños
más
productivos

para
las
empresas.

Pero
desde
su
punto
de
vista,
la
IA
puede
tener
impactos
económicos
mucho
más
relevantes
y
profundos:
él
mismo
pone
como
ejemplo
que

una
IA
que
pudiera
asignar
eficazmente
fondos
a
la
investigación
del
cáncer

podría
ahorrar
miles
de
millones
de
dólares
al
tiempo
que
acelera
los
avances
en
la
búsqueda
de
una
cura.

Sobre
ChatGPT
(y
otros
proyectos
de
OpenAI)

¿Qué
hay
del
impacto
de

ChatGPT

y
todo
lo
que
está
haciendo
OpenAI
sobre
la
industria
de
las
búsquedas
web?
Altman
lo
resumía
así:

«Los
modelos
de
lenguaje
van
a
cambiar
en
gran
medida
las
búsquedas
en
Internet,
pero
no
son
una
amenaza
para
las
búsquedas.
Y
serían
una
amenaza
para
Google
sólo
si
Google
no
hiciera
nada
al
respecto…
y
obviamente

Google
no
va
a
no
hacer
nada
«.

Recordemos
que
este
vídeo

se
grabó
el
día
antes
de
la
presentación
global
de
Bard
en
el
evento
Google
I/O
,
un
lanzamiento
que
antecedió
al
actual
y
más
ambicioso

Google
Gemini
.

Altman
también
aportaba
dos
datos
relevantes:


¿Para
qué
tarea
usan
más
a
menudo
ChatGPT
los
usuarios?

El
caso
de
uso
más
común
del
ChatGPT
es
el
resumen
de
textos «para
poder
mantenerse
al
día
con
los
mensajes
de
correo
electrónico
y
de
Slack».

Sobre
los
debates
en
torno
a
la
seguridad
de
la
IA

Altman
cree
que
confiar
únicamente
en

el
aprendizaje
por
refuerzo
para
la
IA

no
es
una
solución
adecuada
a
largo
plazo,
y
que
lo
crucial
para
conseguir
la ‘alineación’
(término
técnico
para
la
coincidencia
de
intereses
IA/humanos)
es

comprender
el
funcionamiento
interno
de
los
modelos
:

«Ya
sabes,
poder
decir
exactamente
‘aquí
está
el
circuito’,
o
el
conjunto
de
neuronas
artificiales,
donde
algo
está
ocurriend
o,
y
ajustarlo
de
manera
que
se
produzca
un
cambio
sólido
en
el
rendimiento
del
modelo».

«Creo
que
los
materiales
nucleares
y
los
superordenadores
de
IA
presentan
algunas
similitudes,
y
que
es
en
este
campo
en
el
que
podemos
sacar
más
paralelismos
e
inspiración
que
de
otros…
pero
también
querría
advertir
a
la
gente
acerca
de
apresurarse
a
sacar
conclusiones
de
esto.
Estoy
pensando,
concretamente,
en
[plantear]
algo
así
como
una
OIEA
para
la
inteligencia
artificial».

Cree
que,
aunque
hay
que
evitar
la
tentación
de
inspirarse
demasiado
en
tecnologías
previas
(como
la
nuclear),

instaurar
una
agencia
reguladora
mundial
para
los
potentes
sistemas
de
entrenamiento
de
IA
es
crucial
para
la
seguridad
:

«Pero,
si
mañana
existiera,
¿qué
sería
lo
primero
que
debería
hacer?».
La
respuesta,
en
su
opinión,
pasa
por
exigir
que

los
sistemas
que
superen
un
determinado
umbral
se
sometan
a
auditorías
y
evaluaciones
de
seguridad

antes
de
su
lanzamiento.
Meses
después,

la
normativa
europea

se
ajustaba
precisamente
a
este
principio.

En
opinión
de
Altman,
se
necesita
más
trabajo
técnico
para
garantizar
la
seguridad
de
la
IA,

en
lugar
de
meras
discusiones
filosóficas
en
Twitter:

«La
mayoría
de
las
personas
que
dicen
que
están
realmente
preocupados
por
la
seguridad
de
la
IA
parece
que
sólo
se
pasan
el
día
en
Twitter
diciendo
que
están
muy
preocupados
por
la
seguridad
de
la
IA.
Hay
gente
que
está
muy
preocupada
y
que
hace
un
gran
trabajo
técnico
al
respecto,
pero
necesitamos
muchos
más
gente
así.
Lo
que
el
mundo
necesita
no
son
más
personas
que
escriban
largas
diatribas
filosóficas
en
Twitter».

Altman
y
Collison
también
han
abordado
la
teoría
—sostenida
por
más
gente
en
Silicon
Valley—
de
que
los

investigadores
chinos

publican

un
gran
número
de
artículos
,
pero
su
impacto
por
artículo
es
relativamente
bajo,

lo
que
hace
sospechar
que
quizá
no
estén
publicando
los
trabajos
más
importantes
. «¿Crees
que
es
probable
que
sea
verdad?»,
pregunta
Collison. «No
confío
en
mis
intuiciones
en
este
tema…
simplemente
me
siento
confundido».

El
empuje
del
código
abierto

Ambos
interlocutores
estaban
de
acuerdo
en
destacar
la
mejora
significativa
y
cada
vez
más
veloz
de
los
grandes
modelos
de
lenguaje ‘open
source’,
aunque
Altman
sigue
reservando
a

los
modelos ‘supergrandes’
propietarios

la
tarea
de
generar
nuevos
avances
en
el
campo
de
la
IA.

«Una
de
las
grandes
sorpresas
de
este
año,
para
mí,
ha
sido
el
progreso
en
modelos
de
código
abierto,
y
este
ritmo
frenético
en
los
últimos
60
días
,
o
así.
¿Cómo
de
buenos
crees
que
serán
los
modelos
open
source
de
aquí
a
un
año?»,
pregunta
Collison.

«Creo
que
vamos
a
estar
en
un
mundo
donde
habrá
modelos
de
código
abierto
muy
capaces
y
la
gente
los
usará
para
todo
tipo
de
cosas,
y
el
poder
creativo
de
toda
la
comunidad
nos
va
a
impresionar
a
todos».

Ante
la
pregunta
de
que
si
para
muchos ‘casos
prácticos
del
día
a
día’
tal
vez
sea
suficiente
con
un
modelo
de
código
abierto,
Altman
aseguró
creer
que «para
muchas
cosas
económicamente
valiosas,
sí,
un
modelo
pequeño
de
código
abierto
será
suficiente
«.

Aunque,
según
él,
los
modelos
abiertos
permanecerán
siempre

un
par
de
años
por
detrás
de
los
propietarios
.

Altman
tuvo
ha
tenido
palabras
para
Facebook,
dado
que
la
publicación
del
código
de
su
modelo
LLaMa
(que
ya
va
por
su
tercera
versión)
fue
el
encendido
del
interruptor
del
presente
auge
de
modelos
de
lenguaje
open
source.

Según
el
CEO
de
OpenAI,

la
estrategia
de
Facebook
en
materia
de
IA «ha
sido
poco
clara»

pero
confía
en
que,
teniendo
el
competente
equipo
que
tienen
detrás
de
sus
proyectos
de
IA,
terminen
adoptando «una
estrategia
más
coherente».

Imagen
|
Basada
en
original
de
Techcrunch

en
Flickr

En
Genbeta
|
«No
estamos
aquí
para
masturbarnos
por
el
número
de
parámetros».
El
CEO
de
OpenAI
quita
importancia
a
lo
que
más
se
alababa
de
GPT-4