El
popular
portal
Reddit
lleva
a
cabo
regularmente
una
actividad
denominada ‘AMA’,
que
significa
«Ask
Me
Anything»
(Pregunta
lo
que
sea),
una
sesión
interactiva
en
la
que
una
persona
con
conocimientos
o
notoriedad
en
algún
campo,
se
ofrece
a
responder
preguntas
del
resto
de
usuarios.
Pues
bien,
uno
de
los
últimos
AMA
estuvo
protagonizado
por
Sam
Altman,
CEO
de
OpenAI,
en
los
días
previos
a
su
último
anuncio
de
novedades
en
torno
a
ChatGPT…
y
nos
dejó
varios
datos
y
reflexiones
interesantes.
GPT-4
en
4
MINUTOS
Su
mejor
marca…
¿no
es
buena
marca?
«El
nombre «ChatGPT»
es
terrible»,
afirmaba
un
usuario,
para
a
continuación
preguntar
si
OpenAI
cambiará
el
nombre
de
su
chatbot
en
un
futuro
próximo.
La
respuesta
de
Sam
Altman
no
fue
precisamente
la
de
salir
en
defensa
de
su
marca
más
conocida:
«Jajaja,
sí,
no
es
un
gran
nombre,
pero
creo
que
nos
quedamos
atrapados
con
él.
Parece
que
mucha
gente
simplemente
lo
llama ‘Chat'».
Predicciones
sobre
el
futuro
del
trabajo
Uno
de
los
usuarios
recordó
una
predicción
que
Altman
hizo
en
Twitter
en
2021:
«La
IA
hará
que
el
precio
del
trabajo
que
se
puede
realizar
frente
a
un
PC
disminuya
mucho
más
rápido
que
el
precio
del
trabajo
que
ocurre
en
el
mundo
físico.
Esto
es
lo
contrario
de
lo
que
la
mayoría
de
la
gente
(incluyéndome
a
mí)
esperaba
y
tendrá
efectos
extraños».
Altman
confirmó
que
sigue
creyendo
en
esta
predicción,
por
lo
que
apuesta
por
una
transformación
significativa
en
el
mercado
laboral
en
los
próximos
años.
¿Le
corresponde
a
la
IA
denunciar
a
sus
usuarios?
Sobre
la
posibilidad
de
que
modelos
como
ChatGPT
puedan
tener
un «deber
ético»
de
notificar
actividades
delictivas
por
parte
del
usuario,
Altman
realizó
una
afirmación
que
abre
un
debate
interesante
sobre
los
límites
éticos
y
legales
de
las
IA,
implementar
legalmente
una
especie
de ‘secreto
de
confesión’
para
inteligencias
artificiales:
«En
el
futuro,
espero
que
pueda
haber
algo
como
un
concepto
de ‘privilegio
de
IA’,
similar
a
cuando
hablas
con
un
doctor
o
un
abogado.
Creo
que
pronto
será
un
debate
importante
para
la
sociedad».
Contenidos
no
aptos
para
todos
los
públicos
sí,
pero
con
límite
Altman
también
se
pronunció
sobre
otra
polémica
reciente,
la
de
habilitar
la
generación
de
contenidos
NSFW
(no
aptod
para
todos
los
públicos)
en
ChaGPT/DALL-E
3:
«Realmente
queremos
permitir
contenido
NSFW
(textos
eróticos,
gore…)
para
uso
personal
en
la
mayoría
de
los
casos,
pero
no
hacer
cosas
como
deepfakes».
Además,
cuando
se
le
pregunta
si
hay
sobre
la
mesa «algún
plan
para
permitir
que
ChatGPT
hable
sobre
temas
más
delicados»
de
los
que
es
capaz
de
abordar
por
ahora,
reconoce
que
éste «puede
ser
demasiado
cauteloso
a
veces«.
¿Las
IA
debe
dedicarse
a
cambiar
las
opiniones
de
la
gente?
¿Le
corresponde
a
las
IAs
(es
decir,
a
las
empresas
que
las
desarrollan)
cambiar
la
cosmovisión
de
la
gente
por
una ‘correcta’?
Esta
también
fue
una
duda
que
un
usuario
le
planteó
a
Altman:
«Entiendo
el
espíritu
detrás
de «No
intentes
cambiar
la
opinión
de
nadie»,
[pero]
si
un
creacionista
insistiera
en
que
el
mundo
tiene
6000
años
según
un
modelo,
¿no
cree
que
OpenAI
tiene
el
imperativo
ético
de
informar
amablemente
a
los
usuarios
por
qué
este
no
es
el
caso?
[…]
de
lo
contrario,
esencialmente
se
está
creando
un
cámara
de
eco».
Y
esta
fue
su
respuesta:
«No
estamos
seguros
de
dónde
trazar
la
línea.
El
ejemplo
de
la
tierra
plana
es
claramente
un
poco
tonto,
pero
piensa
en
las
vacunas
contra
el
Covid
o
algo
así.
Las
cámaras
de
eco
son
malas,
pero
también
debemos
tener
mucho
cuidado
con
los
modelos
que
podrían
ser
capaces
de
una
persuasión
sobrehumana«.
Imagen
|
Marcos
Merino
mediante
IA
En
Genbeta
|
El
cofundador
Ilya
Sutskever
deja
OpenAI.
El
mundo
se
sigue
preguntado
qué
vio
antes
de
la
guerra
civil
de
OpenAI