El
modelo
GPT-4
de
OpenAI
consume
muchísima
agua.
Un
nuevo
estudio
presentado
por
la
Universidad
de
California
indica
que
el
modelo
de
IA,
inteligencia
artificial,
GPT-4
de
OpenAI
consume
hasta
3
botellas
de
agua
para
generar
apenas
100
palabras.
Es
decir,
que
una
simple
búsqueda
que
hagas
en
esta
herramienta
y
que
a
veces
se
usan
para
cosas
tan
banales
como
que
la
IA
nos
dé
ideas
de
qué
cenar,
está
causando
un
grave
daño
a
un
planeta
que
en
muchos
lugares
del
mundo
padece
de
sequía.
Si
bien
el
chatbot
impulsado
por
IA
creó
mucha
expectación,
varios
son
los
puntos
débiles
que
hacen
que
la
revolución
quede
a
medias:
respuestas
falsas
o
muy
genéricas;
falta
de
información
sobre
las
fuentes
originales
de
la
información
que
provee;
y
uso
excesivo
de
recursos
esenciales
como
el
agua.
También
la
infracción
de
los
derechos
de
autor
sigue
siendo
un
problema
importante
(con
diversas
demandas
al
respecto)
y
la
falta
de
transparencia
interna
de
esta
empresa
que
ha
visto
a
la
mayoría
de
sus
creadores
y
líderes
irse
por
no
estar
de
acuerdo
con
las
decisiones
del
CEO.
También
se
sabe
que
la
empresa
ha
amenazado
a
sus
trabajadores
para
que
no
den
información
interna
de
la
compañía.
Hay
que
recordar
queSam
Altman
reconoció
en
el
pasado
públicamente
que
GPT-4 «kind
of
sucks»
que
se
puede
traducir
a
que «apesta
un
poco»
y
veremos
aquí
por
qué
ha
tirado
piedras
sobre
uno
de
sus
productos
estrella.
GPT-4
en
4
MINUTOS
Por
qué
apesta
GPT-4
Primero
vamos
a
recoger
de
nuevo
aquellas
polémicas
palabras
del
CEO
de
OpenAI
hace
unos
meses,
en
una
conversación
en
un
podcast
explicaba
que «creo
que
es
una
mierda,
en
relación
con
el
punto
al
que
tenemos
que
llegar
y
al
que
creo
que
llegaremos»,
dijo
Altman.
Y
también
que
en
el
futuro
vamos
a
recordar
que
las
herramientas
que
tenemos
ahora
eran
un
asco.
Según
Altman,
la
GPT-4
supuso
un
gran
avance
con
respecto
a
la
GPT-3
y
considera
que
quienes
usan
GPT-4
se
burlan
de
su
predecesora,
que
en
su
momento
parecía
revolucionaria.
Exceso
de
consumo
de
recursos
Por
un
lado,
el
estudio
presentado
ha
concluido
que
podemos
consumir
una
botella
de
agua
por
correo
electrónico
y
esto
se
traduce
en
grandes
costes
medioambientales
ocultos
del
uso
de
chatbots
de
IA.
«Los
chatbots
utilizan
una
inmensa
cantidad
de
energía
para
responder
a
las
preguntas
de
los
usuarios,
y
el
simple
hecho
de
mantener
los
servidores
lo
suficientemente
fríos
como
para
funcionar
en
los
centros
de
datos
supone
un
coste
para
el
medio
ambiente»,
afirma
el
estudio.
The
Washington
Post
colaboró
con
investigadores
de
la
Universidad
de
California
explica
que
cada
pregunta
a
estos
sistemas
de
OpenAI
fluye
a
través
de
un
servidor
que
ejecuta
miles
de
cálculos
para
determinar
las
mejores
palabras
a
utilizar
en
una
respuesta.
Al
realizar
estos
cálculos,
los
servidores,
normalmente
ubicados
en
centros
de
datos,
generan
calor.
A
menudo,
se
utilizan
sistemas
de
agua
para
refrigerar
el
equipo
y
mantenerlo
en
funcionamiento.
El
agua
transporta
el
calor
generado
en
los
centros
de
datos
a
torres
de
refrigeración
para
ayudarlo
a
escapar
del
edificio.
Según
los
defensores
del
medio
ambiente,
los
centros
de
datos
suelen
ser
los
que
más
agua
consumen
en
las
ciudades
donde
se
ubican.