ChatGPT no tiene «secreto de confesión»: Sam Altman avisa de que todo lo que le cuentes sobre tu vida podría ser usado en tu contra

0
24

Ahora
que
la
IA
empieza
a
adquirir
un
papel
cada
vez
mayor
en
la
toma
de
decisiones,
personales
y
empresariales,
de
muchos
usuarios,
la
advertencia
que
acaba
de
lanzar
Sam
Altman
(recordemos,
CEO
de
OpenAI,
su
empresa
desarrolladora)
no
puede
ni
debe
pasarse
por
alto:

todo
lo
que
le
cuentes
a
ChatGPT
podría
terminar
en
un
juzgado
.

En
otras
palabras,
ChatGPT
no
cuenta
con

nada
remotamente
equivalente
al «secreto
de
confesión»
,
y
lo
que
compartes
con
esta
tecnología
—por
más
íntimo
que
sea—
no
está
protegido
legalmente,
y
eso
puede
tener
consecuencias
muy
negativas
para
el
usuario
demasiado
confiado.

Cómo
mejorar
la
SEGURIDAD
EN
INTERNET:
VPN,
DNS
y
páginas
con
HTTPS

La
trampa
del
falso
terapeuta

Muchos
usuarios,
en
especial
jóvenes,
han
comenzado
a
utilizar
ChatGPT
como
sustituto
de
un
terapeuta,
un
confesor
(en
el
sentido
más
amplio
del
término),
o
de
un
asesor
legal/fiscal/etc.
Es
fácil
entender
por
qué:
respuestas
inmediatas,
anonimato,
cero
juicio
y
sin
coste.

Pero
este
uso
emocionalmente
intenso
choca
de
frente
con
una
cruda
realidad:

la
IA
no
está
legalmente
obligada
a
proteger
tu
privacidad

como
lo
haría
un
psicólogo,
un
médico
o
un
abogado.
ChatGPT
es
una
herramienta
tecnológica

sin
protección
legal
específica
. «No
hemos
resuelto
eso
aún
para
las
conversaciones
con
IA»,
lamenta
Altman.

De
hecho,
hasta
que
no
se
legisle
una
privacidad
real
en
las
interacciones
con
la
IA,
lo
más
prudente
es
considerar
cualquier
conversación
con
ChatGPT
como

pública
y
susceptible
de
ser
usada
en
tu
contra
.

Según
ha
declarado
el
propio
Altman

en
el
pódcast

This
Past
Weekend
,

«Las
personas
hablan
sobre
las
cosas
más
personales
de
sus
vidas
con
ChatGPT
[…]
Lo
usan
como
terapeuta,
como
coach
de
vida,
preguntando ‘¿qué
debo
hacer
con
mis
problemas
de
pareja?’
[…]
Pero
si
después
tiene
lugar
una
demanda,
podríamos
estar
obligados
a
entregar
esas
conversaciones».

OpenAI
reconoce
en
su
política
de
privacidad
que
retiene
los
datos
de
los
usuarios,
incluidas
las
conversaciones,
para

cumplir
con
obligaciones
legales
.
Es
decir,
cualquier
autoridad
judicial
puede
exigir
la
recuperación
y
entrega
de
nuestras
conversaciones
con
ChatGPT…

¿Le
pediste
a
ChatGPT
ideas
para
defraudar
a
Hacienda?
¿Le
describiste
una
pelea
con
detalles
que
podrían
incriminarte?
Todo
eso
puede
usarse
en
tu
contra.

La
ilusión
del
anonimato
y
el
riesgo
legal

La
ilusión
de
estar
hablando
con
una
máquina «neutral»
y «segura»
es
uno
de
los
errores
más
comunes.
En
realidad,
los
sistemas
de
IA
son
operados
por
empresas
sujetas
a
leyes,
demandas,
políticas
de
uso
y
requerimientos
judiciales.
En
el
caso
de
OpenAI,
una
demanda
en
curso
con
el

New
York
Times

ha
hecho
que

la
empresa
esté
obligada
a
retener
chats
,

incluso
los
supuestamente
eliminados
,
por
orden
de
la
juez
del
caso.

Como
explica
el
investigador
William
Agnew, «aunque
las
compañías
intenten
ser
cuidadosas
con
los
datos,
los
modelos
de
IA
son
conocidos
por
regurgitar
información».
Una
conversación
tuya
podría «resurgir»
en
otro
contexto,
sin
que

lo
sepas.

Cualquier
plataforma
o
dispositivo
está
obligado
a ‘comparecer’

El
caso
de
Amazon
Echo
en
EE.UU.
ya
abrió
este
camino.

En
2017,
un
dispositivo
se
convirtió
en «testigo»
en
un
juicio
por
asesinato
.
Tras
la
presión
judicial,
Amazon
tuvo
que
entregar
grabaciones
de
audio
de
lo
que
ocurrió
en
una
casa
donde
se
cometió
un
crimen.
Aunque
no
se
trataba
de
una
IA
como
ChatGPT,
sentó
precedente:

los
dispositivos
inteligentes
pueden
convertirse
en
fuentes
de
evidencia
.

Dependencia
emocional
y
consecuencias
legales

Aún
más
preocupante
es
la
creciente

dependencia
emocional

de
la
que
Altman
también
ha
alertado. «Hay
gente
joven
que
reconoce
que
no
es
capaz
de
tomar
decisiones
por

misma
sin
contárselo
antes
a
ChatGPT»,
señaló
en
otra
entrevista.
El
problema
ya
no
es
solo
la
privacidad,
sino

la
pérdida
de
autonomía
en
la
toma
de
decisiones
personales
.

Imagen
|
Marcos
Merino
mediante
IA
En
Genbeta
|

Estos
son
todos
los
datos
que
recopila
ChatGPT
cada
vez
que
lo
usamos:
sabe
más
de
nosotros
de
lo
que
pensamos