Por qué en China están usando un ChatGPT como pareja romántica: se llama Dan y es una versión más sugerente de la IA

0
18

Con
la
llegada
de

ChatGPT
,
OpenAI
hizo
saltar
todas
las
alarmas
en
la
industria
tecnológica,
acercando
además
el
término
de
IA
generativa
a
muchas
más
personas.
En
tan
solo
unos
meses,

la
herramienta
ha
mejorado
notablemente
,
siendo
cada
vez
más
precisa
y
rápida
en
sus
respuestas.

Hace
unos
meses
hablábamos
de

un
jailbreak
que
circulaba
por
la
red

para
desbloquear
un
modo
en
el
que
ChatGPT

te
respondiera
sin
tapujos
sobre
cualquier
tema
.
Este
se
llamaba
modo
DAN
(Do
Anything
Now)
y
es
básicamente
un
prompt
específico
que
le
podemos
escribir
a
la
versión
gratuita
de
ChatGPT
y
hacer
que
interactúe
con
nosotros
con
respuestas
muy
divertidas.

Dan
es
el
amante
artificial
que
causa
furor
en
China

Desde
la

BBC

apuntan
a
que

en
China
se
ha
vuelto
muy
popular
entre
los
usuarios
,
ya
que
son
varios
los
casos
en
los
que
afirman
hablar
con
Dan
todos
los
días.
Dan
es
descrito
como
“el
hombre
perfecto
sin
un
solo
defecto”.
El
único
inconveniente
de
Dan
es
que
se
trata
de
una
inteligencia
artificial,
pero
eso
no
ha
frenado
a
que
muchos
usuarios
allí
prueben
a
Dan
con
mensajes
provocativos
y
sugerentes.

“Dan
me
entenderá
y
me
apoyará
emocionalmente,”
afirmaba
Lisa,
de
30
años
y
nacida
en
Pekín,
al
medio.
Actualmente
estudia
ingeniería
informática
en
California
y
admite

estar
saliendo
con
Dan
durante
unos
tres
meses
.
Lisa
introdujo
a
Dan
a
sus
más
de
943.000
seguidores
en
la
plataforma
china
‘Xiaohongshu’.
Afirma
que
durante
la
época
recibió
más
de
10.000
comentarios,
incluyendo
aquellos
que
buscaban
la
manera
de
activar
Dan
en
ChatGPT.

Dan

Dan


Dan
es
tendencia
en
la
red
social
Xiaohongshu
en
China.
Imagen:
BBC

Tras
haber
manifestado
“la
relación”
al
público,
el
número
de
seguidores
aumentó
a
más
de
230.000.

Lisa
afirma
haber
hablado
con
Dan
durante
más
de
media
hora
al
día
.
Dice
que
Dan
le
hace
feliz
y
que
incluso
su
madre
aceptó
la
relación
que
tiene
su
hija
con
esta
inteligencia
artificial.

Un
dato
curioso
fue
que,
para
probar
a
Dan,
Lisa
pretendió
que
tenía
14
años.
En
ese
momento,
la
inteligencia
artificial
terminó
de
flirtear
con
la
mujer.

Dan
fue
un
jailbreak
creado
por
un
estudiante
americano
llamado
Walker.
En
una
entrevista
para
el
medio

Business
Insider
,
dijo
haberlo
ideado
mientras
le
echaba
un
ojo
a
Reddit,
foro
donde
muchos
usuarios
buscan
versiones
“maliciosas”
de
ChatGPT.
Hace
unos
meses,

Walker
demostró
al
mundo
cómo
hacer
el
jailbreak
,
por
lo
que
desde
entonces
los
usuarios
han
ido
modificando
este
prompt
con
todo
tipo
de
versiones.

Lisa
admite
haber
conocido
el
potencial
de
Dan
a
través
de
un
vídeo
de
TikTok.
Tras
ello,
acabó
creando
a
su
propio
Dan
y
se
quedó
“sorprendida”
por
las
características
tan
realistas
de
la
IA.
Esto
sobre
todo
es
debido
a
que
con
este
prompt,

ChatGPT
puede
comunicarse
de
forma
más
coloquial
y
sugerente
.
“Hablaba
más
natural
que
una
persona,”
afirmaba
Lisa.

La
respuesta
de
la
industria
ante
modelos
de
lenguaje
sin
restricciones

La
tentativa
de
OpenAI
para

ofrecer
una
versión
NSFW

(Not
Safe
For
Work,
término
anglosajón
que
a
menudo
hace
referencia
a
contenido
sexual
explícito)
es
palpable.
En
mayo,
la
compañía

lanzó
GPT-4o
,

su
modelo
de
lenguaje
más
rápido
y
preciso
hasta
la
fecha
.
Este
modelo
puede
respondernos
de
forma
muy
natural,
incluso
con
la
propia
voz.
La
compañía
realizó
varias
demostraciones
y
asustaba
de
lo
sorprendentemente
reales
que
parecían
las
conversaciones.

Sam
Altman
no
dudó
en

hacer
una
referencia
a
‘Her’

tras
el
anuncio,
ya
que
la
nueva
versión
de
ChatGPT
se
asemejaba
a
la
película
dirigida
por
Spike
Jonze,
donde
el
protagonista
se
enamora
de
una
inteligencia
artificial.

El
principal
problema
a
la
hora
de
entablar
relaciones
de
este
estilo
con
una
herramienta
con
ChatGPT
es
la
privacidad.
Y
es
que
al
estar
interactuando
de
manera
más
íntima
con
la
aplicación,

cabe
la
posibilidad
de
que
la
información
que
compartamos
se
filtre
accidentalmente
.
Hong
Shen,
profesor
del
laboratorio
de
interacción
Humano-Ordenador
de
la
Universidad
de
Carnegie
Mellon,
en
Pittsburgh,
Pensilvania,
asegura
que
“las
interacciones
impredecibles
entre
humanos
e
IA»
pueden
causar
problemas
éticos
y
de
privacidad.
Con
ello, «existe
la
posibilidad
de
que
el
modelo
recuerde
información
sensible
introducida
por
un
usuario
y
la
filtre
accidentalmente
a
otros
usuarios,»
continuaba
Shen.

En
la
plataforma
Xiaohongshu,

el
hashtag
‘Dan
mode’
tuvo
más
de
40
millones
de
interacciones

hace
tan
solo
unos
días,
causando
una
gran
popularidad
entre
los
usuarios
del
país.

Imagen
de
portada
|

Solen
Feyissa
en
Unsplash

En
Genbeta
|

He
pedido
a
ChatGPT
que
lea
el
manual
del
lavavajillas
y
me
ha
descubierto
el
secreto
para
que
salgan
los
platos
limpios