«Publicas tus momentos más felices, y alguien los convierte en porno». Hannah descubrió que un ‘amigo’ creaba deepfakes con sus fotos

0
26

Hannah
Grundy,
profesora
de
secundaria
en
Sídney
(Australia),
nunca
imaginó
que
un
mensaje
electrónico
anónimo
cambiaría
su
vida
para
siempre.
¿El
motivo?
Le
advertían
de
que

su
imagen
había
sido
utilizada
para
generar
deepfakes
pornográfico
s
sin
su
consentimiento.

La
cosa
empeoró
cuando
ella
y
su
novio
Kris
comenzaron
a
investigar

quién
estaba
detrás

de
todo.

ZAO,
la
APP
MÓVIL
china
que
a
través
de
DEEPFAKE
te
convierte
en
DICAPRIO
en
SEGUNDOS

«La
destrucción
de
Hannah»

Al
abrir
el
enlace
incluido
en
el
correo,
Hannah
se
encontró
con
una
pesadilla:
un
hilo
en
un
foro
de
debate
donde,
bajo
el
título «La
destrucción
de
Hannah»,
cientos
de
desconocidos
debatían
sobre
formas
de
violarla…

…como
respuesta
a
la
publicación
de

más
de
600
imágenes
generadas
mediante
IA
,
que
mostraban
su
rostro
superpuesto
a
cuerpos
de
mujeres
en
situaciones
violentas
y
degradantes.

Incluso
había
GIFs
animados
que
replicaban
situaciones
de
abuso
sexual
con
su
imagen

Pero
lo
peor
era
la
evidencia
de
que
el
perpetrador
la
conocía
bien.
Las
fotos
originales

habían
sido
obtenidas
de
su
círculo
más
íntimo
,
lo
que
significaba
que
la
amenaza
provenía
de
alguien
cercano.

Convencidos
de
que
el
autor
del
crimen
era
alguien
de
su
entorno,
Hannah
y
Kris.
Identificaron
otras
víctimas,
rastrearon
conexiones
en
redes
sociales
y
construyeron
una
lista
de
sospechosos.
En
pocas
horas,
redujeron
las
posibilidades
a
tres
personas.

Cuando
llegaron
al
nombre
de
Andrew
Thomas
Hayler,
la
sorpresa
fue
devastadora:

Andy,
como
lo
llamaban,
era
uno
de
sus
mejores
amigos

y
había
sido
su
mentor
en
el
trabajo.
Durante
más
de
una
década,
había
sido
parte
esencial
de
su
vida.
Jamás
habría
sospechado
que
él
podría
estar
detrás
de
algo
así.

De
la
negligencia
policial
al
juicio

Armados
con
pruebas
contundentes,
Hannah
y
Kris
acudieron
a
la
policía
esperando
una
respuesta
rápida. «Pensamos
que
irían
a
detenerlo
esa
misma
tarde»,
reconoce
Kris.

En
lugar
de
eso,
se
encontraron
con
una
burocracia
indiferente
y
comentarios
despectivos:
un
agente
incluso
le
preguntó
a
Hannah
qué
le
había
hecho
a
Andy
para
merecer
tal
ataque.

Otro,
al
ver
una
de
las
imágenes
alteradas,
comentó
que
aparecía «mona»
en
la
misma
.

No
fue
ninguna
sorpresa
que,
después
de
eso,
la
investigación
avanzase
a
paso
de
tortuga.
Sin
apoyo
policial,
tuvieron
que
contratar
un
investigador
privado
y
abogados,
gastando
el
equivalente
a
más
de
10.000
euros
para
presionar
a
las
autoridades.

El
informe
del
investigador
privado
finalmente
hizo
que
la
policía
actuara.
Dos
semanas
después,
agentes
irrumpieron
en
la
casa
de
Andy,
incautando
dispositivos
que
contenían
evidencia
irrefutable.

Había
creado
y
difundido
deepfakes
de
al
menos
26
mujeres
,
muchas
de
ellas
excompañeras
de
trabajo
y
amigas
cercanas.

En
2022,
Hayler
se
declaró
culpable
de
28
cargos
de
uso
indebido
de
un
servicio
de
comunicación
para
acosar,
ofender
o
amenazar.
El
tribunal
lo
sentenció
a

nueve
años
de
prisión
,
cinco
de
los
cuales
deberá
cumplir
sin
posibilidad
de
libertad
condicional.
Pero
él
ha
anunciado
su
intención
de
apelar
la
sentencia.

Asco

Asco


Imagen
facilitada
por
la
víctima
a
la
BBC
como
ejemplo.

Un
fallo
histórico,
pero
insuficiente

«Publicas
cosas
en
Facebook
e
Instagram
porque
son
los
momentos
más
felices
de
tu
vida.
Consigues
un
perro,
compras
una
casa,
te
comprometes
y
publicas
una
foto.
Y
descubres
que
alguien
ha
convertido
cada
uno
de
esos
momentos
en
pornografía.
Y
entonces,
cuando
ves
esa
foto…
bueno,
ahora
me
veo
siendo
violada».

El
caso
de
Hannah
marcó
un
precedente
en
Australia,
ayudando
a
impulsar
reformas
en
la
legislación
sobre
deepfake
y
abuso
digital.
Sin
embargo,
la
sentencia
de
Hayler
no
borra
el
hecho
de
que
sus
imágenes
seguirán
circulando
en
internet.

Aún
paga
por
un
servicio
de
monitorización
online
para
detectar
y
eliminar
cualquier
contenido
nuevo
que
pueda
aparecer:

le
preocupa
que
futuros
amigos,
empleadores…
e
incluso
sus
propios
hijos,
puedan
encontrarlas
.

Tampoco
puede
borrar
el
hecho
de
que
si
no
hubiera
contado
con
suficientes
recursos
económicos
y
determinación
personal,
su
agresor
seguiría
libre. «Si
no
tienes
dinero
para
abogados
o
investigadores,
no
hay
justicia»,
reflexiona
Hannah.

Vía
|

BBC

Imagen
|
Marcos
Merino
mediante
IA

En
Genbeta
|

Hemos
probado
ClotHoff,
la
inteligencia
artificial
que
desnuda
a
mujeres.
Es
tan
fácil
usarla
como
preocupante