La
suplantación
de
voz
utilizando
inteligencia
artificial
es
una
técnica
de
estafa
en
auge,
y
un
desafío
para
las
medidas
tradicionales
de
verificación
de
identidad.
Ahora,
el
INCIBE
se
hace
eco
del
caso
de
una
usuaria
que
llamó
al
017
(la
Línea
de
Ayuda
en
Ciberseguridad)
denunciando
un
caso
de
fraude
en
el
que
presuntamente
se
recurrió
a
la
IA
para
suplantar
la
voz
de
un
familiar.
NO
TE
ENGAÑEN!
Los
principales
TIMOS
en
COMPRAS
ONLINE
y
CÓMO
EVITARLOS
¿Qué
ha
ocurrido?
Una
mujer,
preocupada
por
la
seguridad
de
su
familia,
se
puso
en
contacto
con
el
017
tras
recibir
una
llamada
sospechosa
en
su
teléfono
móvil.
La
llamada
provenía
de
un
número
desconocido,
pero
al
contestar,
escuchó
una
voz
que
reconoció
inmediatamente…
era
la
de
su
marido,
quien
le
decía:
«¡Hola!
No
te
puedo
llamar,
envíame
un
mensaje
a
este
número
______».
Sospechando
que
algo
no
estaba
bien,
la
usuaria
decidió
no
enviar
el
mensaje
al
número
proporcionado
y
optó
por
llamar
al
teléfono
habitual
de
su
pareja.
Al
hablar
con
él,
confirmó
que
él
no
había
realizado
dicha
llamada.
Confundidos
y
alarmados,
la
pareja
concluyó
que
la
llamada
podría
haber
sido
generada
mediante
inteligencia
artificial.
Gracias
a
que
la
usuaria
no
siguió
las
instrucciones
de
la
llamada
sospechosa,
evitó
caer
en
una
posible
trampa.
Si
hubiera
enviado
un
mensaje
al
número
proporcionado,
los
delincuentes
podrían
haber
entablado
una
conversación
haciéndose
pasar
por
su
marido
y
solicitar
datos
personales
y
bancarios,
o
incluso
pedir
transferencias
de
dinero
bajo
algún
pretexto
convincente,
a
imagen
y
semejanza
del
‘timo
del
hijo
en
apuros’.
¿Cómo
lograron
los
ciberdelincuentes
suplantar
la
voz?
Aunque
no
hay
evidencia
de
que
existan
vídeos
públicos
del
marido
de
la
usuaria
en
la
web
o
redes
sociales
(de
los
que
se
habrían
podido
extraer
audios
de
su
voz
y
así
sintetizarla),
sí
recordaron
que
él
había
recibido
anteriormente
varias
llamadas
extrañas.
En
estas
llamadas,
nadie
respondía,
se
escuchaban
pitidos
o
incluso
se
pedían
datos
personales.
Estas
interacciones
sospechosas
pudieron
haber
sido
grabadas
por
los
delincuentes
para
luego
ser
utilizadas
en
la
creación
del
audio
fraudulento.
Explicación
del
fenómeno.
Con
los
avances
en
IA,
es
posible
crear
audios
convincentes
con
la
voz
de
una
persona
con
sólo
unos
pocos
segundos
de
grabación.
Este
tipo
de
fraude,
conocido
como
‘vishing’
(phishing
por
voz),
utiliza
tecnología
de
clonación
de
voz
para
engañar
a
las
víctimas,
haciéndoles
creer
que
están
hablando
con
un
ser
querido
o
una
persona
de
confianza.
¿Qué
hacer
en
estos
casos?
Medidas
si
ya
has
sido
víctima:
-
Avisar
a
otros
contactos:
Informar
a
amigos
y
familiares
sobre
lo
sucedido
para
que
estén
alertas
ante
posibles
llamadas
similares. -
Bloquear
el
número:
Impedir
futuras
llamadas
del
número
sospechoso. -
Denunciar:
Informar
a
la
Policía
Nacional
o
a
la
Guardia
Civil
sobre
el
número
fraudulento.
Precauciones
a
tomar:
-
Verificación
de
información:
En
caso
de
recibir
una
llamada
sospechosa,
siempre
contrastar
la
información
con
la
persona
que
supuestamente
llama. -
No
facilitar
datos
personales
ni
bancarios. -
Evitar
seguir
indicaciones
sospechosas:
No
entrar
en
enlaces
ni
descargar
aplicaciones
desconocidas. -
Uso
de
palabras
clave:
Acordar
una
palabra ‘clave’
entre
familiares
y
amigos
para
corroborar
la
identidad
en
comunicaciones
sospechosas.
Vía
|
INCIBE
Imagen
|
Marcos
Merino
mediante
IA
En
Genbeta
|
Cómo
denunciar
fraudes
en
Internet
y
ciberestafas