Nos preocupaba y ha pasado: los estafadores ya recurren a llamadas de voces clonadas por IA para intentar sacarnos dinero

0
141

La

suplantación
de
voz
utilizando
inteligencia
artificial

es
una
técnica
de
estafa
en
auge,
y
un
desafío
para
las
medidas
tradicionales
de
verificación
de
identidad.
Ahora,
el
INCIBE
se
hace
eco
del
caso
de
una
usuaria
que
llamó
al
017
(la
Línea
de
Ayuda
en
Ciberseguridad
)
denunciando
un
caso
de
fraude
en
el
que
presuntamente
se
recurrió
a
la
IA
para
suplantar
la
voz
de
un
familiar.

¡QUE
NO
TE
ENGAÑEN!
Los
principales
TIMOS
en
COMPRAS
ONLINE
y
CÓMO
EVITARLOS

¿Qué
ha
ocurrido?

Una
mujer,
preocupada
por
la
seguridad
de
su
familia,
se
puso
en
contacto
con
el
017
tras
recibir
una
llamada
sospechosa
en
su
teléfono
móvil.
La
llamada
provenía
de
un
número
desconocido,
pero
al
contestar,

escuchó
una
voz
que
reconoció
inmediatamente…
era
la
de
su
marido
,
quien
le
decía:

«¡Hola!
No
te
puedo
llamar,
envíame
un
mensaje
a
este
número
______».

Sospechando
que
algo
no
estaba
bien,
la
usuaria
decidió
no
enviar
el
mensaje
al
número
proporcionado
y
optó
por
llamar
al
teléfono
habitual
de
su
pareja.
Al
hablar
con
él,

confirmó
que
él
no
había
realizado
dicha
llamada
.
Confundidos
y
alarmados,
la
pareja
concluyó
que
la
llamada
podría
haber
sido
generada
mediante
inteligencia
artificial.

Gracias
a
que
la
usuaria
no
siguió
las
instrucciones
de
la
llamada
sospechosa,
evitó
caer
en
una
posible
trampa.
Si
hubiera
enviado
un
mensaje
al
número
proporcionado,
los
delincuentes
podrían
haber
entablado
una
conversación
haciéndose
pasar
por
su
marido
y
solicitar
datos
personales
y
bancarios,
o
incluso
pedir
transferencias
de
dinero
bajo
algún
pretexto
convincente,
a
imagen
y
semejanza
del
‘timo
del
hijo
en
apuros’
.

¿Cómo
lograron
los
ciberdelincuentes
suplantar
la
voz?

Aunque
no
hay
evidencia
de
que
existan
vídeos
públicos
del
marido
de
la
usuaria
en
la
web
o
redes
sociales
(de
los
que
se
habrían
podido
extraer
audios
de
su
voz
y
así
sintetizarla),

recordaron
que
él
había
recibido
anteriormente
varias
llamadas
extrañas.

En
estas
llamadas,

nadie
respondía
,
se
escuchaban
pitidos
o
incluso
se
pedían
datos
personales.
Estas
interacciones
sospechosas

pudieron
haber
sido
grabadas

por
los
delincuentes
para
luego
ser
utilizadas
en
la
creación
del
audio
fraudulento.


Explicación
del
fenómeno.

Con
los
avances
en
IA,
es
posible
crear
audios
convincentes
con
la
voz
de
una
persona
con
sólo
unos
pocos
segundos
de
grabación.
Este
tipo
de
fraude,
conocido
como
‘vishing’
(phishing
por
voz),
utiliza
tecnología
de
clonación
de
voz
para
engañar
a
las
víctimas,
haciéndoles
creer
que
están
hablando
con
un
ser
querido
o
una
persona
de
confianza.

¿Qué
hacer
en
estos
casos?

Medidas
si
ya
has
sido
víctima:


  1. Avisar
    a
    otros
    contactos
    :
    Informar
    a
    amigos
    y
    familiares
    sobre
    lo
    sucedido
    para
    que
    estén
    alertas
    ante
    posibles
    llamadas
    similares.

  2. Bloquear
    el
    número
    :
    Impedir
    futuras
    llamadas
    del
    número
    sospechoso.

  3. Denunciar
    :
    Informar
    a
    la
    Policía
    Nacional
    o
    a
    la
    Guardia
    Civil
    sobre
    el
    número
    fraudulento.

Precauciones
a
tomar:


  1. Verificación
    de
    información
    :
    En
    caso
    de
    recibir
    una
    llamada
    sospechosa,
    siempre
    contrastar
    la
    información
    con
    la
    persona
    que
    supuestamente
    llama.

  2. No
    facilitar
    datos
    personales
    ni
    bancarios
    .

  3. Evitar
    seguir
    indicaciones
    sospechosas
    :
    No
    entrar
    en
    enlaces
    ni
    descargar
    aplicaciones
    desconocidas.

  4. Uso
    de
    palabras
    clave
    :
    Acordar
    una
    palabra ‘clave’
    entre
    familiares
    y
    amigos
    para
    corroborar
    la
    identidad
    en
    comunicaciones
    sospechosas.

Vía
|

INCIBE

Imagen
|
Marcos
Merino
mediante
IA

En
Genbeta
|

Cómo
denunciar
fraudes
en
Internet
y
ciberestafas