La inesperada solución a todas «esas» llamadas que sufrimos: una abuela contando historias eternas a los estafadores

0
128

Resulta
difícil
encontrarse
con
alguien
que
no
haya
sufrido
alguna
vez
“esa”
llamada,
de
hecho,
diría
que
es
un
casi
expediente
X.
Nos
referimos,
por
supuesto,
a
los
scammers
por
teléfono,
que
no
son
más
que
una
estafa
para
ingresar
dinero
a
nuestra
costa.

Hemos
contado

muchísimos
casos
y
tipos,
y
mientras

se
preparan
algunas
regulaciones

para
hacerle
frente
a
esta
tortura
que
padecemos
tantos
usuarios,
ha
llegado
el
héroe
sin
capa
más
inesperado:

una
IA
.


Las
llamadas
y
los
ancianos.

No
hay
duda
de
que
las
estafas
telefónicas
representan
una
amenaza
significativa,
especialmente
para
los
grupos
más
vulnerables:

las
personas
mayores
.
Los
datos
así
lo
atestiguan:
en
2023,
los
consumidores
estadounidenses

perdieron
un
récord
de
10
mil
millones
de
dólares

debido
a
fraudes,
un
incremento
del
14
%
respecto
al
año
anterior.

Si
cruzamos
el
charco,
en
Reino
Unido
más
de
dos
tercios
de
las
personas
mayores
de
75
años
han
experimentado
al
menos

un
intento
de
estafa
en
los
últimos
seis
meses
,
y
el
40
%
enfrenta
intentos
frecuentes.


Daisy.

En
este
caldo
de
cultivo,
un
panorama
de
lo
más
alarmante,
alguien
ha
tenido
una
idea
que
se
sale
de
la
norma
con
una
solución
innovadora
para
proteger
a
las
personas
más
vulnerables:
la
abuela
Daisy.
¿Qué?
Sí,
la
compañía
británica
de
telecomunicaciones
O2
ha
desarrollado

una
herramienta
basada
en
IA
llamada
Daisy
,
una
diseñada
para
frustrar
a
los
estafadores
telefónicos
al
involucrarlos
en
conversaciones
largas
y
sin
sentido.

Este
chatbot,
conocido
como
“dAIsy,”

imita
la
voz
de
una
persona
mayor
,
un
escudo
para

uno
de
los
grupos
más
vulnerables

y
comúnmente
atacados
por
los
estafadores
de
este
tipo.
El
propósito
es
simple,
pero
de
lo
más
efectivo:
hacer
que
los
estafadores
pierdan
el
tiempo
y,
por
ende,
proteger
a
posibles
víctimas
reales.


Una
teleco
detrás.

Daisy,
creada
con
modelos
de
lenguaje
similares
a
ChatGPT,
se
especializa
en
mantener
largas
conversaciones
sobre
temas
banales
que
van
desde
su «amor»
por
tejer
a
historias
ficticias
sobre
su
gato «Fluffy».
Su
objetivo,
como
decíamos,
es
claro:
ocupar
el
tiempo
de
los
scams,
reduciendo
así
el
disponible
para
contactar
a
víctimas
reales. 


Según
Virgin
Media
O2

en
una
entrada
de
su
blog,
Daisy
está «dándole
la
vuelta
al
juego
de
los
estafadores,
frustrándolos
con
sus
propias
armas».


Cómo
funcionan
las «batallitas»
de
la
abuela.

Al
parecer,
Daisy

combina
varias
tecnologías
de
IA
.
A
saber:
primero
una
transcripción
de
voz
que
convierte
el
discurso
del
estafador
en
texto,
luego
utiliza
modelos
de
lenguaje
para
crear
respuestas
relevantes
que
mantengan
la
conversación,
y
por
último
convierte
dichas
respuestas
en
una
voz
convincente
de
mujer
anciana.

Pensemos
que
todos
estos
procesos
ocurren
en
segundos,
haciendo
creer
a
los
estafadores
que
en
realidad
están
hablando
con
una
persona
real.
Además,
Daisy
proporciona
información
falsa,
como
datos
bancarios
ficticios,
con
el
fin
de
mantener
el
engaño
el
mayor
tiempo
posible.
De
hecho,
en
grabaciones
compartidas
por
O2
se
muestra
cómo
Daisy
ha
llegado
a
desconcertar
a
algunos
estafadores
hasta
el
punto
de

acabar
sacándoles
de
sus
casillas

haciéndoles
gritar
de
frustración.
Una
maravilla.


Impacto
de
la
abuela.

Según
O2,
Daisy
ya
ha
logrado

mantener
a
varios
estafadores
en
línea
durante
más
de
40
minutos
.
Su
diseño,
que
simula
el
estilo
conversacional
lento
y
detallado
de
una
persona
anciana,
dicen
que
maximiza
la
irritación
de
los
estafadores,
quienes
a
su
vez
dependen
de
la
velocidad
para
maximizar
sus
ganancias.

Los
usuarios
en
Reino
Unido

pueden
redirigir
llamadas
sospechosas
al
número
7726
,
enviando
a
los
estafadores
directamente
a
Daisy.
Virgin
Media
O2
espera
que
la
iniciativa
marque
una
diferencia
en
medio
del
aumento
de
actividades
fraudulentas.


Estafas
cada
vez
más
sofisticadas.

Aunque
Daisy
representa
un
avance
en
la
lucha
contra
el
fraude,
los
estafadores
y
“scams”
también
están

utilizando
herramientas
de
IA

para
desarrollar
tácticas
más
sofisticadas.

Hemos
contado

varias,
siendo
una
de
las
más
preocupantes

las «clonaciones
de
voz»

(o «deepfakes»
de
voz)
basadas
en
IA,
las
cuales
utilizan
fragmentos
de
audio
para
imitar
la
voz
de
una
persona
y
cometer
fraudes
bancarios
o
extorsiones.

En
casos
extremos,
incluso
se
han
utilizado
para
hacer
creer
a
las
víctimas
que

han
secuestrado
a
un
ser
querido
,
exigiendo
rescates
falsos.

Según
McAfee
,
uno
de
cada
cuatro
encuestados
ha
sido
objetivo
de
este
tipo
de
estafas.
Otra
vez,
herramientas
como
Daisy
podrían
ayudar
a
combatir
esta
tendencia
al
enfrentar
bots
de
estafa
con
IA
similares.

Con
frases
como
“Tengo
todo
el
tiempo
del
mundo,
querido”,
Daisy
encarna
una
estrategia
disruptiva
para
reducir
el
impacto
de
estas
estafas.
No
todo
iba
a
ser
demonizar
a
la
IA
ya
que,
bien
usada,
podríamos
estar
ante
una
herramienta
que
puede
convertirse
en
una
pieza
clave
en
la
lucha
contra
el
fraude.
Eso
y,
por
supuesto,
que
se
consigan

desmantelar
estas
organizaciones
con
regulaciones

efectivas.

Imagen
|

ironypoisoning

En
Genbeta
|

Mucho
cuidado
con
lo
que
dices
nada
más
descolgar
el
teléfono:
podrías
caer
en
la
trampa
de
esta
nueva
estafa

En
Genbeta
|

Mucho
cuidado
si
eres
cliente
de
Movistar:
la
operadora
alerta
de
una
nueva
estafa
con
el
cambio
de
router