Las principales IA de clonación de voz abren la puerta a las suplantaciones: no verifican si el usuario tiene permiso para usarla

0
4

En
los
últimos
años,
la
tecnología
de
clonación
de
voz
basada
en
IA
ha
evolucionado
a
pasos
agigantados:
tan
solo
unos
segundos
de
muestra
de
audio
permiten
replicar
la
voz
de
cualquier
persona
con
una
fidelidad
sorprendente.
Eso,
claro
está,
también
plantea
serias
preocupaciones
en
cuanto
a
la
seguridad
y
el
uso
indebido…
dado
que

la
mayoría
de
las
plataformas
que
ofrecen
estos
servicios
carecen
de
salvaguardas
efectivas
para
evitar
su
abuso
.

¡QUE
NO
TE
ENGAÑEN!
Los
principales
TIMOS
en
COMPRAS
ONLINE
y
CÓMO
EVITARLOS

Medidas
de
seguridad
ineficaces
(por
decir
poco)

Una
investigación
reciente
de
la
asociación
de
consumidores
estadounidense
Consumer
Reports

ha
analizado

seis
de
las
principales
plataformas
de
clonación
de
voz
disponibles
para
el
gran
público,
y
la
conclusión
ha
sido
que
cinco
de
ellas
tienen
medidas
de
seguridad
débiles
y
fácilmente
eludibles.
Las
empresas
evaluadas
fueron

Descript,
ElevenLabs,
Lovo,
PlayHT,
Resemble
AI
y
Speechify
.

Cuatro
de
estas
compañías
(Speechify,
PlayHT,
Lovo
y
el
líder
del
sector,
ElevenLabs)

sólo
requieren
que
los
usuarios
marquen
una
casilla

en
la
que
afirman
tener
derecho
a
clonar
la
voz,
sin

ningún
mecanismo
real
de
verificación
.

Resemble
AI,
por
su
parte,
exige
que
la
persona
grabe
audio
en
tiempo
real
en
lugar
de
subir
un
archivo…
aunque
este
requisito
fue
fácilmente

burlado
por
los
investigadores
al
reproducir
un
audio
pregrabado
.

La
única
empresa
que
implementa
una
medida
de
seguridad
algo
más
robusta
es
Descript,
que
exige
la
grabación
de
una
declaración
de
consentimiento
específica,
aunque
esto
también

podría
ser
vulnerado
utilizando
otro
de
los
servicios
de
clonación

de
voz
anteriores.

Aumentan
los
casos
de
uso
lícito

Es
importante
dejar
claro
que

los
usos
potenciales
de
la
clonación
de
voz
con
IA
no
son
exclusivamente
negativos
:
existen
aplicaciones
legítimas
y
beneficiosas,
como
la
generación
de
audiolibros,
la
ayuda
a
personas
con
discapacidades
del
habla
y
la
traducción
de
contenido
a
múltiples
idiomas
manteniendo
la
identidad
vocal
del
hablante.
No
obstante,
el
mal
uso
de
esta
tecnología
representa
una
amenaza
creciente.

Uno
de
los
casos
más
notorios
de
abuso
en
los
Estados
Unidos

ocurrió
durante
su
último
proceso
de
primarias
,
cuando
se
difundieron
llamadas
automáticas
(robocalls)
con
una
imitación
de
la
voz
de
Joe
Biden
instando
a
los
votantes
a
no
participar
en
los
comicios.
El
artífice
de
este
engaño
fue
sancionado
con
una
multa
de
seis
millones
de
dólares,
y
la
Comisión
Federal
de
Comunicaciones
(FCC)
prohibió
posteriormente
las
llamadas
automatizadas
generadas
por
IA.

Las

estafas
telefónicas

también
se
han
visto
reforzadas
con
esta
tecnología.
En
la
modalidad
conocida
como ‘estafa
del
abuelo’,

los
delincuentes
llaman
a
personas
mayores
haciéndose
pasar
por
un
familiar
en
peligro

para
pedir
dinero
de
urgencia.
Esta
estafa
existe
desde
hace
tiempo,
pero
la
Comisión
Federal
de
Comercio
de
EE.UU.
ha
advertido
que
los
timadores
empiezan
a
recurrir
a
la
IA
para
hacer
que
las
voces
suenen
más
convincentes.

Incluso

en
el
ámbito
de
la
industria
del
entretenimiento
,
los
abusos
han
sido
evidentes.
Hace
ya
dos
años,

una
canción
que
utilizaba
voces
clonadas
de
los
artistas
Drake
y
The
Weeknd

se
volvió
viral
en
redes
sociales
tras
ser
lanzada
sin
su
consentimiento.

Regulación
y
políticas
de
las
compañías

A
pesar
del
creciente
uso
indebido
de
la
clonación
de
voz
con
IA,
los
defensores
de
los
consumidores
ven
aún
la
regulación
como
insuficiente:
aunque
la
FTC
estadounidense
ha
aprobado
una
norma
que
prohíbe
la
suplantación
de
identidades
gubernamentales
y
empresariales
mediante
IA,

aún
no
ha
logrado
extender
esta
prohibición
a
la
imitación
de
individuos
.

Algunas
empresas
tecnológicas
han
optado
por

restringir



motu
proprio


el
acceso
a
sus
herramientas
de
clonación
de
voz

por
temor
a
su
mal
uso.
Microsoft,
por
ejemplo,
ha
decidido
no
lanzar
públicamente

su
tecnología
VALL-E
2
,
y
OpenAI
ha
limitado
el
acceso
a
su
motor
de
síntesis
de
voz
por
razones
similares.

Frente
a
eso,
algunas
compañías
continúan
promoviendo
el
uso
fraudulento
de
esta
tecnología:
el
informe
de
Consumer
Reports
revela
que

PlayHT
y
Speechify
proponen
las «bromas
telefónicas»
como
un
ejemplo
de
utilida
d
de
sus
herramientas
de
clonación
de
voz.

Imagen
|
Marcos
Merino
mediante
IA

En
Genbeta
|

Clonaron
su
voz
con
IA
y
usaron
un
vídeo
suyo
de
YouTube:
así
fue
como
el
CEO
de
esta
famosa
empresa
fue
víctima
de
un
deepfake