En
los
últimos
años,
gobiernos
de
todo
el
mundo
han
venido
impulsando
leyes
para
obligar
a
los
portales
web
de
pornografía
a
verificar
la
edad
de
sus
usuarios.
A
primera
vista,
estas
medidas
parecen
razonables,
pues
evitan
que
los
menores
accedan
a
pornografía.
Sin
embargo,
hay
quien
cree
que
detrás
de
esta
premisa
se
esconde
un
debate
mucho
más
complejo,
en
el
que
no
está
todo
tan
claro.
Entre
ellos
se
encuentran
los
responsables
de
los
propios
portales
de
contenido
adulto,
que
en
algunos
casos
han
empezado
a
enlazar
en
la
portada
de
los
mismos
una
carta
abierta
titulada
 «La
estafa
de
la
verificación
de
edad».
Por
supuesto,
ellos
mismos
no
dejan
de
ser
parte
interesada
(y
muy
poco
neutral)
en
el
debate.
Sin
embargo,
resultan
de
interés
algunos
de
los
argumentos
que
enarbolan
en
dicho
documento
para
señalar
ciertas
debilidades
e
incoherencias
en
la
postura
sostenida
por
las
autoridades.
 

La
carta
abierta,
disponible
al
acceder
a
Xvideos
(sin
ninguna
relación
con ‘X.com’)
mejorar
la
SEGURIDAD
EN
INTERNET:
VPN,
DNS
y
páginas
con
HTTPS
¿Qué
es
la
verificación
de
edad?
La
verificación
de
edad
consiste
en
exigir
a
los
usuarios
que
demuestren
que
son
mayores
de
edad
antes
de
acceder
a
contenido
restringido.
Para
ello,
se
utilizan
diversos
métodos,
como:
- 
Subida
 de
 documentos
 de
 identidad.
- 
Reconocimiento
 facial
 con
 estimación
 de
 edad.
- 
Verificación
 por
 tarjeta
 de
 crédito.
- 
Confirmación
 a
 través
 de
 operadores
 móviles.
Aunque
estas
técnicas
varían
según
la
legislación
de
cada
país
(aquí
en
España
disponemos
del
llamado ‘pajaporte’,
que
pese
a
no
haber
sido
aún
implementado
parece
ser
ya
una
referencia
para
la
UE)
todas
comparten
un
objetivo
común:
impedir
que
los
menores
accedan
a
contenido
para
adultos.
¿Funciona
realmente?
Según
las
plataformas
afectadas—,
la
verificación
de
edad
no
solo
es
ineficaz
en
su
objetivo
declarado,
sino
que
genera
efectos
contraproducentes.
Los
principales
argumentos
en
contra
incluyen:
Fácil
elusión
Los
usuarios
siguen
pudiendo
acceder
a
contenido
adulto
usando
buscadores
como
Google
o
redes
sociales
como
X.
Basta
búsquedas
rápidas
de
términos
bien
sencillos
(nombres
en
inglés
de
prácticas
sexuales
y/o
de
intérpretes
de
cine
X)
para
encontrarlo:
no
hacen
falta
conocimientos
propios
de
un
hacker,
ni
recurrir
a
proxies
web,
VPNs
o
a
la
red
oscura.
Aplicación
selectiva
Continuando
con
esa
argumentación,
resulta
inexplicable
que
se
exija
implementar
la
verificación
de
edad
únicamente
a
algunos
grandes
sitios
XXX,
pero
no
a
grandes
plataformas
teóricamente ‘para
todos
los
públicos’,
como
las
antes
mencionadas,
donde
también
circula
pornografía.
Esta
aplicación
desigual
pone
en
duda,
según
la
industria
para
adultos,
la
verdadera
motivación
de
la
normativa.
 

La
misma
búsqueda
de
material
pornográfico,
tal
como
se
muestra
a
cualquier
usuario
en
Google
y
en
X,
respectivamente
Impacto
negativo
en
la
privacidad
Requerir
a
los
usuarios
que
compartan
documentos
o
datos
biométricos
crea
altos
riesgos
de
filtraciones
y
ciberataques,
lo
que
podría
exponer
la
identidad
de
personas
adultas
que
simplemente
desean
consumir
contenido
legal.
Ya
sabemos
que
las
autoridades
no
son
especialmente
fiables
a
la
hora
de
preservar
nuestros
datos.
Pérdida
de
usuarios
y
distorsión
del
mercado
Se
estima
que
más
del
90%
de
los
usuarios
abandonan
los
sitios
que
les
piden
verificación.
Esto,
denuncia
la
industria,
afecta
desproporcionadamente
a
las
plataformas
más
grandes
y
reguladas,
y
beneficia
a
sitios
piratas
o
inseguros
que
operan
al
margen
de
la
ley.
El
documento
también
señala
cómo
la
implementación
forzada
de
la
verificación
de
edad
amenaza
con
colapsar
la
industria
del
contenido
adulto
gratuito,
que
se
basa
en
grandes
volúmenes
de
tráfico
y
monetización
indirecta.
Desplazamiento
a
canales
más
peligrosos
Al
hacer
más
difícil
el
acceso
a
sitios
seguros
y
moderados
(bien
es
cierto
que
a
menudo
han
fallado
en
dicha
tarea),
los
usuarios
podrían
migrar
a
espacios
no
regulados,
con
más
riesgo
de
encontrarse
con
contenido
ilegal
o
nocivo.
Se
consigue,
así,
el
efecto
contrario
al
teóricamente
buscado.
En
resumen,
no
es «por
los
niños»
(afirman)
La
carta
abierta
en
cuestión
concluye
que
el
discurso
de
protección
de
la
infancia
es
un
pretexto
para
una
persecución
contra
la
industria
de
la
pornografía.
Entre
los
indicios
citados:
- 
Las
 plataformas
 más
 utilizadas
 por
 menores
 (como
 redes
 sociales)
 
 quedan
 exentas
 de
 la
 verificación
 de
 edad,
 a
 pesar
 de
 contener
 pornografía
 fácilmente
 accesible.
- 
Los
 gobiernos
 y
 reguladores
 
 ignoran
 alternativas
 más
 eficaces,
 como
 los
 controles
 parentales
 a
 nivel
 de
 dispositivo.
- 
La
 verificación
 de
 edad
 se
 aplica
 solo
 a
 sitios
 de
 adultos,
 no
 a
 juegos
 violentos,
 contenido
 bélico
 o
 redes
 sociales
 tóxicas.
¿Hay
mejores
alternativas?
La
industria
recuerda
que
tanto
las
empresas
tecnológicas
como
los
expertos
en
privacidad
han
sugerido
medidas
más
eficaces
y
menos
invasivas:
- 
 Controles
 parentales
 a
 nivel
 de
 dispositivo:
 Herramientas
 ya
 existentes
 en
 Android,
 iOS
 y
 otros
 sistemas
 permiten
 bloquear
 automáticamente
 el
 acceso
 a
 millones
 de
 sitios
 con
 contenido
 para
 adultos.
- 
 Educación
 digital
 a
 padres
 y
 docentes:
 Capacitar
 a
 los
 adultos
 responsables
 para
 que
 entiendan
 y
 configuren
 estas
 herramientas
 correctamente.
- 
 Supervisión
 escolar
 de
 controles
 activos:
 Propuesta:
 exigir
 que
 los
 dispositivos
 personales
 de
 menores
 muestren
 un
 ícono
 visible
 de
 control
 parental
 y
 que
 su
 activación
 sea
 verificada
 anualmente
 en
 las
 escuelas.
Estas
estrategias
tienen
en
común
el
hecho
de
que
trasladan
la
responsabilidad
del
filtrado
a
quienes
tienen
contacto
directo
con
los
menores,
sin
invadir
la
privacidad
de
toda
la
sociedad.
¿Cómo
ha
funcionado
en
otros
países,
según
la
industria?
Reino
Unido
El
Reino
Unido
fue
uno
de
los
primeros
países
occidentales
en
intentar
una
ley
nacional
de
verificación
de
edad
para
contenido
adulto,
comenzando
en
2015
con
la
Digital
Economy
Act.
Sin
embargo,
el
intento
original
fue
abandonado
en
2019,
tras
reconocer
que:
- 
La
 implementación
 era
 técnicamente
 inviable.
- 
Las
 soluciones
 comprometían
 gravemente
 la
 privacidad
 de
 los
 usuarios.
- 
No
 existía
 una
 estrategia
 clara
 para
 aplicarla
 de
 forma
 coherente.
A
pesar
de
ello,
el
país
resucitó
la
medida
en
2023
bajo
un
nuevo
marco:
la
Online
Safety
Act,
que
integra
la
AV
dentro
de
un
enfoque
más
amplio
de
regulación
de
plataformas.
Esta
nueva
legislación
entrará
en
vigor
este
mismo
mes.
Francia
La
legislación
francesa
ha
sido
calificada
como
la
peor
implementación
posible
de
AV,
tanto
por
su
enfoque
técnico
como
por
su
carga
ideológica.
Desde
2020,
el
país
ha
impulsado
medidas
cada
vez
más
restrictivas,
muchas
de
ellas
aplicadas
sin
directrices
claras
ni
plazos
razonables.
El
organismo
regulador
ARCOM
exige
verificación
en
cada
visita,
multiplicando
los
costos
operativos
para
las
plataformas.
Además,
se
prohíbe
el
uso
de
tarjetas
de
crédito
como
método
de
verificación,
pese
a
su
utilidad
comprobada.
Otra
característica
polémica
es
que
se
promete
un
sistema
de «doble
anonimato»,
pero
en
la
práctica
los
proveedores
de
AV
saben
a
qué
sitio
se
está
accediendo.
El
resultado
ha
sido
un
entorno
regulatorio
hostil
y
caótico,
que
llevó
a
empresas
como
Pornhub
a
retirarse
completamente
del
mercado
francés.
Unión
Europea
A
nivel
comunitario,
la
UE
ha
adoptado
el
Reglamento
de
Servicios
Digitales
(DSA),
que
impone
a
las
grandes
plataformas
(VLOPs)
la
obligación
de
mitigar «riesgos
sistémicos»,
incluidos
los
relacionados
con
menores
Aunque
esto
parece
razonable
en
teoría,
en
la
práctica
ha
sido
utilizado
como
arma
regulatoria
ambigua:
- 
Se
 exige
 a
 las
 plataformas
 
 identificar
 y
 mitigar
 riesgos
 mal
 definidos,
 como «daños
 potenciales»
 sin
 pruebas
 concretas.
- 
Algunas
 plataformas,
 como
 las
 de
 contenido
 adulto,
 
 han
 sido
 investigadas
 públicamente
 sin
 previo
 aviso,
 mientras
 otras
 (como
 redes
 sociales)
 han
 sido
 tratadas
 con
 mayor
 discreción.
- 
Se
 exige
 cumplimiento
 con
 políticas
 de
 verificación
 de
 edad
 
 antes
 de
 que
 exista
 una
 solución
 paneuropea
 funcional,
 como
 la
 futura «Cartera
 de
 Identidad
 Digital».
Esto
ha
provocado
una
percepción
de
doble
rasero,
donde
las
plataformas
impopulares
o
estigmatizadas
se
convierten
en
chivos
expiatorios
para
aparentar
que
se
están
tomando
medidas.
Imagen
|
Marcos
Merino
mediante
IA
 
            

































