La industria XXX carga contra los ‘pajaportes’ de los gobiernos. Recuerdan que en Google y X también hay porno

0
112

En
los
últimos
años,
gobiernos
de
todo
el
mundo
han
venido
impulsando
leyes
para
obligar
a
los
portales
web
de
pornografía
a
verificar
la
edad
de
sus
usuarios.
A
primera
vista,
estas
medidas

parecen
razonables,
pues
evitan
que
los
menores
accedan
a
pornografía
.

Sin
embargo,
hay
quien
cree
que
detrás
de
esta
premisa
se
esconde
un
debate
mucho
más
complejo,
en
el
que
no
está
todo
tan
claro.
Entre
ellos
se
encuentran
los
responsables
de
los
propios
portales
de
contenido
adulto,
que
en
algunos
casos
han
empezado
a
enlazar
en
la
portada
de
los
mismos
una
carta
abierta
titulada
«La
estafa
de
la
verificación
de
edad»
.

Por
supuesto,
ellos
mismos
no
dejan
de
ser
parte
interesada
(y
muy
poco
neutral)
en
el
debate.
Sin
embargo,
resultan
de
interés
algunos
de
los
argumentos
que
enarbolan
en
dicho
documento
para
señalar
ciertas

debilidades
e
incoherencias
en
la
postura
sostenida
por
las
autoridades
.

Xvid

Xvid


La
carta
abierta,
disponible
al
acceder
a
Xvideos
(sin
ninguna
relación
con ‘X.com’)

Cómo
mejorar
la
SEGURIDAD
EN
INTERNET:
VPN,
DNS
y
páginas
con
HTTPS

¿Qué
es
la
verificación
de
edad?

La
verificación
de
edad
consiste
en
exigir
a
los
usuarios
que
demuestren
que
son
mayores
de
edad
antes
de
acceder
a
contenido
restringido.
Para
ello,
se
utilizan
diversos
métodos,
como:

  • Subida
    de
    documentos
    de
    identidad.
  • Reconocimiento
    facial
    con
    estimación
    de
    edad.
  • Verificación
    por
    tarjeta
    de
    crédito.
  • Confirmación
    a
    través
    de
    operadores
    móviles.

Aunque
estas
técnicas
varían
según
la
legislación
de
cada
país
(aquí
en
España
disponemos
del
llamado ‘pajaporte’
,

que
pese
a
no
haber
sido
aún
implementado
parece
ser
ya
una
referencia
para
la
UE
)
todas
comparten
un
objetivo
común:
impedir
que
los
menores
accedan
a
contenido
para
adultos.

¿Funciona
realmente?

Según
las
plataformas
afectadas—,

la
verificación
de
edad
no
solo
es
ineficaz

en
su
objetivo
declarado,
sino
que
genera
efectos
contraproducentes.
Los
principales
argumentos
en
contra
incluyen:

Fácil
elusión

Los
usuarios
siguen
pudiendo
acceder
a
contenido
adulto
usando
buscadores
como
Google
o
redes
sociales
como
X.
Basta
búsquedas
rápidas
de
términos
bien
sencillos
(nombres
en
inglés
de
prácticas
sexuales
y/o
de
intérpretes
de
cine
X)
para
encontrarlo:
no
hacen
falta
conocimientos
propios
de
un
hacker,
ni
recurrir
a
proxies
web,
VPNs
o
a
la
red
oscura.

Aplicación
selectiva

Continuando
con
esa
argumentación,
resulta
inexplicable
que
se
exija
implementar
la
verificación
de
edad
únicamente
a
algunos
grandes
sitios
XXX,
pero
no
a
grandes
plataformas
teóricamente ‘para
todos
los
públicos’,
como
las
antes
mencionadas,
donde
también
circula
pornografía.
Esta
aplicación
desigual
pone
en
duda,
según
la
industria
para
adultos,
la
verdadera
motivación
de
la
normativa.

Public

Public


La
misma
búsqueda
de
material
pornográfico,
tal
como
se
muestra
a
cualquier
usuario
en
Google
y
en
X,
respectivamente

Impacto
negativo
en
la
privacidad

Requerir
a
los
usuarios
que
compartan
documentos
o
datos
biométricos
crea
altos
riesgos
de
filtraciones
y
ciberataques,
lo
que
podría
exponer
la
identidad
de
personas
adultas
que
simplemente
desean
consumir
contenido
legal.
Ya
sabemos
que
las
autoridades
no
son
especialmente
fiables
a
la
hora
de
preservar
nuestros
datos.

Pérdida
de
usuarios
y
distorsión
del
mercado

Se
estima
que
más
del
90%
de
los
usuarios
abandonan
los
sitios
que
les
piden
verificación.
Esto,
denuncia
la
industria,
afecta
desproporcionadamente
a
las
plataformas
más
grandes
y
reguladas,
y
beneficia
a
sitios
piratas
o
inseguros
que
operan
al
margen
de
la
ley.

El
documento
también
señala
cómo
la
implementación
forzada
de
la
verificación
de
edad

amenaza
con
colapsar
la
industria
del
contenido
adulto
gratuito
,
que
se
basa
en
grandes
volúmenes
de
tráfico
y
monetización
indirecta.

Desplazamiento
a
canales
más
peligrosos

Al
hacer
más
difícil
el
acceso
a
sitios
seguros
y
moderados
(bien
es
cierto
que
a
menudo
han
fallado
en
dicha
tarea),
los
usuarios
podrían
migrar
a
espacios
no
regulados,
con
más
riesgo
de
encontrarse
con
contenido
ilegal
o
nocivo.
Se
consigue,
así,
el
efecto
contrario
al
teóricamente
buscado.

En
resumen,
no
es «por
los
niños»
(afirman)

La
carta
abierta
en
cuestión
concluye
que
el
discurso
de
protección
de
la
infancia
es
un

pretexto
para
una
persecución
contra
la
industria
de
la
pornografía
.
Entre
los
indicios
citados:

  • Las
    plataformas
    más
    utilizadas
    por
    menores
    (como
    redes
    sociales)

    quedan
    exentas
    de
    la
    verificación
    de
    edad
    ,
    a
    pesar
    de
    contener
    pornografía
    fácilmente
    accesible.
  • Los
    gobiernos
    y
    reguladores

    ignoran
    alternativas
    más
    eficaces
    ,
    como
    los
    controles
    parentales
    a
    nivel
    de
    dispositivo.
  • La
    verificación
    de
    edad
    se
    aplica
    solo
    a
    sitios
    de
    adultos,
    no
    a
    juegos
    violentos,
    contenido
    bélico
    o
    redes
    sociales
    tóxicas.

¿Hay
mejores
alternativas?

La
industria
recuerda
que
tanto
las
empresas
tecnológicas
como
los
expertos
en
privacidad
han
sugerido
medidas
más
eficaces
y
menos
invasivas:


  • Controles
    parentales
    a
    nivel
    de
    dispositivo
    :
    Herramientas
    ya
    existentes
    en
    Android,
    iOS
    y
    otros
    sistemas
    permiten
    bloquear
    automáticamente
    el
    acceso
    a
    millones
    de
    sitios
    con
    contenido
    para
    adultos.

  • Educación
    digital
    a
    padres
    y
    docentes
    :
    Capacitar
    a
    los
    adultos
    responsables
    para
    que
    entiendan
    y
    configuren
    estas
    herramientas
    correctamente.

  • Supervisión
    escolar
    de
    controles
    activos
    :
    Propuesta:
    exigir
    que
    los
    dispositivos
    personales
    de
    menores
    muestren
    un
    ícono
    visible
    de
    control
    parental
    y
    que
    su
    activación
    sea
    verificada
    anualmente
    en
    las
    escuelas.

Estas
estrategias
tienen
en
común
el
hecho
de
que
trasladan
la
responsabilidad
del
filtrado
a
quienes
tienen
contacto
directo
con
los
menores,
sin
invadir
la
privacidad
de
toda
la
sociedad.

¿Cómo
ha
funcionado
en
otros
países,
según
la
industria?

Reino
Unido

El
Reino
Unido
fue
uno
de
los
primeros
países
occidentales
en
intentar
una
ley
nacional
de
verificación
de
edad
para
contenido
adulto,
comenzando
en
2015
con
la

Digital
Economy
Act
.
Sin
embargo,
el
intento
original

fue
abandonado
en
2019
,
tras
reconocer
que:

  • La
    implementación
    era
    técnicamente
    inviable.
  • Las
    soluciones
    comprometían
    gravemente
    la
    privacidad
    de
    los
    usuarios.
  • No
    existía
    una
    estrategia
    clara
    para
    aplicarla
    de
    forma
    coherente.

A
pesar
de
ello,
el
país

resucitó
la
medida
en
2023

bajo
un
nuevo
marco:
la

Online
Safety
Act
,
que
integra
la
AV
dentro
de
un
enfoque
más
amplio
de
regulación
de
plataformas.
Esta
nueva
legislación

entrará
en
vigor
este
mismo
mes
.

Francia

La
legislación
francesa
ha
sido
calificada
como

la
peor
implementación
posible

de
AV,
tanto
por
su
enfoque
técnico
como
por
su
carga
ideológica.
Desde
2020,
el
país
ha
impulsado
medidas
cada
vez
más
restrictivas,
muchas
de
ellas
aplicadas

sin
directrices
claras
ni
plazos
razonables
.

El
organismo
regulador

ARCOM

exige
verificación

en
cada
visita
,
multiplicando
los
costos
operativos
para
las
plataformas.
Además,
se

prohíbe
el
uso
de
tarjetas
de
crédito

como
método
de
verificación,
pese
a
su
utilidad
comprobada.

Otra
característica
polémica
es
que

se
promete
un
sistema
de «doble
anonimato»
,
pero
en
la
práctica
los
proveedores
de
AV
saben
a
qué
sitio
se
está
accediendo.

El
resultado
ha
sido
un
entorno
regulatorio

hostil
y
caótico
,
que
llevó
a
empresas
como
Pornhub
a

retirarse
completamente
del
mercado
francés
.

Unión
Europea

A
nivel
comunitario,
la
UE
ha
adoptado
el

Reglamento
de
Servicios
Digitales
(DSA)
,
que
impone
a
las
grandes
plataformas
(VLOPs)
la
obligación
de
mitigar «riesgos
sistémicos»,
incluidos
los
relacionados
con
menores
Aunque
esto
parece
razonable
en
teoría,
en
la
práctica
ha
sido
utilizado
como

arma
regulatoria
ambigua
:

  • Se
    exige
    a
    las
    plataformas

    identificar
    y
    mitigar
    riesgos
    mal
    definidos
    ,
    como «daños
    potenciales»
    sin
    pruebas
    concretas.
  • Algunas
    plataformas,
    como
    las
    de
    contenido
    adulto,

    han
    sido
    investigadas
    públicamente
    sin
    previo
    aviso
    ,
    mientras
    otras
    (como
    redes
    sociales)
    han
    sido
    tratadas
    con
    mayor
    discreción.
  • Se
    exige
    cumplimiento
    con
    políticas
    de
    verificación
    de
    edad

    antes
    de
    que
    exista
    una
    solución
    paneuropea
    funcional
    ,
    como
    la
    futura «Cartera
    de
    Identidad
    Digital».

Esto
ha
provocado

una
percepción
de
doble
rasero
,
donde
las
plataformas
impopulares
o
estigmatizadas
se
convierten
en

chivos
expiatorios

para
aparentar
que
se
están
tomando
medidas.

Imagen
|
Marcos
Merino
mediante
IA

En
Genbeta
|
«Millones
de
personas
inocentes
serán
acusadas
cada
día»:
una
norma
anti-pornografía
infantil
de
la
UE
ampara
la
vigilancia
masiva