Si crees que sabes distinguir una foto real de una creada con IA, esta web te pone a prueba. Los resultados globales son preocupantes

0
122

La
era
de
la
inteligencia
artificial
generativa
nos
ha
traído
herramientas
asombrosas,
pero
también
un
desafío
mayúsculo:
la
desinformación.
Aunque
nuestra
exposición
constante
a
imágenes
creada
por
IA
nos
ha
hecho
más
escépticos,

un
reciente
estudio
de
Microsoft

demuestra
que

todavía
somos
muy
fáciles
de
engañar.

Y
para
probarlo,
han
lanzado
un
test
online
que
te
dejará
comprobarlo.

El
estudio,
que
analizó
las
respuestas
de
12.500
participantes
ante
287.000
imágenes,
concluyó
que
los
humanos
tenemos
una

tasa
de
acierto
de
apenas
el
63%

a
la
hora
de
diferenciar
una
foto
real
de
una
sintética.
Algo
que
puede
afectar
directamente
a
lo
que
vemos
en
las
redes
sociales,
donde
hay
multitud
de
imágenes
y
vídeos
que
a
veces
podemos
dudar
si
es
IA
o
realidad.
Y
es
que
no
somos
perfectos
cuando
el
resultado
de
la
IA
ha
sido
muy
logrado.

‘Sgroogled.com’:
cuando
MICROSOFT
lanzaba
anuncios
ANTI-GOOGLE

Ponte
a
prueba:
el
quiz
de
Microsoft
que
revela
nuestras
debilidades

Y
seguramente
alguna
vez
has
dicho «yo


diferenciar
bien
una
imagen
hecha
con
IA».
Pues
ahora
puedes
demostrarlo.
Microsoft

ha
creado
el
Real
or
Not
Quiz
,
un
test
rápido
donde
se
presentan
15
imágenes
aleatorias.
Algunas
son
de
bancos
de
imágenes
de
stock,
otras
son
creaciones
con
modelos
como
Midjourney
o
DALL-E.
El
objetivo
es
simple:
decidir
si
son
reales
o
no.

Real O Ia

Real O Ia

Personalmente,
tras
haber
hecho
varios
intentos
con
este
Quiz,
he
descubierto
lo
difícil
que
puede
ser
diferenciar
algunas
imágenes
hechas
con
IA
de
la
realidad
por
lo
bien
hechas
que
están.
Y
es
que
cuando
pensamos
en
IA
nos
puede
venir
a
la
mente
la
típica
imagen
qeu
tiene
un
estilo

cartoon,

pero
cuando
se
usa
un
buen
prompt
en
una
buena
IA
el
resultado
es
muy
diferente.

Y
como
yo,
los
resultados
del
estudio
a
gran
escala
que
realizó
Microsoft
muestra
que
nos
equivocamos
mucho.
Como
consideraciones,
los
humanos
somos
ligeramente
mejores
a
la
hora
de
identificar
retratos
falsos
con
una
tasa
de
acierto
del
65%.
Pero
si
hablamos
de
los

deepfakes

creados
con
la
tecnología
GAN,
se
engaña
al
55%
de
los
participantes.

Pero
cuando
las
imágenes
no
contienen
a
seres
humanos,
como
por
ejemplo
en
paisajes,
nuestra
precisión
baja
bastante
y
es
más
fácil
que
podamos
decir
que
una
imagen
es
completamente
real
cuando
ha
sido
generada
con
IA.

El
truco
está
en
la
imperfección

Irónicamente,
una
de
las
razones
por
la
que
los
deepfakes
GAN
siguen
funcionando
tan
bien
es
porque
su
estética
se
asemeja
a
la
de
una
fotografía
de
baja
calidad,
con
menos
detalles
que
los
modelos
de
IA
suelen
fallar
en
replicar.
Nos
hemos
acostumbrado
tanto
a
la
estética
hiperrealista
y
pulida
de
las
IA
modernas
que,
cuando
algo
parece
una
foto
mediocre,
nuestro
cerebro
tiende
a
verlo
como
algo
completamente
real.

Real O No

Real O No

El
estudio
también
destaca
cómo
los
creadores
de
imágenes
están
afinando
sus

prompts

para
lograr
un
mayor
realismo.
Algunas
técnicas
incluyen:

  • Añadir
    nombres
    de
    archivos
    genéricos
    en
    el
    prompt
    como
    por
    ejemplo ‘IMG_4587.jpg’,
    para
    que
    la
    IA
    imite
    la
    estética
    de
    una
    fotografía
    causal.
  • Usar
    fotografías
    reales
    como
    guía
    para
    que
    use
    su
    estética
    en
    lo
    que
    vaya
    a
    generar.
  • Mantener
    niveles
    de
    ruido
    y
    brillo
    similares
    a
    los
    de
    una
    fotografía
    auténtica.

Pero
lo
más
fascinante
de
este
estudio,
es
ver
como
las
imágenes
que
más
confundieron
a
todos
los
que
participaron
eran
completamente
reales.
Las
tres
imágenes
con
una
tasa
de
identificación
más
baja
eran
imágenes
auténticas.
Y
todas
con
tasas
de
acierto
realmente
bajas
del
12,
14
y
18%.

¿Qué
tienen
en
común
todas
estas
imágenes?
Todas
muestras
al
ejército
estadounidense
en
escenarios
inusuales,
con
condición
de
iluminación,
saturación
de
color
y
velocidad
de
obturación
atípicas.
Esto
sugiere
que
nuestro
cerebro
tiene
un
sesgo
hacia
lo
que
considera ‘normal’
en
la
fotografía.
Cuando
una
imagen
se
sale
de
ese ‘canon’
que
tenemos
en
nuestra
mente
es
más
probable
que
digamos
que
es
completamente
falsa.

Y
esto
es
algo
crucial.
Entender
qué
tipo
de
imágenes
y
prompts
son
más
efectivos
para
engañar
al
ojo
humano
es
relevante
para
poder
crear
herramientas
que
persigan
la
desinformación.
Y
es
que
a
medida
que
estas
técnicas
se
van
perfeccionando,
los
humanos
vamos
a
poder
ser
persuadidos
por
información
completamente
errónea
y
cambiar
nuestro
pensamiento.

Por
ello,
la
compañía
insiste
en
que
este
estudio
es
un
recordatorio
de
la

importancia
crítica
de
etiquetar
de
forma
clara
y
transparente
todo
el
contenido
generado
por
inteligencia
artificial
.
La
línea
entre
lo
real
y
lo
sintético
se
difumina,
y
la
necesidad
de
herramientas
de
verificación
es
más
urgente
que
nunca.

Imágenes

En
Genbeta
|

Cualquiera
ha
podido
entrar
a
tus
conversaciones
con
ChatGPT
a
través
de
Google,
pero
solo
si
las
tenías ‘públicas’