Slack está usando los mensajes privados para entrenar su IA sin nuestro consentimiento. Su argumento solo lo empeora

0
12

Slack
es
una
de
las
plataformas
más
populares
para
la
comunicación
empresarial,
junto
a
Microsoft
Teams.
En
estos
últimos
días
ha
ejercido
una
política
en
la
que

utiliza
los
datos
de
sus
clientes
para
entrenar
modelos
de
IA
.

Estos
datos
incluyen
sus
mensajes
y
archivos
privados,
no
solo
los
de
las
conversaciones
en
canales
públicos
para
la
empresa.
Esto

se
está
haciendo
por
defecto

y
sin
pedir
permiso
explícito.


Por
qué
es
importante
.
Este
caso
subraya
el
riesgo
para
la
privacidad
que
supone
que
cada
vez
más
empresas
desarrollen
herramientas
de
IA
utilizando
grandes
cantidades
de
datos
de
usuarios,
a
menudo
de
formas
poco
transparentes.
También
genera
dudas
sobre
el
nivel
de
control
que
tienen
personas
y
empresas
sobre
su
información
en
servicios
en
la
nube.


Qué
ha
hecho
Slack
.
En
su
web,
en
una
página
recóndita
sobre
sus
principios
de
privacidad,

Slack
reveló

que
sus
sistemas «analizan
los
datos
del
cliente
(como
mensajes
y
archivos)
enviados
a
Slack,
así
como
otra
información
(como
analíticas
de
uso)
para
entrenar
nuevos
modelos
de
IA,
por
defecto
y
sin
pedir
permiso
específico.

La
única
forma
de
excluir
los
datos
de
una
empresa
es

que
un
administrador
de
su
equipo
en
Slack
envíe
un
correo
electrónico
al
servicio

solicitando
un

opt-out

global.
Los
usuarios
individuales
no
pueden
hacer
este
proceso.


Preocupaciones
de
privacidad
.
Slack
dice
que
tiene
controles
técnicos
para
evitar
el
acceso
a
ciertas
formas
de
contenido
y
que
los
datos
no
se
filtrarán
entre
espacios
de
trabajo,
pero
alimentar
sistemas
de
IA
con
chats
privados
y
archivos
confidenciales
supone
un
riesgo.

La
forma
de
pedir
la
exclusión,
teniendo
que
enviar
un
correo
por
parte
del
administrador
en
lugar
de
que
sea
un
proceso
sencillo
e
integrado
(y
sin
ejecutarlo
por
defecto)
es
otra
forma
de

dark
pattern

de
los
que
conocemos
desde
hace
mucho.
Una
forma
de
desalentar
a
que
las
empresas
pidan
su
exclusión.


La
argumentación
de
Slack
.
En

un
comunicado
con
el
que
buscaban
tranquilizar

dijeron
que
usan
estás
técnicas
para «cosas
como
las
recomendaciones
de
canales,
de
emojis
o
los
resultados
de
búsqueda».
Es
preocupante
que
estén
usando
conversaciones
privadas
y
archivos
confidenciales
por
defecto
para
algo
tan
trivial
como
la
sugerencia
de
emojis
en
las
reacciones.

Aseguran
que
son
datos «anonimizados
y
agregados»
y
que
los
clientes
pueden
pedir
la
exclusión,
pero
el
riesgo
de
fugas
de
información
al
trabajar
con
datos
privados
está
ahí.


Dudas
que
persisten
.
Con
un
uso
tan
orientado
a
detalles
nimios,
como
la
recomendación
de
emojis
o
la
ordenación
en
búsquedas,
mucha
gente
se
está
preguntando
por
qué
Slack
necesita
acceder
a
conversaciones
privadas
para
algo
así.

La
promesa
de
que
los
datos
no
salen
de
su
infraestructura
no
elimina
el
riesgo
de
una
filtración
o
un
mal
uso.
Y
este
caso
es
un
ejemplo
del
dilema
de
privacidad
que
plantea
el
auge
de
la
IA,
también
con
la
tentación
que
tienen
las
empresas
de
alimentar
sus
modelos
con
datos
sensibles
de
los
usuarios
y
técnicas
opacas.

En
Xataka
|

Hay
un
superpoder
que
dispara
tu
productividad
de
forma
casi
inmediata:
decir «ahora
no»

Imagen
destacada
|

Stephen
Phillips
(Hostreviews)
en
Unsplash