Hay muchas cosas en las que los responsables de RRHH de las grandes empresas se fijan durante una entrevista de trabajo a la hora de decidir si contratan o no a un candidato. Pero, a partir de ahora, cuándo la entrevista se realice por videoconferencia, van a tener que aprender a fijarse hasta en el más pequeño gesto facial… para descartar que, en realidad, lo que estén viendo no existe.
Y es que el Centro de Denuncias de Delitos Informáticos del FBI emitió ayer un comunicado en el que se afirmaba que la agencia estadounidense está experimentando una oleada de denuncias de casos de uso de deep fakes. El uso ilícito de esta tecnología es algo que vinculamos rápidamente a la difusión de noticias fake o de pornovenganza, pero en este caso, el objetivo es muy diferente: la usan para postularse a un puesto de trabajo remoto.
No es que tengan muchas ganas de trabajar, no
Efectivamente, los ciberdelincuentes están empezando a utilizar imágenes, vídeo y audio generados mediante inteligencia artificial, en combinación con datos personales robados, para lograr presentarse como candidatos viables para puestos de trabajo —sobre todo en el propio sector tecnológico— en los que, una vez contratados, les abran las puertas a la obtención de información confidencial acerca de la compañía o sus clientes.
Los deepfakes de audio ya no son, por desgracia, algo ajeno al sector corporativo: uno de sus primeros usos, hace ya tres años, consistió en usarlos para llevar a cabo estafas ‘suplantando’ al CEO de la compañía. Pero ahora se utilizan para suplantar a los empleados.
Según afirma el comunicado del FBI:
«Los puestos de trabajo remoto identificados en estas denuncias incluyen campos como las TIC, la programación, las bases de datos y funciones laborales relacionadas con el software. En algunos de los casos, el puesto otorgaba acceso a datos financieros, bases de datos corporativas o información patentada».
Detectar un vídeo deepfake, especialmente cuando no te lo esperas, es más difícil de lo que podría parecer. Ayuda estar pendiente de texturas imprecisas en la piel o de sombras que no se comportan como deberían
La calidad de estos intentos, eso sí, es variable —aunque, claro, los casos más convincentes quizá aún no hayan sido detectados—:
«Las denuncias informaban del uso de deepfakes de voz durante las entrevistas online de los posibles solicitantes. En ellas, las acciones y el movimiento de los labios de la persona entrevistada en cámara no se coordinan completamente con el audio de la persona que habla. A veces, acciones como toser, estornudar u otras acciones auditivas son incoherentes con lo que se presenta visualmente».
El FBI ya lanzó una advertencia al sector privado estadounidense el pasado mes de mayo, en el que se afirmaba que Corea del Norte tiene a agentes postulándose a puestos de trabajo en la industria tecnológica (sobre todo de la Web3 y las criptomonedas). En esos casos, estos falsos trabajadores a menudo pujan por las vacantes recurriendo a sitios como Upwork o Fiverr… y habiendo recopilado previamente documentación y referencias falsas.