Cómo los CAPTCHA de Google han pasado de hacernos pruebas a saber que no somos robots estudiando nuestro comportamiento

0
358

Este lunes, Google presentó reCAPTCHA v3, su nueva API para ayudar a los administradores de sitios web a detectar tráfico abusivo, es decir, a detectar bots, como vienen haciendo desde hace años con sus anteriores implementaciones.

Lo que hace diferente a esta nueva versión de los famosos CAPTCHA que nos han perseguido por años en infinidad de sitios web, es que no requieren intervención del usuario, por primera vez podemos decir adiós al tener que demostrar que somos humanos, gracias a un nuevo sistema de puntaje.

De resolver «acertijos» o hacer un click, a ser identificados por cómo movemos el mouse

Captura De Pantalla 2018 10 30 A Las 17 42 11

Captura De Pantalla 2018 10 30 A Las 17 42 11

Todo el que tenga una que otra cuenta en Internet ha tenido que resolver un CAPTCHA alguna vez en la vida. Al inicio de los tiempos eran usualmente aquellas combinaciones de letras y números casi ilegibles que se acercaban casi a tener que resolver un «acertijo» para que la web estuviese convencida de que sí era un humano tratando de ingresar a ella y no un robot.

Durante una década Google ha estado trabajando en sus propios CAPTCHA para mejorar la detección de bots, es decir, en reCAPTCHA. Esta tecnología más avanzada es una evolución del CAPTCHA, y su más reciente versión, el reCAPTCHA v3 que acaba de ser lanzado, es la más inteligente hasta ahora.

El reCAPTCHA v3 no interrumpe la actividad del usuario y Google recomienda implementarlo en más secciones de la web para estudiar mejor las acciones de cada usuario y ayudar a entrenar a la IA

Ya los reCAPTCHA de Google habían dicho adiós a los códigos que teníamos que resolver, y en cambio pasamos a solo tener que hacer un click marcando una casilla. En ese momento ya Google había empezado a utilizar algoritmos y a examinar varias pistas sobre el usuario, como su IP o las cookies activas en su navegador.

[embedded content]

reCAPTCHA v3 cambia fundamentalmente la forma en la que un sitio web diferencia entre usuarios humanos o bots, ejecutando lo que en Google han llamado «un análisis adaptativo de riesgos», una forma en la que reCAPTCHA analiza las acciones que los usuarios llevan a cabo en el sitio web.

El sistema ofrece una puntuación para la actividad sospechosa, es decir, reCAPTCHA le asignará un puntaje a cada usuario de forma automática dependiendo de cómo se comporte. Esto incluye cosas como el tiempo que pasa el usuario en una determinada página, los clicks que hace, o hasta el movimiento del puntero del ratón.

Las puntuaciones van del 0.0 al 1.0, mientras más bajo el número, mayor probabilidad de que se trate de un bot

Todo esto sin interrumpir al usuario en su navegación, por lo que Google incluso recomienda a los webmasters que lo añadan a más secciones de sus sitios web, de forma que pueden analizar aún más el comportamiento de cada usuario y así crear modelos predictivos entrenando a la IA, de forma que cada sitio web pueda combatir el tráfico malicioso ajustado a sus necesidades de forma más específica.

Esto son buenas noticias para los usuarios por justamente eso, una experiencia de navegación ininterrumpida en más sitios web que implementen este sistema. Y, para los administradores de sitios web se apuntan los beneficios de poder determinar el nivel de tráfico real que reciben viendo las puntuaciones de sus usuarios, y además de poder añadir pasos extra de verificación a aquellos que tengan las puntuaciones más bajas.

Temas