Llega tarde al aeropuerto y necesita acceder urgentemente a su cuenta, solo para ser recibido por una de esas pruebas frustrantes: «Seleccione todas las imágenes con semáforos» o «Escriba las letras que ve en este cuadro». Entrecierras los ojos, lo adivinas, pero de alguna manera estás equivocado. Completa otra prueba pero el sitio aún no está satisfecho.
«Su vuelo está abordando ahora», anuncia el tannoy mientras el sitio web le ofrece otro acertijo. Maldices a la pantalla, cierras tu computadora portátil y corres hacia la puerta.
Ahora, aquí tienes una idea para animarte: los robots ahora están resolviendo estos acertijos en milisegundos utilizando inteligencia artificial (IA). Qué irónico. Las herramientas diseñadas para demostrar que somos humanos ahora nos obstruyen más que las máquinas que se supone deben mantener a raya.
Bienvenido a la extraña batalla entre la detección de bots y la IA, que se volverá aún más complicada en los próximos años a medida que la tecnología siga mejorando. Entonces, ¿cómo será el futuro?
Captchaque significa Prueba de Turing pública completamente automatizada para diferenciar computadoras y humanos, fue inventada a principios de la década de 2000 por un equipo de científicos informáticos de la Universidad Carnegie Mellon en Pittsburgh. La idea era simple: lograr que los usuarios de Internet demuestren su humanidad a través de tareas que pueden completar fácilmente pero que las máquinas encuentran difíciles.
Las máquinas ya estaban causando estragos en línea. Los sitios web estaban inundados de robots que hacían cosas como configurar cuentas falsas para comprar entradas para conciertos o publicar comentarios automatizados para comercializar Viagra falso o atraer a los usuarios a participar en estafas. Las empresas necesitaban una forma de detener esta actividad perniciosa sin perder usuarios legítimos.
Las primeras versiones de Captcha eran básicas pero efectivas. Verías letras onduladas y distorsionadas y las escribirías en un cuadro. Los robots no podían «leer» el texto como podían hacerlo los humanos, por lo que los sitios web permanecían protegidos.
Esto pasó por varias iteraciones en los años siguientes: recaptcha fue creado en 2007 para agregar un segundo elemento en el que también debías ingresar una palabra distorsionada de un libro antiguo.
Luego, en 2014, ya adquirido por Google, llegó reCaptcha v2. Éste es el que pide a los usuarios que marquen la casilla «No soy un robot» y, a menudo, eligen entre una selección de imágenes que contienen gatos o piezas de bicicletas, o lo que sea. Sigue siendo el más popular Hoy en día, Google recibe pagos de las empresas que utilizan el servicio en su sitio web.
Cómo la IA ha superado al sistema
Los sistemas de IA actuales puede resolver los desafíos en los que se basan estos Captchas. Pueden «leer» texto distorsionado, por lo que las letras onduladas o aplastadas de las pruebas Captcha originales les resultan fáciles. Gracias a procesamiento del lenguaje natural y aprendizaje automático, La IA puede decodificar incluso las palabras más confusas.
Del mismo modo, herramientas de IA como Visión de Google y Clip de OpenAI Puede reconocer cientos de objetos más rápido y con mayor precisión que la mayoría de los humanos. Si un Captcha le pide a una IA que haga clic en todos los autobuses en una selección de imágenes, puede resolverlo en fracciones de segundo, mientras que a un humano le tomaría entre 10 y 15 segundos.
Este no es sólo un problema teórico. Considere los exámenes de manejo: las listas de espera para los exámenes en Inglaterra duran muchos meses, aunque puede obtener un examen mucho más rápido pagando una tarifa más alta a un revendedor del mercado negro. El guardián informó en julio que promociona software automatizado de uso común para reservar todos los espacios de prueba, mientras intercambia candidatos dentro y fuera para adaptarse a sus horarios en constante cambio.
En un eco de la situación de hace 20 años, existen problemas similares con las multas para cosas como partidos de futbol. En el momento en que los boletos están disponibles, los robots abruman el sistema: pasan por alto los captchas, compran boletos al por mayor y los revenden a precios inflados. Los usuarios genuinos a menudo se lo pierden porque no pueden operar tan rápido.
De manera similar, los bots atacan plataformas de redes sociales, sitios web de comercio electrónico y foros en línea. Las cuentas falsas difunden información errónea, publican spam o obtienen artículos limitados durante las rebajas. En muchos casos, Captcha ya no puede detener estos abusos.
¿Qué está pasando ahora?
Los desarrolladores idean continuamente nuevas formas de verificar a los humanos. Algunos sistemas, como ReCaptcha v3 de Google (introducido en 2018), ya no te pide que resuelvas acertijos. En cambio, observan cómo interactúas con un sitio web. ¿Mueves el cursor de forma natural? ¿Escribes como una persona? Los humanos tienen comportamientos sutiles e imperfectos que los robots todavía luchan por imitar.
No a todo el mundo le gusta ReCaptcha v3 porque plantea problemas de privacidad; además, la empresa web necesita evaluar las puntuaciones de los usuarios para determinar quién es un bot y Los bots pueden vencer al sistema de todos modos.. Hay alternativas que utilizan una lógica similar, como rompecabezas «deslizantes» que piden a los usuarios que muevan las piezas del rompecabezas, pero estas también se puede superar.
Captcha deslizante:
Algunos sitios web ahora están recurriendo a la biometría para verificar a los humanos, como escaneos de huellas dactilares o reconocimiento de vozmientras que el Face ID también es una posibilidad. Los datos biométricos son más difíciles de falsificar para los robots, pero conllevan sus propios problemas: preocupaciones sobre la privacidad, tecnología cara y acceso limitado para algunos usuarios, por ejemplo, porque no pueden permitirse el lujo de adquirir el teléfono inteligente correspondiente o no pueden hablar debido a una discapacidad.
El inminente llegada de agentes de IA agregará otra capa de complejidad. Significará que cada vez más queremos que los bots visiten sitios y hagan cosas en nuestro nombre, por lo que las empresas web tendrán que empezar a distinguir entre bots «buenos» y bots «malos». Esta área todavía necesita mucha más consideración, pero certificados de autenticación digital se proponen como una posible solución.
En resumen, Captcha ya no es la herramienta simple y confiable que alguna vez fue. La IA nos ha obligado a repensar cómo verificamos a las personas en línea, y esto será cada vez más desafiante a medida que estos sistemas se vuelvan más inteligentes. Cualquiera que sea el próximo estándar tecnológico, tendrá que ser fácil de usar para los humanos, pero un paso por delante de los malos actores.
Así que la próxima vez que te encuentres haciendo clic en semáforos borrosos y enfureciéndose, recuerda que eres parte de una pelea más grande. El futuro de demostrar a la humanidad aún se está escribiendo y los robots no se rendirán pronto.
Este artículo se republica desde La conversación bajo una licencia Creative Commons. Lea el artículo original.
Citación: ‘Sí, soy un humano’: la detección de bots ya no funciona, y solo espere hasta que lleguen los agentes de IA (2024, 25 de diciembre) recuperado el 25 de diciembre de 2024 de https://techxplore.com/news/2024-12- robot-humano-agentes-ai-más-largos.html
Este documento está sujeto a derechos de autor. Aparte de cualquier trato justo con fines de estudio o investigación privados, ninguna parte puede reproducirse sin el permiso por escrito. El contenido se proporciona únicamente con fines informativos.
GIPHY App Key not set. Please check settings