La nueva trampa digital: cómo la IA está potenciando a los estafadores

0
3

La inteligencia artificial irrumpió con la promesa de resolver problemas, acelerar procesos y ofrecer un futuro más eficiente. Pero, como sucede con cada avance tecnológico, junto con los beneficios aparecen riesgos y amenazas que se empiezan a visibilizar. En las últimas semanas, dos casos muy distintos dejaron en evidencia cómo las herramientas de IA pueden convertirse en terreno fértil para estafadores.

El primero de esos episodios involucra los nuevos resúmenes generados por IA en Google, conocidos como AI Overviews, y que están disponibles desde fin de año en nuestro país. Estos textos aparecen en la parte superior de los resultados de búsqueda y buscan ofrecer una respuesta rápida generada por inteligencia artificial, evitando que el usuario tenga que navegar por múltiples enlaces para encontrar el dato que busca. Lo que parece una función práctica, sin embargo, dejó en evidencia sus vulnerabilidades.

El número de teléfono que no era

Un usuario en Estados Unidos le contó al Washington Post su caso: buscó en Google el número de teléfono de atención al cliente de una compañía para reservar un crucero. El resumen de IA le devolvió un teléfono que parecía legítimo y estaba integrado de manera natural en la respuesta. Confiado (el dato se lo proveyó Google), llamó y terminó hablando con un estafador, que se hizo pasar por alguien de la empresa y lo guió hasta concretar la trampa (lograr que comprar un falso pasaje en el crucero).

La clave del engaño es que ese número no figuraba en la web oficial de la compañía, sino que había sido sembrado en foros manipulados. La IA, al extraer información de esos espacios como parte de su entrenamiento, replicó un dato falso como si fuera verdadero.

El caso se volvió viral porque mostraba un riesgo que podía afectar a cualquiera. Si los AI Overviews pueden ofrecer información inventada, y los delincuentes encuentran la forma de introducir esos datos en la red para que la IA los absorba, cualquier usuario puede convertirse en víctima. Lo que antes se llamaba una “alucinación” de la IA —cuando inventaba hechos sin respaldo— hoy se combina con estrategias activas de manipulación diseñadas para aprovechar ese margen de error. La historia tuvo, al menos, un final feliz, ya que la víctima pudo cancelar el gasto en su tarjeta y recuperar el dinero. Google, por su parte, reconoció el problema, retiró los casos reportados y anunció que trabaja en filtros más estrictos para evitar que se repita.

Los navegadores con agentes de IA no solo son susceptibles a nuevas formas de fraude, sino que pasan por alto formas tradicionales que serían detectables por la mayoría de las personas

Navegador no tan inteligente

El segundo caso, aunque distinto en el escenario, sigue la misma mecánica de vulnerabilidad. Se trata de los AI browsers, navegadores que actúan de manera automática siguiendo instrucciones de los usuarios. Un informe reciente de Guardio que publica Engadget mostró cómo estas herramientas pueden ser engañadas incluso por fraudes evidentes. En particular, quedó en evidencia la vulnerabilidad de Comet, el navegador web de inteligencia artificial de Perplexity.

En una prueba, los investigadores crearon un sitio web falso que simulaba ser Walmart y le pidieron a Comet que comprara un Apple Watch. A pesar de señales claras de que la página no era legítima —un logotipo mal diseñado y una URL falsa—, Comet completó la transacción y proporcionó información financiera sin mostrar ningún tipo de alerta.

En otra prueba, los investigadores enviaron un correo electrónico simulado de Wells Fargo, con un enlace de phishing, es decir, la clásica técnica de ciberataque donde los delincuentes se hacen pasar por entidades legítimas para engañar a las personas y obtener información confidencial. Comet abrió la página y, sin cuestionar la autenticidad, ingresó nombre de usuario y contraseña en el sitio fraudulento. Una tercera prueba evidenció su vulnerabilidad ante un ataque de “prompt injection”, donde un cuadro de texto oculto dentro de la página de phishing instruía al navegador a descargar un archivo.

En todos los casos, Comet siguió las instrucciones al pie de la letra, ignorando señales claras que cualquier persona, mínimamente atenta, podría haber detectado.

El desafío, en este caso, está en lograr que los agentes de IA, que hacen tareas en internet en nuestro nombre, no caigan en engaños digitales.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí