Por revistaeyn.com
La ingeniería social es uno de los trucos más antiguos de los hackers: manipular a una víctima para que entregue su información o instale malware. La forma más común de abordar a las víctimas es a través de un correo electrónico de phishing, un mensaje de texto o una llamada telefónica y el diseño de las campañas está potenciado y optimizado por las herramientas de la inteligencia artificial generativa (GenAI) desde que estas tecnologías se masificaron.
Desde ESET advierten que los cibercriminales ya convirtieron en actor malicioso a la misma GenAI. Puntualmente en X (antes Twitter), lograron engañar al chatbot Grok (la IA de X) para que difunda links de phishing en su cuenta de X.
En esta campaña, los cibercriminales eluden la prohibición de X de incluir enlaces en los mensajes promocionados (diseñada para luchar contra la publicidad maliciosa) mediante la publicación de vídeos llamativos. Es el tipo de ataque en el que los actores de amenazas dan instrucciones maliciosas disfrazadas de comandos de un usuario legítimos, incluyen su enlace malicioso en campo «from» debajo del vídeo, y preguntan a Grok de dónde procede el vídeo.
Grok lee el mensaje, detecta el pequeño enlace y lo amplifica en su respuesta, dándole una falsa sensación de legitimidad, al ser replicado por la misma cuenta verificada del chatbot.
“Este caso no es solo un problema de X/Grok. Las mismas técnicas podrían aplicarse teóricamente a cualquier herramienta GenAI/LLM integrada en una plataforma de confianza. Esto pone de relieve el ingenio de los actores de las amenazas para encontrar la manera de eludir los mecanismos de seguridad”, comenta Camilo Gutiérrez Amaya, jefe del Laboratorio de Investigación de ESET Latinoamérica.
Este tipo de ataques va en aumento. La empresa de análisis Gartner afirmaba recientemente que un tercio (32 %) de las organizaciones había experimentado una inyección puntual durante el año pasado. Hay muchos otros escenarios potenciales en los que podría ocurrir algo similar al caso de uso de Grok/X.
Los mensajes maliciosos pueden ocultarse a la vista, en texto en blanco, metadatos o incluso caracteres Unicode. Cualquier GenAI que busque datos disponibles públicamente para ofrecer respuestas también es vulnerable al procesamiento de datos «envenenados» para generar contenido malicioso. Hay un número ilimitado de variaciones de esta amenaza.
Desde ESET acercan las siguientes recomendaciones:
· Si un bot GenAI presenta un enlace, pasar el mouse por encima para comprobar su URL de destino real. No hacer clic si se tienen dudas de su legitimidad.
· Ser siempre escéptico con los resultados de la IA, especialmente si la respuesta/sugerencia parece incongruente.
· Utilizar contraseñas fuertes y únicas (almacenadas en un gestor de contraseñas) y autenticación multifactor (MFA) para mitigar el riesgo de robo de credenciales.
· Asegurarse de que todo el software y los sistemas operativos de los dispositivos/ordenadores están actualizados, para minimizar el riesgo de explotación de vulnerabilidades.
· Invertir en software de seguridad multicapa de un proveedor de confianza para bloquear descargas de malware, estafas de phishing y otras actividades sospechosas en su máquina.