Tecnología & Cultura Digital

Ciberseguridad e inteligencia artificial ¿Qué depara en 2025?

La amenaza es más grave en el contexto de la ingeniería social, donde la IA generativa puede ayudar a los actores maliciosos a elaborar campañas muy convincentes; o en el reconocimiento, donde la IA puede automatizar la identificación a gran escala de activos vulnerables.

2025-01-31

Por revistaeyn.com

La inteligencia artificial (IA) ha disparado la carrera armamentística de la ciberseguridad en el último año con importantes implicaciones tanto para las empresas, como para los usuarios de la web.

ESET advierte que, mientras que la tecnología de IA ayuda a los defensores a mejorar la seguridad, los actores maliciosos no pierden el tiempo en aprovechar las herramientas potenciadas por IA, por lo que es esperable un aumento de las estafas, la ingeniería social, el fraude de cuentas, la desinformación y otras amenazas.

Encuesta: Un 71 % considera que la tecnología es fundamental para enfrentar desafíos

A principios de 2024, el Centro Nacional de Ciberseguridad del Reino Unido (NCSC) advirtió que la IA ya está siendo utilizada por todo tipo de actores de amenazas y que “casi con toda seguridad aumentará el volumen y el impacto de los ciberataques en los próximos dos años”.

La amenaza es más grave en el contexto de la ingeniería social, donde la IA generativa (GenAI) puede ayudar a los actores maliciosos a elaborar campañas muy convincentes en idiomas locales impecables; o en el reconocimiento, donde la IA puede automatizar la identificación a gran escala de activos vulnerables.

Aunque estas tendencias continuarán sin duda en 2025, es posible que también se vea el uso de la IA para:

· Eludir la autenticación: La tecnología Deepfake se utiliza para ayudar a los estafadores a hacerse pasar por clientes en selfies y comprobaciones basadas en vídeo para la creación de nuevas cuentas y el acceso a cuentas.

· Compromiso del correo electrónico comercial (BEC): La IA utilizada para la ingeniería social, pero esta vez para engañar a un destinatario corporativo para transferir fondos a una cuenta bajo el control del estafador. El audio y el vídeo falsos también pueden utilizarse para hacerse pasar por directores generales y otros altos cargos en llamadas telefónicas y reuniones virtuales.

Aumenta en un 135 % el interés por robar criptomonedas en la dark web

· Estafas de suplantación de identidad: Los grandes modelos lingüísticos (LLM) de código abierto ofrecerán nuevas oportunidades a los estafadores. Al entrenarlos con datos extraídos de cuentas de redes sociales pirateadas o de acceso público, los estafadores podrían suplantar la identidad de las víctimas en secuestros virtuales y otras estafas diseñadas para engañar a amigos y familiares.

· Estafas de personas influyentes: De forma similar, es de esperar que en 2025 los estafadores continuen utilizando GenAI para crear cuentas de redes sociales falsas o duplicadas imitando a celebridades, personas influyentes y otras figuras conocidas. Se publicarán vídeos deepfake para atraer a los seguidores y hacerles entregar información personal y dinero, por ejemplo en estafas de inversión y criptomonedas, incluyendo los tipos de estratagemas destacadas en el último Informe de Amenazas de ESET. Esto aumentará la presión sobre las plataformas de redes sociales para que ofrezcan herramientas eficaces de verificación de cuentas e insignias, así como para mantenerse alerta.

· Desinformación: GenAI se aprovechará para generar de forma fácil contenido falso, con el fin de engañar a usuarios a seguir cuentas falsas en redes sociales. Estos usuarios podrían convertirse entonces en amplificadores en línea para operaciones de influencia, de una manera eficaz y más difícil de detectar que las granjas de contenidos/trolls.

· Descifrado de contraseñas: Las herramientas impulsadas por la IA son capaces de desenmascarar credenciales de usuario en masa en cuestión de segundos para permitir el acceso a redes y datos corporativos, así como a cuentas de clientes.

12 ejemplares al año por $75

SUSCRIBIRSE