Por revistaeyn.com
Cada vez más, los cibercriminales están utilizando la inteligencia artificial (IA) para fraguar estafas en línea, mediante la creación de contenidos falsos que utilizan a personalidades públicas para intentar darle veracidad a sus intenciones de fraude cibernético.
Estos cibercriminales utilizan tecnología para crear deepfakes, manipulan imágenes y voces para generar videos y audios con figuras y personajes públicos que alientan a realizar inversiones, pero que en realidad son estafas creadas con Inteligencia Artificial.
Martina López, especialista en Seguridad Informática de ESET Latinoamérica, explica que “con frecuencia vemos videos o audios, lo que agrega fidelidad por estar oyendo de la “propia voz” o “propia imagen” de la personalidad suplantada. Además, este contenido puede combinarse para reforzar la narrativa de las estafas o noticias falsas y confundir a las víctimas”.
ESET recomienda estar atentos a las señales de alerta y comparte detalles ante posibles contenidos falsos a los que el usuario de estas plataformas debe estar en alerta.
· Movimientos faciales extraños o gestos poco naturales, sombras que no corresponden al foco de luz del video o imagen.
· Desfase entre los labios de la persona y el audio en los videos.
· Imágenes o sonidos de poca calidad, con artefactos, distorsiones o falta de nitidez.
· Fuentes no confiables, como perfiles nuevos, sin verificación o con pocos seguidores.
· Contenido que busca una reacción emocional inmediata, como preocupación, enojo o felicidad.
En caso de detectar alguno de los mencionados, López recomienda verificar la fuente de la información, así como su posible veracidad objetiva si parece demasiado extraño para ser real, quizás no lo sea.
Para no ser víctimas de estafadores, ESET sugiere a los cibernautas que ante este tipo de amenazas que parecen tan reales, consultar directamente los perfiles oficiales de la figura pública o las páginas confiables relacionadas con el tema. Además, en plataformas como TinEye o Google Reverse Image Search es posible buscar capturas de imagen de videos para verificar si el mismo ha sido denunciado previamente en otro contexto.
También se debe contrastar esta información, buscando en medios reconocidos si el contenido ha sido confirmado. Y lo más importante que se recomienda es analizar el contexto, y preguntarse si el comportamiento mostrado en el video o audio es coherente con lo que se espera de esa figura pública.