Por revistaeyn.com
La inteligencia artificial (IA) sigue en pleno auge y su crecimiento parecería no tener un techo definido. Sin embargo, en medio de esta vorágine, expertos enfatizan la importancia de prestar atención y enfocarse en dos aspectos clave: la seguridad y la privacidad.
A continuación, ESET explora 7 hábitos de seguridad y privacidad para disfrutar de la IA, sin exponer datos ni información privada:
1 - Configurar correctamente la seguridad y privacidad: Antes de compartir información en cualquier herramienta de Inteligencia Artificial, es fundamental conocer todas las configuraciones de privacidad para entender qué datos se almacenan, si se comparten con terceros y cómo pueden ser utilizados en el futuro. Además, se recomienda revisar periódicamente términos y políticas de la aplicación, ante posibles cambios o nuevas opciones de seguridad y privacidad.
2 - Evitar compartir datos personales y sensibles: Una de las medidas más importantes es no ingresar proactivamente información personal, como por ejemplo contraseñas o datos bancarios, en cualquier chat de IA. Estas herramientas pueden procesar dicha información e incluso utilizarla para entrenar futuros modelos, por lo cual es necesario minimizar el riesgo de que esos datos sean almacenados y expuestos en el futuro.
3 - Proteger las cuentas: Para proteger una cuenta de ChatGPT o de cualquier otra herramienta de Inteligencia Artificial, es importante utilizar contraseñas robustas y, de ser posible, también agregar una capa de protección extra activando el doble factor de autenticación (2FA) cuando estuviera disponible.
4 - Desactivar el historial de los chats: Si bien las herramientas de Inteligencia Artificial habitualmente mantienen almacenados los historiales de conversaciones, existen algunas que permiten elegir y desactivar esta opción. Entonces, si se busca tener mayor privacidad, se aconseja explorar esta alternativa. De esta manera, se estará a salvo en caso de alguna posible filtración, como la ocurrida en 2023 con ChatGPT.
5 - No confiar completamente en las respuestas recibidas: Es importante remarcar que los modelos de IA pueden entregar información certera, pero también generar respuestas incorrectas o sesgadas. Para garantizar la seguridad especialmente en temas sensibles como legales, financieros o médicos siempre se debe verificar la información obtenida con fuentes oficiales
6 - Prestar atención a los enlaces y archivos generados: Algunas herramientas de IA pueden ser manipuladas mediante prompt injection o el envenenamiento de datos para generar enlaces, archivos o códigos con vulnerabilidades o contenido malicioso. Además, es posible que una IA incluya enlaces maliciosos que provienen de fuentes indexadas, que podrían no haber sido verificadas adecuadamente.
En estos casos, un cibercriminal podría aprovechar estas vulnerabilidades para redirigir a un usuario a un sitio web falso o fraudulento con el fin de realizar ataques de phishing o distribuir malware. La solución, es verificar la dirección compartida por la IA antes de hacer clic y analizar los archivos generados con una solución de seguridad antes de descargarlos.
7 - Tener cuidado con la instalación de extensiones y Plugins: Existen una infinidad de extensiones y complementos para el navegador que ofrecen funcionalidades basadas en IA. También plugins para gestores de contenido y otras plataformas. La descarga de fuentes no confiables puede aumentar el riesgo de infección con programas maliciosos.