Por revistaeyn.com
La conversación global sobre la protección de la información adquiere una nueva dimensión en la actualidad. Esto porque el avance acelerado de la inteligencia artificial (IA), especialmente en aplicaciones como chatbots, copilotos empresariales y sistemas avanzados de analítica, está transformando la manera en que las organizaciones recopilan, procesan y utilizan los datos, señalan varias especialistas de SAS.
Para SAS, hoy, las preocupaciones ya no se limitan únicamente a evitar filtraciones o ciberataques. Sino que la IA introduce riesgos menos visibles, pero igualmente críticos. Entre ellos, el uso prolongado de datos más allá de su propósito original, la inferencia de información sensible que nunca fue compartida explícitamente y la dificultad de explicar cómo los modelos generan resultados y toman decisiones.
De acuerdo con Marinela Profi, Global AI & Generative AI Market Strategy Lead de SAS, la rápida adopción de soluciones de IA en múltiples industrias está revelando nuevos dilemas que van más allá de los modelos tradicionales de protección de datos.
“A medida que sectores como los servicios financieros, el comercio minorista y la banca se apresuran a implementar chatbots impulsados por IA y copilotos empresariales, los desafíos de privacidad, transparencia y confianza emergen con la misma rapidez. Estos sistemas pueden filtrar inadvertidamente datos sensibles, inferir información que nunca fue compartida explícitamente o difuminar la línea entre el uso aceptable de datos privados y públicos”, explicó Profi.
ARQUITECTURA DE PRIVACIDAD
La experta advierte que, aunque las organizaciones han utilizado históricamente herramientas como los datos sintéticos para mitigar riesgos de privacidad, la IA plantea un reto distinto. Este es entender cómo los modelos retienen, infieren y exponen información durante las interacciones diarias, incluso a partir de señales emocionales o contextuales.
Ante este escenario, SAS impulsa la necesidad de una arquitectura de privacidad moderna y basada en derechos, que incorpore transparencia, gobernanza y supervisión humana en los flujos de trabajo de la IA. Esto con el objetivo de prevenir exposiciones involuntarias de datos, riesgos de inferencia y la erosión de la confianza de los usuarios.
Por su parte, Manisha Khanna, Global Product Marketing Lead for AI & Analytics de SAS, mencionó que la privacidad de los datos ha evolucionado significativamente en los últimos años. Tradicionalmente, el foco estuvo en el acceso. Específicamente, en quién puede recopilar los datos, quién puede utilizarlos y cómo se protegen. Sin embargo, la IA está poniendo en jaque ese enfoque al extender la vida útil de los datos mucho más allá de lo originalmente previsto.
“La IA plantea una pregunta que muchas organizaciones aún no han respondido: ¿cuándo caducan los datos? Muchos sistemas de IA siguen tomando decisiones basadas en información que, en la práctica, ya debería haber expirado”, explicó Khanna.
De acuerdo con la vocera, este problema no responde necesariamente a una brecha de seguridad o a un ataque cibernético, sino a un punto ciego de gobernanza. Añadió que la mayoría de los sistemas de IA empresarial fueron diseñados para retener datos, no para reconocer cuándo estos han dejado de ser relevantes, apropiados o legítimos para su uso.
“A medida que la IA se integra en decisiones críticas del negocio, las organizaciones deben replantearse la gestión del ciclo de vida de los datos. Una IA responsable no depende solo de proteger la información, sino de comprender cuándo ha perdido su contexto, su legitimidad o su lugar dentro del sistema”, enfatizó Khanna.