Tecnología & Cultura Digital

IA y ética: Europa abre debate sobre las reglas, pero ¿Quién controlará a los reguladores?

El proyecto europeo ASSAI busca fijar principios para el uso responsable de la IA en universidades y administraciones públicas. La iniciativa abre una discusión más profunda: ¿quién define qué es “ético” cuando la tecnología empieza a influir en cómo se enseña y cómo se gobierna?

2026-03-21

Por Norma Lezcano - revistaeyn.com

Europa acaba de abrir otro frente en la carrera por ordenar la inteligencia artificial. Esta vez, el foco está en dos territorios especialmente sensibles: la educación superior y las políticas públicas.

Desde Logroño (España), el proyecto ASSAI —una iniciativa europea con participación de universidades, organismos públicos y socios tecnológicos— se propone diseñar un código ético para el uso de la IA generativa en aulas, procesos de evaluación y marcos regulatorios de la administración.

La IA está cambiando las búsquedas en internet ¿Cómo deben adaptarse las empresas?

La noticia, difundida por EFE, deja una lectura inmediata: Europa quiere reglas antes de que la IA corra más rápido que las instituciones.

Pero también tiene otra, menos obvia y bastante más interesante: quién va a definir la ética de esa regulación. Porque cuando la discusión pasa de la tecnología al “uso correcto” de la tecnología, lo que entra en juego ya no es solo eficiencia o innovación. Entra una visión del poder.

Qué es ASSAI y por qué aparece ahora

ASSAI —sigla en inglés de AI-driven Assessment in Education: Shaping Policies for Responsible and Ethical Implementation— es un proyecto financiado por el programa Erasmus+ Forward Looking y liderado por la Universidad Internacional de La Rioja (UNIR). Reúne a ocho socios de cinco países y trabajará durante tres años en un marco para orientar el uso “responsable y ético” de la IA en educación superior y en el diseño de políticas públicas.

No llega en el vacío. Europa lleva tiempo construyendo una arquitectura regulatoria para la IA. La AI Act de la Unión Europea entró en vigor el 1 de agosto de 2024 y empezó a aplicar parte de sus obligaciones desde el 2 de febrero de 2025; su implementación general culminará el 2 de agosto de 2026.

En paralelo, el Consejo de Europa abrió a firma en septiembre de 2024 la primera convención internacional jurídicamente vinculante sobre inteligencia artificial, con eje en derechos humanos, democracia y Estado de derecho.

Traducido para América Latina: ASSAI no es una experiencia académica aislada, sino una pieza más de una estrategia europea para fijar estándares sobre cómo debe usarse la IA en ámbitos donde hay derechos, decisiones y confianza pública en juego.

La ética ya está sobre la mesa

Ahora, la variable que hay que despejar en la ecuación es “quién la define”. La palabra “ética” suele entrar a estas conversaciones con una ventaja injusta: suena tan correcta que casi nadie se atreve a discutirla.

Pero en el mundo real, la ética no baja del cielo ni viene preinstalada en un algoritmo. Se redacta, se interpreta, se prioriza. Y, sobre todo, se institucionaliza.

Val Kilmer 'resucita' con IA para aparecer en su primera película póstuma

Eso importa porque un código ético no solo pone límites a una herramienta. También fija criterios sobre qué riesgos son aceptables, qué sesgos resultan intolerables, qué grado de supervisión humana será obligatorio y qué responsabilidades deberán asumir universidades, funcionarios o desarrolladores.

Dicho de otro modo: regular la IA también es regular una idea de lo aceptable.

Y ahí aparece la pregunta que vuelve más interesante al proyecto europeo: si habrá un código para vigilar el uso ético de la IA, ¿quién vigilará a quienes escriban ese código?

En educación, la discusión no es solo tecnológica

Europa parte de una premisa razonable: la IA generativa ya entró en las aulas y no saldrá de ellas. La cuestión, entonces, no es prohibirla, sino decidir cómo convivir con ella sin que el aprendizaje quede reducido a automatización elegante.

La propia Comisión Europea viene reforzando esa línea. El 5 de marzo de 2026 actualizó sus guías para educadores sobre el uso ético de IA y datos en enseñanza, insistiendo en la alfabetización crítica, la supervisión humana y el cumplimiento normativo.

El problema es que, cuando la IA empieza a responder, resumir, redactar, sugerir y hasta evaluar, la gran pregunta deja de ser si la herramienta funciona. La pregunta pasa a ser qué músculo humano deja de ejercitarse.

Porque el riesgo no es solo que la IA se equivoque. También es que estudiantes, docentes e instituciones se acostumbren a delegar en ella una parte creciente del juicio. Y una educación que pierde pensamiento crítico en nombre de la eficiencia gana velocidad, sí, pero puede perder criterio.

En políticas públicas, el asunto escala

Si en educación ya hay bastante en juego, en la administración pública el tema sube de temperatura. Allí la IA puede intervenir en tareas de análisis, clasificación, priorización, asignación y apoyo a decisiones que afectan directamente a ciudadanos.

Eso explica por qué el Consejo de Europa insiste en que la gobernanza de la IA debe alinearse con derechos humanos, transparencia, responsabilidad, no discriminación y supervisión efectiva.

La razón es sencilla: cuando la IA entra al Estado, deja de ser solo una herramienta de productividad. Puede convertirse en una capa adicional de opacidad si no hay trazabilidad, controles claros y responsabilidades bien asignadas. Y una IA “ética” dentro del sector público será tan confiable como lo sea la institución que la implementa.

El riesgo de convertir ética en burocracia sofisticada

Ahí está, probablemente, el punto más delicado. Europa quiere adelantarse al problema y eso, en principio, es una buena noticia. Pero también corre un riesgo clásico de toda regulación tecnológica: confundir ética con procedimiento.

Un código puede estar lleno de palabras impecables —transparencia, responsabilidad, inclusión, supervisión humana— y aun así resultar insuficiente si no responde preguntas básicas: quién define esos conceptos, con qué legitimidad, con qué diversidad de miradas y bajo qué mecanismos de auditoría.

Porque, al final, ningún código ético es neutral. Siempre expresa una forma de ordenar prioridades, de distribuir poder y de decidir qué se protege primero.

Discusión con impacto fuera de Europa

Aunque el debate se esté dando en el ecosistema regulatorio europeo, sería un error mirarlo desde América Latina como si fuera un asunto lejano. Europa suele funcionar como laboratorio normativo: lo que regula, clasifica y estandariza termina muchas veces irradiando hacia universidades, empresas tecnológicas, gobiernos y marcos de cumplimiento en otras regiones.

Por eso, ASSAI vale más por la pregunta que instala que por el documento que llegue a producir dentro de tres años. El proyecto pone sobre la mesa una tensión que recién empieza: no solo cómo ponerle reglas a la IA, sino quién tendrá autoridad para decir qué cuenta como un uso correcto, legítimo y ético de esa tecnología.

En esa discusión, la máquina no será el único actor bajo examen. También deberían estarlo quienes escriban el manual.

Con información de: unir.net / digital-strategy.ec.europa.eu / coe.int / education.ec.europa.eu / EFE.

Norma Lezcano
Norma Lezcano
Editora adjunta

Periodista especializada en economía y negocios. Consultora experta en Comunicación y Gestión del Cambio en Entornos Digitales. Lideró equipos en medios gráficos de Argentina y Centroamérica. Se desempeñó como investigadora para medios de México. A lo largo de su carrera, trabajó en La Voz del Interior y Perfil Córdoba (Argentina); Expansión, CNNExpansión y BizNews (México), entre otros. También ha sido docente universitaria en temas de Gestión de Contenidos Digitales. Su formación incluye becas y especializaciones en instituciones como el Tecnológico de Monterrey, la Universidad de Columbia y la Fundación Reuters.

12 ejemplares al año por $75

SUSCRIBIRSE