Fiesta de ofertas de primavera

Prime Big Deal Days

Reseñas y algo más...

Normativa sobre el uso en educación de la inteligencia artificial: principios, obligaciones y buenas prácticas

 

La inteligencia artificial (IA) está transformando la educación, desde la personalización del aprendizaje hasta la automatización de procesos académicos. Sin embargo, su avance plantea dilemas éticos, legales y pedagógicos que requieren atención urgente:

 

¿La herramienta procesa datos personales sensibles? ¿Cómo se protege la privacidad del estudiantado? ¿Existe evaluación de impacto en los derechos del niño? ¿Se documentan sesgos y medidas de mitigación? ¿Quién es responsable de los errores o sesgos algorítmicos? ¿Está regulada su aplicación en contextos escolares? ¿La institución ofrece formación a los docentes?

 

Para responder a estas preguntas, diversos organismos internacionales han establecido principios y marcos normativos que orientan el uso responsable de la IA en entornos educativos.


En esta reseña, con el aporte de la misma herramienta, sintetizamos las directrices clave de la UNESCO, la Unión Europea, la OCDE y UNICEF. Destacamos, además, las obligaciones éticas y legales que deben asumir docentes e instituciones.


Cuál es la normativa sobre el uso de la IA

 Normativa internacional sobre inteligencia artificial en educación


UNESCO[i]: Ética global para una IA centrada en las personas.

Se reconoce la educación como un ámbito estratégico para proteger derechos y desarrollar competencias críticas en el uso de la IA. Sus principios -dignidad humana, protección de menores, alfabetización digital, transparencia, equidad e inclusión- constituyen un marco ético internacional no vinculante, pero altamente influyente, para las políticas y planes formativos diseñadas por los sistemas educativos.


Ejemplo práctico:

Un docente verifica que la plataforma de aprendizaje personalizada, basada en la IA, sea accesible para estudiantes con discapacidades (ej. que incluya opciones de texto a voz para dificultades visuales) y fomente la participación de todos, sin importar su contexto socioeconómico.

 

Unión Europea (UE)[ii]: Regulación legal de sistemas de alto riesgo.

La UE clasifica como alto riesgo a los sistemas de IA aplicados en educación, que afectan decisiones sobre admisión, evaluación o seguimiento del alumnado. Por lo tanto, exige:

ü  Evaluaciones de impacto

ü  Documentación técnica

ü  Mitigación de sesgos

ü  Supervisión humana continua

Esto redefine la responsabilidad de proveedores y autoridades educativas, que deben garantizar plataformas transparentes, seguras y auditables.


Ejemplo práctico:

El docente revisa las calificaciones generadas por una herramienta de corrección automática. Si detecta que penaliza sistemáticamente ciertos estilos de redacción, interviene para ajustar las notas y reporta el sesgo al proveedor, cumpliendo con su deber de supervisión.

 

OCDE[iii]: Gobernanza responsable y formación docente.

Promueve una IA confiable basada en derechos humanos, transparencia, rendición de cuentas y buena gobernanza. Sus recomendaciones operativas sirven de puente entre la ética (UNESCO) y la regulación (UE), orientando a los gobiernos en:

ü  Evaluaciones de impacto

ü  Capacitación docente

ü  Coordinación interinstitucional


Ejemplo práctico:

Una escuela implementa un programa de formación docente sobre el uso ético de la IA en el aula.  Aprenden a identificar impactos en el aprendizaje y el bienestar de los estudiantes y a ajustar el uso de herramientas de monitoreo si generan estrés o exclusión.

 

UNICEF[iv]: Protección de la infancia y derechos digitales.

Centra su enfoque en los derechos del niño, estableciendo estándares sobre:

ü  Consentimiento informado

ü  Privacidad y seguridad de datos

ü  Participación infantil

ü  Salvaguardas específicas para menores

Estas directrices refuerzan la necesidad de normativas escolares que prioricen el bienestar y la protección de niñas, niños y adolescentes.


Ejemplo práctico:

Antes de implementar una aplicación de IA que recopila datos del aprendizaje de los estudiantes, el docente solicita el consentimiento informado de los padres, explica el uso de los datos y verifica que la herramienta cumpla con estándares de cifrado y seguridad.

 

Obligaciones clave para docentes e instituciones. A partir de estas normativas, se delinean responsabilidades concretas:

·       Protección de datos personales

·       Evaluación de impacto en los derechos del niño

·       Mitigación de sesgos algorítmicos

·       Promoción de la inclusión y equidad

·       Supervisión humana del proceso

·       Capacitación en alfabetización digital y ética de la IA

 

 Destacado de la normativa sobre la IA en educación

Cuál es la normativa sobre el uso de la IA

 

Descarga la checklist en pdf y comparte tu experiencia sobre cómo tu institución está adaptando la IA de forma ética y responsable.

 

Hacia un nuevo modelo educativo con IA responsable

Las directrices éticas y legales sobre el uso de la IA en educación están configurando un nuevo modelo basado en la responsabilidad, la transparencia y la equidad. La IA ya no se concibe solo como una herramienta tecnológica, sino como un agente educativo que influye en la personalización del aprendizaje y en la formación de valores.

Bajo principios como la supervisión humana, la protección de datos, la equidad algorítmica y el respeto a los derechos digitales, las políticas actuales buscan que la IA potencie la enseñanza sin reemplazar el juicio pedagógico ni vulnerar la autonomía del estudiante.

Así, las normativas impulsadas por UNESCO, la UE, la OCDE y UNICEF promueven un marco de innovación educativa sostenible, centrado en el bienestar, la inclusión y la formación crítica de los estudiantes frente a los riesgos de sesgo y automatización.

 

En conclusión, en este nuevo modelo, la educación se concibe como un espacio de colaboración entre humanos y máquinas éticamente alineadas, donde la IA amplía las capacidades de los docentes, facilita la inclusión y promueve aprendizajes adaptativos. Y estos, actúan en el marco de las normativas de la UNESCO, la UE, la OCDE y UNICEF.


Imagen generada para esta publicación por ChatGPT

[i] UNESCO. (2021). Recommendation on the Ethics of Artificial Intelligence. UNESCO. (UNESCO)

[ii] European Union. Regulation on artificial intelligence (AI Act). Texto y Anexo III — High-risk AI systems (education). EUR-Lex / AI Act resources. (EUR-Lex)

[iii] OECD. OECD AI Principles & Policy Observatory. (2019; actualizaciones 2024). (OECD)

[iv] UNICEF Innocenti. (2021). Policy Guidance on AI for Children (AI for Children). (UNICEF)

 

 

 

 

 

No hay comentarios: