La inteligencia artificial predictiva en la educación superior promete éxito a los estudiantes, pero los expertos advierten que está alimentando sesgos, violando la privacidad y superando a la gobernanza.

por Emily Barnes

El aprendizaje automático (ML) ha surgido como una herramienta transformadora en la educación superior que ofrece a las instituciones la capacidad de analizar grandes cantidades de datos de estudiantes, predecir resultados académicos y personalizar las experiencias de aprendizaje.

Los beneficios potenciales son enormes: intervención temprana para estudiantes en riesgo, optimización de la asignación de recursos y mejora de la toma de decisiones institucionales. Sin embargo, a medida que los sistemas de aprendizaje automático (ML) se integran cada vez más en la educación superior, no pueden ignorarse las implicaciones éticas de estas tecnologías. Los problemas relacionados con la privacidad de los datos, el sesgo algorítmico, la transparencia y el consentimiento informado plantean desafíos importantes que deben abordarse para garantizar una implementación responsable de la IA.

En mi reciente investigación , coescrita con el Dr. James Hutson y la Dra. Karriem Perry, examinamos los riesgos éticos asociados con el análisis predictivo en la educación superior y propusimos estrategias para mitigarlos. Nuestros hallazgos reiteraron la importancia de equilibrar la innovación tecnológica con la responsabilidad ética para garantizar que las herramientas de aprendizaje automático (ML) brinden un servicio equitativo a los estudiantes y protejan sus derechos.

El desafío que tenemos por delante no es si implementar o no una IA más avanzada, sino formular prácticas clave y aplicar medidas de cumplimiento que garanticen que estas tecnologías funcionen de manera ética y transparente y no refuercen las desigualdades sistémicas.


El dilema ético: equilibrar la innovación y la responsabilidad

Las instituciones de educación superior dependen cada vez más del análisis predictivo basado en el aprendizaje automático para identificar a los estudiantes con dificultades, personalizar las intervenciones y agilizar los procesos administrativos.

Si bien estas innovaciones ofrecen el potencial de mejorar el éxito estudiantil y la eficiencia operativa, también plantean inquietudes éticas. Si no se abordan, los problemas relacionados con el sesgo algorítmico, la privacidad de los datos y la transparencia podrían erosionar la confianza en la toma de decisiones basada en IA y profundizar las desigualdades educativas.

Sesgo algorítmico: refuerza las desigualdades en lugar de reducirlas

Uno de los riesgos éticos más significativos del aprendizaje automático en la educación superior es el sesgo algorítmico . Los modelos predictivos a menudo heredan y amplifican las desigualdades sociales existentes, arraigadas en datos históricos, lo que influye en las decisiones institucionales de maneras que perjudican a los estudiantes marginados. En lugar de mitigar las disparidades, estos sesgos pueden reforzarlas, perpetuando ciclos de exclusión en las tasas de éxito académico y el apoyo institucional.

Por ejemplo, un estudio de 2024 publicado en AERA Open reveló que los algoritmos predictivos, ampliamente utilizados en las universidades, tienden a subestimar el potencial de éxito de los estudiantes negros e hispanos, mientras que sobreestiman el de los estudiantes blancos y asiáticos. Este sesgo sistemático distorsiona las intervenciones de apoyo académico y crea el riesgo de profecías autocumplidas, donde los estudiantes identificados como de “alto riesgo” reciben menos oportunidades, recursos reducidos o un mayor escrutinio. ¿El resultado? Los modelos de aprendizaje automático diseñados para ayudar a los estudiantes pueden, en cambio, ampliar las brechas educativas existentes, contradiciendo la misión fundamental de la educación superior: crear caminos equitativos para que todos los estudiantes tengan éxito.

Privacidad de datos: una cuestión de confianza y cumplimiento

Garantizar la privacidad de los datos de los estudiantes en la educación superior es cada vez más complejo a medida que se acelera la adopción de la IA. La Ley de Derechos Educativos y Privacidad Familiar (FERPA) exige que las instituciones protejan los registros de los estudiantes, incluyendo calificaciones, expedientes académicos e historial disciplinario. Sin embargo, los desafíos de cumplimiento aumentan a medida que la analítica basada en IA se integra cada vez más en los sistemas académicos. En 2024, Gartner descubrió que el 93 % de las personas están preocupadas por la seguridad de su información personal en línea, y los estudiantes no son la excepción.

Estas preocupaciones no son infundadas. En 2024, la Fiscal General del Estado de Nueva York, Letitia James, y el Departamento de Educación del Estado de Nueva York (NYSED) llegaron a un acuerdo de $750,000 con College Board por las acusaciones de que este compartió y vendió información personal de estudiantes, violando las leyes estatales de privacidad. Además, un estudio de 2023 de la Electronic Frontier Foundation reveló que el 68% de los estudiantes encuestados desconocían que los datos de su sistema de gestión del aprendizaje (LMS) se estaban utilizando para predecir el rendimiento académico, lo que plantea serias dudas sobre la transparencia y el consentimiento informado.

La creciente tensión entre la adopción de la IA y la seguridad de los datos se pone aún más de relieve en un informe de 2024 elaborado por la empresa de tecnología para la educación superior Ellucian. La adopción de la IA en las universidades se duplicó con creces durante el último año, pero la preocupación por sus riesgos ha aumentado con la misma rapidez. Entre 445 profesores y administradores encuestados de 330 instituciones, la preocupación por el sesgo en los modelos de IA aumentó del 36 % en 2023 al 49 % en 2024, mientras que la preocupación por la privacidad y la seguridad de los datos se disparó del 50 % al 59 % en el mismo período.

Estos hallazgos revelan una paradoja preocupante: si bien las instituciones recurren cada vez más a la IA para mejorar el aprendizaje y optimizar sus operaciones, al mismo tiempo se enfrentan a riesgos imprevistos, como violaciones de la privacidad de datos, falta de transparencia y la posibilidad de sesgo. Sin una gobernanza clara, garantías éticas y medidas de cumplimiento sólidas, las mismas tecnologías diseñadas para optimizar la educación podrían erosionar la confianza de los estudiantes y exponer a las instituciones a riesgos legales y reputacionales.

Falta de transparencia: el problema de la «caja negra»

Más allá de la privacidad y los sesgos, una preocupación ética importante es la falta de interpretabilidad en la toma de decisiones basada en el aprendizaje automático. Muchos modelos predictivos funcionan como algoritmos de caja negra , proporcionando clasificaciones y evaluaciones de riesgos sin explicaciones claras sobre cómo se toman las decisiones. Cuando un modelo de IA opaco etiqueta a los estudiantes como “en riesgo”, ellos y sus asesores académicos se quedan sin recursos para comprender o cuestionar estas determinaciones.

Consideraciones éticas clave en el aprendizaje automático para la educación superior

El uso del aprendizaje automático en la educación superior debe regirse por imperativos éticos que prioricen la equidad, la rendición de cuentas y la autonomía estudiantil. Nuestro estudio identificó cinco áreas clave que requieren atención urgente:

  • Privacidad y consentimiento de datos: Los estudiantes deben tener control sobre sus datos, con políticas claras sobre cómo los sistemas de aprendizaje automático (ML) utilizan y almacenan su información. Las instituciones deben obtener el consentimiento explícito antes de utilizar los datos de los estudiantes para análisis predictivos.
  • Equidad algorítmica y mitigación de sesgos: Las instituciones deben garantizar que los modelos de aprendizaje automático no refuercen las disparidades existentes. El desarrollo de modelos debe incluir auditorías de sesgos y datos de entrenamiento que tengan en cuenta la equidad.
  • Transparencia y explicabilidad: Las decisiones basadas en aprendizaje automático deben ser interpretables y explicables para estudiantes, profesorado y administradores. Si un algoritmo etiqueta a un estudiante como de “alto riesgo”, las instituciones deben poder justificar la clasificación.
  • Responsabilidad y gobernanza ética: las universidades deben establecer comités de ética de IA para supervisar la implementación de ML, garantizando el cumplimiento de los marcos éticos y legales como FERPA y el  Reglamento General de Protección de Datos (GDPR) .
  • Supervisión e intervención humanas: Los modelos predictivos deben apoyar, no reemplazar, la toma de decisiones humana. El profesorado y los asesores deben participar en la revisión de la información generada por el aprendizaje automático para evitar una dependencia excesiva de las decisiones automatizadas.

Aplicaciones en el mundo real: Implementación ética y responsable de IA en la educación superior

La integración del aprendizaje automático en la educación superior ya está mejorando la retención estudiantil, la asesoría académica y la distribución de recursos. Para maximizar los beneficios y, al mismo tiempo, mantener la integridad ética, las instituciones deben centrarse en estrategias proactivas que garanticen que los sistemas de IA sean justos, transparentes y centrados en el estudiante.

  • Mejora de los modelos predictivos del rendimiento estudiantil
    • Utilice conjuntos de datos diversos y representativos para mejorar la precisión de la predicción y minimizar el sesgo.
    • Implementar la supervisión e intervención humanas para garantizar que los análisis predictivos sirvan como herramientas de apoyo en lugar de como tomadores de decisiones definitivos.
    • Brindar a los estudiantes acceso a sus conocimientos sobre datos, permitiéndoles comprender y responder a los riesgos identificados en colaboración con asesores académicos.
  • Fortalecimiento de las decisiones de admisión y ayuda financiera basadas en IA
    • Entrene modelos ML en conjuntos de datos equitativos e inclusivos que tengan en cuenta la diversidad socioeconómica y demográfica.
    • Incorporar múltiples criterios de evaluación más allá de las tendencias históricas para garantizar un enfoque holístico a la evaluación de los solicitantes.
    • Realizar auditorías de imparcialidad periódicas para evaluar y mitigar los sesgos, garantizando que las decisiones de ayuda financiera y admisión no favorezcan ni desfavorezcan desproporcionadamente a ningún grupo.
  • Optimización de sistemas de asesoramiento estudiantil basados ​​en IA
    • Integre el asesoramiento de IA con la tutoría humana y el apoyo del personal docente para equilibrar la eficiencia con el compromiso personal.
    • Diseñe herramientas de asesoramiento impulsadas por inteligencia artificial con funciones de personalización, que permitan a los estudiantes brindar información sobre sus objetivos personales, académicos y profesionales.
    • Monitorear y refinar continuamente las recomendaciones de IA utilizando los comentarios de los estudiantes y los resultados académicos para garantizar la precisión y la eficacia.

Desarrollar una IA ética en la educación superior: un enfoque proactivo

Para garantizar la adopción responsable de la IA, las instituciones de educación superior deben tomar medidas deliberadas para integrar prácticas de IA éticas, transparentes y centradas en el estudiante. Nuestro estudio recomienda las siguientes acciones:

  • Desarrollar marcos éticos de IA: establecer pautas institucionales claras que definan la recopilación de datos aceptable, la evaluación del modelo de AA y la protección de los derechos de los estudiantes.
  • Implementar auditorías de sesgos y pruebas de imparcialidad: realizar auditorías periódicas de los sistemas de aprendizaje automático para identificar y corregir sesgos, garantizando así un tratamiento equitativo de todos los estudiantes.
  • Brindar capacitación sobre ética de la IA a profesores y administradores: educar a los profesores, al personal y a los tomadores de decisiones sobre las implicaciones éticas de la IA, preparándolos para tomar decisiones informadas sobre la adopción de tecnología.
  • Fortalecer los derechos de los estudiantes y las iniciativas de transparencia: Adoptar prácticas de IA explicables que permitan a los estudiantes comprender y desafiar las decisiones basadas en ML que afectan su trayectoria académica.
  • Fomentar la colaboración interdisciplinaria: involucrar a expertos de la informática, la ética, la educación y el derecho en la gobernanza de la IA para desarrollar políticas integrales que equilibren la innovación con la responsabilidad.

Priorizar estas estrategias éticas de IA puede ayudar a las instituciones a aprovechar el poder del aprendizaje automático, apoyar el éxito de los estudiantes y defender la equidad, la responsabilidad y la transparencia.

La IA ética como responsabilidad, no como opción

La integración del aprendizaje automático en la educación superior presenta enormes oportunidades y profundos desafíos éticos. Si bien el análisis predictivo puede contribuir a mejorar los resultados estudiantiles y la eficiencia institucional, su uso debe gestionarse con cuidado para evitar sesgos, proteger la privacidad y mantener la transparencia.

A medida que la toma de decisiones basada en IA continúa moldeando el panorama educativo, las instituciones no deben priorizar la eficiencia sobre la responsabilidad ética. Nuestro estudio reveló que el futuro del aprendizaje automático en la educación superior depende no solo de los avances tecnológicos, sino también de nuestra capacidad para utilizar estas herramientas de forma responsable y equitativa.

Para quienes estén interesados ​​en profundizar en este tema, nuestro artículo de investigación completo ofrece un análisis profundo y recomendaciones prácticas para la adopción ética del aprendizaje automático en la educación superior. Invitamos a educadores, administradores e investigadores de IA a unirse a la conversación y a defender una IA que proteja y beneficie a todos los estudiantes de forma justa.

Acerca del autor

Emily Barnes

La Dra. Emily Barnes es una líder e investigadora con más de 15 años de experiencia en educación superior. Se centra en el uso de la tecnología, la IA y el aprendizaje automático para innovar en la educación y apoyar a las mujeres en las áreas de ciencia, tecnología, ingeniería y matemáticas (STEM) y liderazgo. Aporta su experiencia mediante la docencia y el desarrollo de planes de estudio relacionados. Su investigación académica y sus estrategias operativas se basan en su formación académica: un doctorado en inteligencia artificial de la Universidad Tecnológica Capitol, un doctorado en educación (Ed.D.) en administración de la educación superior de la Universidad de Maryville, una maestría en LIS de la Universidad de Indiana, Indianápolis, y una licenciatura en humanidades y filosofía de la Universidad de Indiana.

Fuente: https://www.vktr.com/ai-ethics-law-risk/higher-educations-ai-dilemma-powerful-tools-dangerous-tradeoffs/

Deja una respuesta