El pasado 29 de enero, en el marco del Insights for the Future of Education (IFE Conference), se llevó a cabo un panel fundamental para el futuro del aprendizaje: "Ética, sesgo y responsabilidad en la IA educativa". Moderado por Irving Hidrogo, Director de Inteligencia Artificial Educativa en el Tecnológico de Monterrey, el encuentro reunió a expertos internacionales para debatir cómo la inteligencia artificial (IA) está transformando las aulas y qué límites debemos establecer
Uno de los primeros puntos abordados fue si la IA ya está tomando decisiones educativas. Francisco José García Peñalvo, catedrático de Universidad del Departamento de Informática y Automática en la Universidad de Salamanca (USAL), señaló que, aunque la tecnología tiene el potencial de establecer métricas de admisión o evaluación, afortunadamente las instituciones aún no delegan estas decisiones de forma autónoma.
La premisa central fue clara: la IA no debe sustituir al docente. Si eliminamos al profesor de la ecuación, se pierde la humanidad en la enseñanza. Miguel Morales-Chan, especialista en Inteligencia Artificial Generativa y Transformación Digital con enfoque en los sectores educativo y empresarial, destacó que la IA es una herramienta para potenciar la capacidad del docente, especialmente en entornos masivos como los MOOCs (Massive Online Open Courses o Cursos Online Masivos y Abiertos), donde puede ofrecer retroalimentación que un humano solo no podría escalar, siempre bajo supervisión humana.
El panel profundizó en los peligros de una implementación ciega. Éder Villalba, Doctor en Innovación en Tecnología Educativa y Director Nacional del programa de Licenciatura en Innovación Educativa del Tecnológico de Monterrey, introdujo un concepto crítico: el desentendimiento moral, que ocurre cuando las personas dejan que los sistemas decidan y se desprenden de su responsabilidad, haciendo que el humano termine trabajando para el sistema y no al revés.
Sesgos y opacidad: Los modelos de IA suelen ser "sistemas cerrados" cuyos datos de entrenamiento y reglas de juego no siempre son transparentes para las instituciones.
La trampa de la personalización: Aunque la IA promete personalizar el aprendizaje, existe el riesgo de que termine encasillando o etiquetando a los estudiantes en una "burbuja" basada en datos históricos, limitando su autonomía.
Dataísmo: Se citó a Yuval Noah Harari para advertir sobre la fe ciega en los datos como autoridad máxima, lo que podría desplazar el juicio humano.
Al abordar el tema sobre quién debe rendir cuentas cuando la IA se equivoca, la respuesta fue compartida. Por un lado, la institución debe proveer marcos éticos y regulatorios; por otro, el usuario debe ser responsable de cómo emplea la herramienta.
Miguel Morales-Chan fue enfático en señalar "líneas rojas": procesos como la admisión de estudiantes o la aplicación de sanciones y castigos no deberían delegarse nunca de forma automática a un algoritmo.
El Tecnológico de Monterrey tuvo una presencia protagónica en este diálogo, alineada con su Plan Estratégico 2030 que prioriza el aprovechamiento de la IA para mantener la vanguardia educativa.
La institución ha adoptado una postura de transparencia y honestidad académica. Éder Villalba explicó que en el TEC se promueve que cada unidad de formación declare explícitamente si se permite el uso de IA y cómo debe reportarse. Además, se destacó que la institución ha optado por deshabilitar herramientas de detección de IA por su baja fiabilidad, prefiriendo enfocarse en la integridad y el pensamiento crítico de los estudiantes.
Este panel reafirmó el compromiso de la Escuela de Humanidades y Educación y del equipo de IA Educativa del Tec de Monterrey por liderar una adopción tecnológica que sea, ante todo, ética, equitativa y centrada en la formación humana.
Conoce los programas de Posgrado de la Escuela de Humanidades y Educación, y prepárate para impulsar tu liderazgo ético e innovación creativa, y transformar la educación y sociedad con una visión crítica y humana.