Educación y tecnologías

La inteligencia artificial ya ha entrado en la escuela, ¿ahora qué?

Claves para el uso de la inteligencia artificial en la escuela

Herramientas como ChatGPT irrumpen en el aula vía alumnado: ya se presentan problemas resueltos por una máquina

A1-161927150.jpg

A1-161927150.jpg

Helena López

Helena López

Por qué confiar en El PeriódicoPor qué confiar en El Periódico Por qué confiar en El Periódico

Que cualquier tecnología suficientemente avanzada es indistinguible de la magia no es una idea nueva. La dejó escrita Arthur C. Clarke hace ya 60 años y hoy por hoy es tan vigente que pone los pelos de punta. Avanza, además, tan rápido, que se ha convertido en el enésimo dolor de cabeza del profesorado. ¿Cómo saber que ese problema lo ha resuelto un alumno y no una máquina? La irrupción de la inteligencia artificial (IA) en las aulas, con ChatGPT a la cabeza, es hoy una de las patatas calientes en el agitado mundo educativo, principalmente por el hecho de que ha entrado en los aulas vía alumnado.

"Ya hay estudiantes que resuelven problemas con programas informáticos, y esa es la gran angustia de padres y docentes. Es algo que tenemos que asumir y afrontar", indica la doctora Montse Guitert, profesora de Ciencias de la Educación de la UOC; quien tiene claro que eso tiene que suponer un cambio de paradigma, como mínimo en los métodos de evaluación. "No podemos evaluar solo los resultados, tenemos que saber cómo han llegado nuestros alumnos hasta ahí, y ellos tienen que poder explicárnoslo y explicárselo a sus compañeros", apunta. Avanzar hacia un aprendizaje basado en el camino que se recorre hasta llegar al resultado.

Los pedagogos defienden que frente a la IA hay que cambiar los métodos de evaluación para saber cómo ha llegado el alumno al resultado

Conscientes todos de que la inteligencia artificial es una realidad que está ahí, el reto ahora es cómo trabajarla. Guitert no es partidaria de la prohibición -algo que está pasando en algunos lugares de Estados Unidos, como en Nueva York, donde los colegios han prohibido el uso de ChatGPT por temor a que se copie-, sino de dar herramientas a los estudiantes para que hagan un buen uso de ella y le saquen el máximo partido.

Personalizar el aprendizaje

"Puede servir a la escuela, además, para personalizar el aprendizaje, tanto para los alumnos con necesidades especiales como para los que ahora se aburren en clase", añade la investigadora, quien apunta también las posibilidades que puede ofrecer la inteligencia artificial para reducir la pesada burocracia a la que están sometidos los docentes.

"Si la irrupción de Google ya supuso un debate [hoy resulta casi inverosímil, pero pasó], ahora se ha dado un paso más. Ya no se trata solo de acceder al conocimiento, se trata de generarlo", apunta Héctor Gardó, al frente de la la estrategia de equidad digital de la Fundació Bofill.

Superar la hoja en blanco

"Ante esto hay dos opciones: o nos protegemos y lo prohibimos o lo usamos como un aliado. La inteligencia artificial ofrece muchas oportunidades, por ejemplo, como apoyo para la generación de ideas. Si quieres imaginar diez títulos para un cuento, la inteligencia artificial te hace un 'brainstorming', y a partir de ahí tú eliges. Sirve para superar la hoja el blanco", ejemplifica.

"Lo que nos da la máquina es información, no conocimiento de calidad; incorpora sesgos"

"El material que te da no es finalista, es un punto de partida y es interesante. A partir de ahí tú tienes un material sobre el que trabajar", prosigue del doctor en Ciencias de la Educación.

Desnudos de criterio

Igual que Guitert, Gardó considera que estas herramientas, si no se trabajan desde los centros educativos, dejan a los alumnos, que accederán a ellas de todos modos, desnudos de criterio. Además, a ojos de Gardó, es muy probable que eso provoque que las brechas y desigualdades se aceleren. "Hay que darles un sentido crítico y orientar a los profesionales", concluye el investigador.

En el amplio apartado de riesgos, Gardó destaca que la inteligencia artificial "no es del todo inteligente". "Lo que nos da la máquina es información, no conocimiento de calidad; incorpora sesgos", zanja.

Lidón Gasull, directora de la Affac, pone otra tema sobre la mesa: "la digitalización puede estar vulnerando muchos derechos y escondiendo muchas problemáticas". A ojos de la portavoz de la federación de asociaciones de familias, no se trata de si se tiene que usar o no la inteligencia artificial, sino de cómo hacerlo y, sobre todo, si se conocen bien esos procesos.

Igual que Gardó, apunta que la inteligencia artificial "funciona por algoritmos que pueden tener sesgos que pueden tener un impacto en los niños y niñas", añade Gasull, preocupada por los derechos de la infancia y del profesorado y por las posibles consecuencias que puede tener su uso sin auditar.

¿Quién evalúa al algoritmo?

Sobre las auditorías, la directora de la Affac habla también sobre el uso de la inteligencia artificial para evaluar. "A través de los algoritmos eliminamos el sesgo del profe, de acuerdo, pero... ¿Quién evalúa al algoritmo? ¿Quién ve el sesgo del algoritmo? Es más fácil evaluar al profe que al algoritmo", plantea. Y señala también la soberanía digital. "No podemos hablar de digitalización sin hablar de soberanía digital. Controlar aquello que estamos implementando, saber que también tenemos derechos; las herramientas tienen que ser respetuosas. Los peligros que van en paralelo son muy grandes", considera.

En la misma línea se pronuncia Jesús Martín, responsable de FP en el sindicato UGT de Catalunya, que opina que se deberían crear plataformas públicas, sufragadas con fondos públicos, para que la introducción de la tecnología en el aula estuviera "totalmente controlada y ajustada a normativa", además de que fuera "fácilmente regulable", apunta. "La digitalización es una herramienta más, pero no ha de ser el eje principal de la educación, eso también genera controversia", opina el profesor.