Enlaces accesibilidad

Los riesgos de la inteligencia artificial en la educación: desinformación, sesgos e inhibición de aprendizaje

Por
Inteligencia artificial: los riesgos en la educación
Una persona interactúa con su ordenador con un robot de conversación con IA Getty / Sakorn Sukkasemsakorn

La reciente popularización de programas de inteligencia artificial generativa como ChatGPT, Gemini o Copilot ha venido acompañada de la irrupción de esta tecnología en el ámbito de la educación para impulsar la docencia y el aprendizaje. En la Semana Mundial de la Alfabetización Mediática, en VerificaRTVE analizamos con el apoyo de dos expertos cuáles son los principales riesgos del uso de la IA en la educación: desde la desinformación hasta la inhibición del aprendizaje pasando por los sesgos. 

La IA generativa es una tecnología que "genera contenidos de forma automática en respuesta a instrucciones escritas" o "prompts" en "interfaces de conversación de lenguaje natural". Estas herramientas generan "su contenido analizando estadísticamente la distribución de palabras, píxeles u otros elementos en los datos que ha asimilado e identificando y repitiendo patrones comunes". Así lo define la UNESCO en su Guía para el uso de la IA generativa en la educación y la investigación (pg.8). La agencia de la ONU advierte de que "los rápidos desarrollos tecnológicos" en materia de inteligencia artificial "conllevan inevitablemente múltiples riesgos y desafíos" y aboga por un enfoque de la IA "centrado en el ser humano".   

¿Cuáles son los riesgos del uso de la IA en la educación? 

"Uno de los riesgos" de la inteligencia artificial "es el sesgo y los sesgos pueden adquirirse por los datos que han alimentado a la IA", explica a VerificaRTVE la doctora en Psicología Lucía Vicente Holgado, autora de una tesis que analiza la influencia de los sesgos de la inteligencia artificial en las decisiones humanas. "Al fin y al cabo, las inteligencias artificiales adquieren sus sesgos de los humanos, de los datos que hemos generado y a la vez creemos que se puede producir esta retroalimentación de que al final los humanos podemos aprender también sesgos de la IA en un círculo que puede ser difícil de detener", añade.   

Esta investigadora señala que los riesgos también están a veces "en el cómo se diseñan estas herramientas" porque en ese proceso "pueden transmitirse sesgos". "Es algo que se debe controlar una vez que se instaura o se aplica en un entorno real una IA, se debería haber pasado un proceso para garantizar que no tiene un funcionamiento sesgado", afirma. Esta especialista y la catedrática de Psicología Experimental Helena Matute publicaron en julio de 2024 una investigación que refleja que las personas aconsejadas por una IA sesgada reproducen los errores de esta tecnología incluso después de que dejen de utilizarla, lo que implica que "heredan" sus sesgos.  

El profesor Pablo Haya, director de Negocio y Analítica del Lenguaje del Instituto de Ingeniería del Conocimiento, explica que "ahora mismo" las inteligencias artificiales aplicadas a la educación pueden generar "sesgos de género, cuando te recomiendan, por ejemplo, libros para leer para niños o niñas". Este experto precisa que en estos sesgos las distintas inteligencias artificiales, ya sean de OpenAI, de Microsoft o Gemini, de Google, pueden dar "una respuesta ligeramente distinta" porque utilizan distintos modelos de lenguaje. 

En el libro ‘¿Ética o ideología de la inteligencia artificial?’, la catedrática emérita de Ética y Filosofía Política Adela Cortina advierte de que "los sesgos en los algoritmos a partir de los que se toman decisiones no garantizan una educación inclusiva y de calidad para todos, ni tampoco una selección adecuada del profesorado" (pg.210). En materia de contenidos, afirma que "la IA puede acentuar los sesgos de inequidad educativa porque los datos para elaborar los algoritmos se extraen de determinadas poblaciones, pero los resultados se aplican también a otras, que tienen unas características diferentes" (pg.210). "Justamente este punto de los sesgos es una de las grandes limitaciones de la IA, que pueden llevar a auténticas disfunciones", subraya.

La inhibición del aprendizaje por el uso de la inteligencia artificial 

La investigadora Lucía Vicente Holgado avisa de que el empleo de esta tecnología en el ámbito educativo puede implicar el "riesgo" de "inhibir" la facultad de aprendizaje del alumno. "En el entorno de la educación, yo añadiría otro riesgo, que es la inhibición del aprendizaje, la inhibición de adquirir ciertas habilidades", indica.

Entrevista a Lucía Vicente Holgado, investigadora académica

"Si se desconoce la forma más adecuada de integrar estas herramientas en un entorno de aprendizaje, sea formal, sea educación secundaria, educación superior o bien en esté en el entrenamiento de destrezas más de cara a un entrenamiento profesional, si no se hace de la forma adecuada, puede inhibir la adquisición de ciertos de ciertas habilidades", explica. Esta inhibición llega, a su juicio, porque "la persona puede tender a sencillamente a delegar en la inteligencia artificial o pasar y derivar determinados procesos a la IA, con lo cual, la persona no desarrolla esas habilidades". 

La desinformación accidental y las alucinaciones 

El profesor Pablo Haya habla también de la posibilidad de que la IA generativa pueda crear "desinformación no intencionada" o accidental, como "un tipo de salida errónea" por parte de esta tecnología, es decir, una respuesta equivocada. Hace hincapié en diferenciar esta desinformación involuntaria de los sesgos porque estos son "respuestas que podríamos decir correctas pero que no son convenientes o que no están alineadas con los valores que tenemos en la sociedad".  

"Por la propia arquitectura, la propia manera de cómo funcionan las IA generativas, es consustancial a que la IA generativa pueda cometer ese tipo de errores de desinformación no intencionada", explica este experto. Recuerda que, "al final la IA no tiene un modelo del mundo" y "no tiene el conocimiento" y señala que "lo que hace es combinar palabras de manera estadísticamente razonable". "Al final te da frases que son gramatical y ortográficamente correctas pero que no tienen por qué tener un correlato con el mundo real", indica. Haya hace referencia también a la posibilidad de que la IA engañe o mienta al responder a preguntas sobre conocimientos que no posee, el llamado "riesgo de alucinación". "La IA generativa puede, valga redundancia, generar o puede producir esas alucinaciones, esas respuestas incorrectas, totalmente no intencionadas, pero al final te da una respuesta sobre un hecho práctico que no es correcta", expone.  

¿Cómo superar los riesgos de la IA en la educación?

Los dos especialistas consultados por VerificaRTVE subrayan la importancia de que la inteligencia artificial se aplique en el ámbito de la educación de forma "supervisada", con el apoyo de los docentes. "Con los modelos de lenguaje automático, puedes tener a una IA ejerciendo labores de tutorización en educación primaria y secundaria, pero esto tiene que estar supervisado", señala Lucía Vicente Holgado. Para evitar los riesgos de la IA, esta investigadora sostiene que los profesores deben fomentar un "uso responsable" de estas tecnologías y advertir a sus alumnos de que "no son herramientas infalibles". "La única recomendación que puedo dar de cara a la enseñanza es que estas herramientas están ahí irremediablemente y yo creo que lo mejor que pueden hacer los docentes es acompañar a sus estudiantes en un uso responsable" de las mismas, afirma. 

Pablo Haya, del Instituto de Ingeniería del Conocimiento, aporta como principal recomendación para el uso de la IA en la educación que antes de consultarle acotemos el contexto. Por ejemplo, si se va a preguntar sobre un tema legal, decirle primero a la IA qué ley o conjunto de normas debe tener como referencia para responder. "Si a la hora de responder, le pasas un contexto más acotado en la instrucción, en el ‘prompt’, es más fácil, digamos, generar una respuesta correcta", concluye.