La Inteligencia Artificial Generativa (IA) ha emergido como una herramienta poderosa en diversos campos, y su presencia en el ámbito educativo plantea una serie de cuestionamientos éticos. Aunque la IA promete mejorar la experiencia educativa a través de la personalización del aprendizaje o la automatización de tareas repetitivas, entre otras, es crucial analizar de manera crítica los riesgos éticos asociados con su implementación en este entorno.
A modo de ejemplo, para iniciar la reflexión sobre estas implicaciones, ChatGPT, el nuevo chatbot de inteligencia artificial desarrollado por OpenAI, es perfectamente capaz de responder a preguntas en párrafos claros y concisos, seguir las indicaciones de un ensayo, escribir poesía, o generar una rúbrica de evaluación para una situación de aprendizaje compleja. El profesor de la Facultad de Derecho y Ciencias Políticas y exrector de la Universidad de La Sabana (Colombia), Obdulio Velásquez, decidió desafiar a la Inteligencia Artificial sometiéndola a un examen de posgrado que abordaba temáticas de responsabilidad civil y del Estado. La IA alcanzó una calificación de 4.5 sobre 5, superando la calificación media de los estudiantes de posgrado. Este mismo profesor universitario se preguntaba si los profesores estamos asignando tareas a los estudiantes que pueden ser respondidas por inteligencia artificial (IA). Y si es así, ¿realmente están ayudándolos a aprender? Es momento de revisar esas alternativas para evaluar el aprendizaje.
Desde el 30 de noviembre de 2022, fecha en la que se liberó de manera universal y gratuita el acceso a diversos sistemas de inteligencia artificial, se ha producido una inflexión o ruptura en el Internet que conocíamos hasta ahora. Hay un Internet antes y después de esta fecha, ya que ha cambiado el modo en el que nosotros interactuamos para buscar información, o mejor, para generar información. Hoy tenemos a nuestra disposición un amplio espectro de aplicaciones gratuitas, que a partir de un más o menos sencillo promt o entrada descriptiva de la tarea a realizar, nos permiten obtener ensayos, resúmenes de grandes documentos, traducciones, actas de reuniones, ilustraciones, historias animadas, y un cada vez más amplio abanico de formatos de salida. Es lo que denominamos la IA generativa.
En el ámbito educativo, hay un cierto consenso en cuanto a algunos posibles efectos positivos de su uso. En este espectro se encuentra la personalización del aprendizaje, la automatización de tareas o la generación de recursos educativos.
- Personalización del Aprendizaje: La IA permite adaptar el contenido educativo a las necesidades individuales de cada estudiante. Los sistemas inteligentes pueden analizar datos en tiempo real para identificar las fortalezas y debilidades de los estudiantes, brindando retroalimentación personalizada y recomendaciones de aprendizaje. Esto mejora la eficacia del proceso educativo y promueve un aprendizaje más profundo y significativo.
- Automatización de Tareas Repetitivas: Los sistemas basados en IA pueden automatizar tareas administrativas y repetitivas, liberando tiempo para que los educadores se enfoquen en actividades de mayor valor, como la tutoría personalizada, la orientación y la resolución de problemas complejos. Esto conduce a una mayor eficiencia y mejora la calidad de la interacción entre profesores y alumnos.
- Además, la IA aumenta la velocidad de creación de materiales educativos. Los sistemas de IA pueden analizar grandes cantidades de datos para identificar tendencias y necesidades específicas de los estudiantes. Esto facilita la creación de material didáctico adaptado a las necesidades individuales de cada estudiante, lo que conduce a una enseñanza más personalizada y centrada en el alumno.
No obstante, y como señalamos al comienzo de este artículo, existen importantes riesgos éticos en la implementación de esta tecnología. Para empezar, nunca tan pocas empresas han poseído el control del suministro de un factor productivo, tanto a nivel económico como cultural, de una tecnología de frontera fundamental para el futuro de la humanidad. Así, en un reciente “briefing” del Parlamento Europeo, se explicaba cómo la IA presenta tanto grandes oportunidades como riesgos, en particular para la convivencia y la democracia. Por un lado, la IA puede aumentar la participación ciudadana y mejorar la representación política, pues podría facilitar a los ciudadanos entender mejor la política y a los políticos, facilitando la elaboración de políticas más informadas. Sin embargo, la IA puede facilitar la difusión de información falsa que permita manipular la opinión pública a gran escala, y esto socavaría la integridad de cualquier democracia. En este marco general de los riesgos éticos marcados por la concentración de estas tecnologías, se plantean los siguientes impactos negativos de la IA generativa en el ámbito educativo:
- Privacidad y Seguridad de los Datos: Uno de los principales riesgos éticos de la IA generativa en la enseñanza es la amenaza a la privacidad y seguridad de los datos. La recopilación masiva de información personal de los estudiantes para entrenar los modelos de IA plantea interrogantes sobre cómo se manejarán estos datos y quién tendrá acceso a ellos. La posibilidad de que datos sensibles, como el rendimiento académico y el comportamiento, caigan en manos equivocadas podría tener consecuencias a largo plazo para la privacidad de las personas. Además, existe el riesgo de sesgo algorítmico si los conjuntos de datos utilizados para el entrenamiento contienen sesgos inherentes, lo que podría afectar la calidad de las recomendaciones y evaluaciones generadas por la IA. Formar a nuestros estudiantes en la importancia de la seguridad y la privacidad de los datos, así como de la no neutralidad de los algoritmos (identificando los sesgos) es parte de las alfabetizaciones actuales.
- Pérdida de Interacción Humana: Aunque la IA puede mejorar la personalización y la eficiencia, existe el riesgo de perder la interacción humana significativa en el proceso educativo. La educación no es solo adquirir conocimientos, sino también de desarrollar habilidades sociales, emocionales y de colaboración. La dependencia excesiva de la tecnología puede limitar las oportunidades de interacción cara a cara, lo que es fundamental para el crecimiento integral de los estudiantes.
- Equidad y Acceso: Otra preocupación ética importante es la equidad y el acceso a la educación. La implementación de la IA generativa puede exacerbar las brechas existentes entre estudiantes de diferentes niveles socioeconómicos. Aquellos que no tienen acceso a la tecnología necesaria para interactuar con estas herramientas pueden quedar rezagados, perpetuando así desigualdades ya presentes en el sistema educativo. Además, la posible introducción de sesgos culturales en los modelos de IA podría afectar la equidad al favorecer ciertos estilos de aprendizaje o perspectivas, dejando de lado a aquellos que no se ajusten a estos moldes predefinidos.
Lo que está claro es que, como educadores, la irrupción de estas tecnologías en el panorama educativo nos exige, más aún si cabe, guiar a nuestros alumnos para que tengan conciencia crítica. Formar ciudadanos activos y competentes con las tecnologías requiere no solo de las habilidades para manejar distintas herramientas digitales. El desafío fundamental está dado por generar un pensamiento crítico que permita analizar y evaluar la información, potenciar una postura ética del uso de la tecnología, así como estimular procesos creativos a través de la generación de nuevas ideas. Eso requiere no minusvalorar el papel de la memoria y de los contenidos concretos que deben ser aprendidos. El pensamiento crítico no opera en abstracto sino sobre una sofisticada base de datos, informaciones y conocimientos que debe saber manejar cada sujeto en particular. El docente además, como educador, debe fomentar la interacción, posicionarse como un orientador, guía y facilitador de los intercambios, al hacer posibles preguntas que generen nuevos desequilibrios, nuevas búsquedas y construcciones.
La utilización de la inteligencia artificial en la educación y de las tecnologías digitales en las propuestas de enseñanza, requieren de una definición clara de los objetivos asignados a la integración de estas. Tener claridad sobre qué se espera de dicho uso, permitirá evaluar de mejor manera tanto lo que aportan, como sus limitaciones. En este sentido, es importante generar instancias de evaluación y retroalimentación sobre su uso y recoger la opinión de la comunidad educativa, de forma que permita una utilización más pertinente y contextualizada de la tecnología.
Para finalizar, es clave no perder de vista la dimensión humana, que sostiene el vínculo pedagógico en relación con la inteligencia artificial en la educación. Como ya señalamos en una editorial de esta revista, “La inteligencia habita y se recrea en un solo lugar: el ser humano. Por eso no se puede minusvalorar lo humano bajo la tiranía de la tecnología. La inteligencia humana no puede ser igualada porque contiene sellos infranqueables por un algoritmo que habita en la física inorgánica del semiconductor. La inteligencia humana no se puede racionalizar en modelos lógicos, abstractos o heurísticos”. La tecnología, y la IA lo es, debe estar al servicio de la persona y al servicio de la humanidad.
Revista Autogestión nº 153
Oscar Arcera, educador