Por Gemma Lluch
RUSELL GROUP (2023). Principles on the use of generative AI tools in education.
El Russell Group, que integra 24 universidades de investigación del Reino Unido, publicó el 2023 un documento titulado Principles on the use of generative AI tools in education que establece un marco de cinco principios para garantizar un uso crítico, ético y equitativo de la inteligencia artificial generativa (IAG) en la educación superior. A continuación, resumimos estos principois.
1. Las universidades apoyarán a los estudiantes y personal para adquirir conocimientos sobre la IAG en estos aspectos:
Privacidad y propiedad intelectual: es necesario proteger los datos introducidos en las herramientas.
Sesgos y estereotipos: la IAG puede reproducir discriminaciones presentes en los datos de entrenamiento.
Inexactitudes: las respuestas pueden ser erróneas o descontextualizadas.
Ética y transparencia: no todas las herramientas incorporan códigos éticos verificables.
Plagio y derechos de autor: riesgo de reutilización no autorizada de contenidos.
Condiciones laborales: preocupaciones sobre la explotación en el desarrollo de estas tecnologías.
2. Apoyo docente y orientación pedagógica para guiar al alumnado en el uso de la IAG:
Desarrollando materiales y orientaciones específicas por disciplina.
Adaptando las políticas institucionales a los contextos académicos.
Fomentando el diálogo continuo con el alumnado para establecer criterios compartidos.
3. Innovación en la docencia y la evaluación a partir de:
La revisión de metodologías y sistemas de evaluación que incorporan la IAG de forma creativa y crítica.
El respeto de la autonomía disciplinaria y el soporte de organismos profesionales.
La garantía de la equidad de acceso a las herramientas, especialmente si son de pago.
4. Rigor e integridad académica a partir de la actualización de las políticas para:
Establecer límites claros sobre el uso de la IAG.
Mantener estándares elevados y coherentes en el aprendizaje y la evaluación.
Fomentar un entorno de confianza en el que se puedan debatir dudas y dilemas éticos.
5. Colaboración y revisión continua de la evolución de la IAG; por eso, las universidades:
Trabajarán junto con instituciones, escuelas, empresas y expertos para revisar y mejorar las políticas.
Evaluarán periódicamente el impacto de la IAG en la vida académica.
Promoverán un enfoque interdisciplinario para abordar los retos emergentes y contribuir a los debates globales.
Cómo citar: Lluch, Gemma (2025). "El Rusell Group o el uso de la IA en la educación superior", Blog #AI_READ.
Per Gemma Lluch
RUSELL GROUP (2023). Principles on the use of generative AI tools in education.
El Russell Group, que integra 24 universitats de recerca del Regne Unit, va publicar el 2023 un document titulat Principles on the use of generative AI tools in education. S'hi estableix un marc de cinc principis per garantir un ús crític, ètic i equitatiu de la intel·ligència artificial generativa (IAG) a l'educació superior. Tot seguit, resumim aquests principis.
Privacitat i propietat intel·lectual: cal protegir les dades introduïdes a les eines.
Biaixos i estereotips: la IAG pot reproduir discriminacions presents en les dades d’entrenament.
Inexactituds: les respostes poden ser errònies o descontextualitzades.
Ètica i transparència: no totes les eines incorporen codis ètics verificables.
Plagi i drets d’autor: risc de reutilització no autoritzada de continguts.
Condicions laborals: preocupacions sobre l’explotació en el desenvolupament d’aquestes tecnologies.
Desenvolupant materials i orientacions específiques per disciplina.
Adaptant les polítiques institucionals als contextos acadèmics.
Fomentant el diàleg continu amb l’alumnat per establir criteris compartits.
La revisió de metodologies i sistemes d’avaluació que incorporen la IAG de manera creativa i crítica.
El respecte de l’autonomia disciplinària i el suport d’organismes professionals.
La garantia de l’equitat d’accés a les eines, especialment si són de pagament.
Establir límits clars sobre l’ús de la IAG.
Mantenir estàndards elevats i coherents en l’aprenentatge i l’avaluació.
Fomentar un entorn de confiança on es puguen debatre dubtes i dilemes ètics.
Treballaran conjuntament amb institucions, escoles, empreses i experts per revisar i millorar les polítiques.
Avaluaran periòdicament l’impacte de la IAG en la vida acadèmica.
Promouran un enfocament interdisciplinari per abordar els reptes emergents i contribuir als debats globals.
Com citar: Lluch, Gemma (2025). "El Rusell Group o l'ús de la IA en l'educació superior", Blog #AI_READ
Baldrich , K., & Domínguez-Oller, J. C. (2024). El uso de ChatGPT en la escritura académica: Un estudio de caso en educación [The use of ChatGPT in academic writing: A case study in Education]. Pixel-Bit. Revista De Medios Y Educación, 71, 141–157. https://doi.org/10.12795/pixelbit.103527
Los miembros del equipo Baldrich y Domínguez-Oller investigan el impacto de ChatGPT en la calidad de los trabajos académicos de 33 estudiantes (7 grupos) del Grado de Educación Infantil.
El trabajo se desarrolló en tres fases a partir de un estudio de caso descriptivo con enfoque cualitativo, que consistió en:
una evaluación inicial mediante una encuesta ad hoc cerrada para conocer las experiencias previas al uso de ChatGPT
un análisis comparativo de trabajos académicos con y sin ChatGPT analizado mediante una rúbrica y una tabla comparativa
una encuesta ad hoc de preguntas abiertas para conocer las experiencias del proyecto que posteriormente se categorizaron con el Software Atlas.ti.
Los resultados revelan mejoras en la escritura de los trabajos como en coherencia, cohesión, lenguaje académico, pero también ciertas deficiencias. Se concluye que ChatGPT puede servir como complemento de trabajos académicos, siendo más efectivo cuando los estudiantes ya poseen una base en habilidades críticas, éticas y argumentativas.