La rápida expansión de la inteligencia artificial (IA) en la educación secundaria abre oportunidades para personalizar el aprendizaje, pero también genera riesgos éticos, pedagógicos y de equidad. Este artículo parte de tres hipótesis: (1) la IA puede mejorar la personalización y la motivación del alumnado solo cuando se integra en marcos pedagógicos sólidos; (2) las motivaciones del alumnado para usar IA son ambivalentes, combinando búsqueda de apoyo académico y riesgo de inhibición del esfuerzo cognitivo; y (3) la adopción docente de la IA depende menos del perfil STEM que de la alfabetización en IA y en datos y de las condiciones institucionales. A partir de informes internacionales y nacionales, revisiones sistemáticas y estudios empíricos recientes, se analizan impactos, motivaciones y desafíos para el alumnado y el profesorado de secundaria, con la intención de proponer orientaciones para la formación docente, la gobernanza y futuras líneas de investigación.


Palabras clave:
Inteligencia Artificial · Educación Secundaria · profesorado · alumnado · alfabetización digital


The rapid expansion of artificial intelligence (AI) in secondary education creates new opportunities for personalized learning but also raises ethical, pedagogical, and equity risks. This article is guided by three hypotheses: (1) AI can enhance personalization and student motivation only when embedded in robust pedagogical frameworks; (2) students’ motivations to use AI are ambivalent, combining a search for academic support with a risk of inhibiting cognitive effort; and (3) teachers’ adoption of AI depends less on their STEM background than on AI and data literacy and on institutional conditions. Drawing on international and national reports, systematic reviews, and recent empirical studies, we analyse impacts, motivations, and challenges for secondary students and teachers. Our intention is to offer evidence-informed guidelines for teacher professional development, institutional governance, and future research on the responsible, critical, and equitable integration of AI in secondary education.


Keywords:
Artificial Intelligence · Secondary Education · teachers · students · AI literacy


1. Introducción

En pocos años, la inteligencia artificial (IA) —especialmente la IA generativa— ha pasado de ser un recurso incipiente a convertirse en un elemento cotidiano en los centros educativos. Informes internacionales muestran una adopción acelerada: el 86% de las instituciones encuestadas por Microsoft afirma utilizar IA para mejorar el aprendizaje, reducir cargas administrativas y personalizar la enseñanza (Microsoft, 2025). En paralelo, trabajos como el Informe EDUTEC subrayan que la expansión de la IA abre oportunidades para la personalización, la retroalimentación inmediata y la eficiencia docente, pero también genera riesgos de sesgos, vigilancia, pérdida de agencia pedagógica y desigualdades digitales si no se acompaña de políticas claras y alfabetización crítica (EDUTEC, 2025).

Este proceso no es neutro desde el punto de vista de los derechos educativos. La UNESCO insiste en que la digitalización, incluida la IA, debe reforzar el derecho a la educación entendido como disponibilidad, accesibilidad, aceptabilidad y adaptabilidad, y alerta de que la conectividad desigual, las brechas de género o discapacidad, y la falta de salvaguardas de privacidad pueden convertir la IA en un factor de exclusión (UNESCO, 2025). Las directrices éticas europeas enfatizan que la IA debe complementar —no sustituir— la labor pedagógica humana, guiada por principios de justicia, transparencia, protección de datos e inclusión (Comisión Europea, 2022; INTEF, 2025).

En el contexto español, tanto el Informe C de la Oficina C (2024) como las Orientaciones del INTEF (2025) convergen en una idea clave: la cuestión no es “IA sí o IA no”, sino en qué condiciones se integra en el ecosistema educativo. Se subraya la falta de evidencia robusta sobre su impacto a largo plazo, los riesgos asociados a la privacidad, el plagio y la sostenibilidad ambiental, y la necesidad de marcos éticos y formativos que eviten tanto el rechazo tecnófobo como el entusiasmo acrítico (Oficina C, 2024; INTEF, 2025).

A escala europea, el European Educational AI Index 2025 sitúa a España como el país mejor posicionado en IA educativa, especialmente en principios éticos, base regulatoria y formación docente, aunque señala desafíos persistentes en gobernanza y monitorización (GoStudent, 2025a; GoStudent, 2025b). Paralelamente, la economía española ha visto duplicarse el número de empresas nativas de IA en una década, concentradas en Madrid y Cataluña y acompañadas de una fuerte expansión de titulaciones universitarias en IA, pero con estancamiento relativo de las matrículas STEM (Instituto Valenciano de Investigaciones Económicas [IVIE], 2025). Este contexto refuerza la necesidad de que el sistema educativo, y en particular la educación secundaria, prepare a los jóvenes para un entorno donde la IA estará ampliamente presente en el trabajo, la vida social y la participación ciudadana.

A partir de este marco, el presente artículo se centra en la educación secundaria y plantea tres hipótesis de trabajo:

  1. La IA, cuando se integra en marcos pedagógicos robustos, puede mejorar la personalización del aprendizaje y la motivación del alumnado, con especial impacto en estudiantes con mayores dificultades.
  2. Las motivaciones del alumnado para usar IA son ambivalentes, combinando percepciones de utilidad (rapidez, comprensión, creatividad) con preocupaciones sobre la pérdida de habilidades, la integridad académica y la dependencia tecnológica.
  3. La adopción docente de la IA depende, más que de la formación STEM, del conocimiento práctico sobre IA, de la competencia en el uso de datos y de las condiciones institucionales (formación, políticas, apoyo), existiendo una brecha entre la actitud positiva y el uso real.

Para contrastar estas hipótesis se realiza una revisión narrativa apoyada en: (a) informes institucionales y marcos normativos; (b) revisiones sistemáticas y metaestudios; (c) estudios empíricos sobre alumnado y profesorado; y (d) análisis y reportajes recientes sobre la percepción social y educativa de la IA.

2. La inteligencia artificial como herramienta educativa: ventajas y riesgos

2.1. Potencial pedagógico: personalización, tutoría y aprendizaje profundo

Los estudios coinciden en que la IA tiene un alto potencial pedagógico cuando se diseña e implementa con un enfoque instruccional claro. Los programas de computer-assisted learning (CAL) y los tutores guiados por IA han mostrado efectos significativos, especialmente en matemáticas, con mejoras de entre 0,2 y 0,4 desviaciones estándar en contextos diversos, cuando se alinean con el currículo, se acompañan de formación docente y se integran en metodologías activas (Sevilla et al., 2025).

Las evidencias más recientes sobre tutores basados en modelos generativos apuntan en la misma dirección: los sistemas que construyen el razonamiento del alumnado —planteando pistas, contraejemplos o solicitudes de explicación— producen mejoras sustanciales y ayudan a reducir brechas en contextos de bajos recursos, mientras que los sistemas que simplemente ofrecen respuestas completas pueden fomentar la descarga cognitiva y perjudicar el aprendizaje (Sevilla et al., 2025; Sanz, 2025). Sanz (2025) destaca que los mayores beneficios aparecen cuando la tutoría —humana o algorítmica— es intensiva, personalizada y está integrada en el horario lectivo, con especial impacto en estudiantes rezagados.

En secundaria, la IA generativa se utiliza ya de forma creciente para personalizar materiales, adaptar el nivel de dificultad y ofrecer retroalimentación inmediata. Experiencias como la de Jauhiainen (2024) en alumnado de 4º a 6º de primaria, con adaptación dinámica de textos, imágenes y tareas mediante ChatGPT, muestran que la personalización instantánea mejora la atención, la motivación y la percepción de aprendizaje, lo que sugiere un potencial transferible a la etapa de secundaria. Wu y Zhang (2025) encuentran, en una muestra de 500 estudiantes de 7º a 12º grado, que el uso de IA generativa tiene un efecto positivo robusto sobre las habilidades de innovación y la alfabetización digital, reforzando el pensamiento crítico y la capacidad de gestionar información compleja.

A escala de sistema, los informes de Microsoft (2025), Carnegie Learning (2025), Michigan Virtual (2025) y Hastings Initiative Members (2025) apuntan a beneficios recurrentes: ahorro de tiempo docente en tareas repetitivas, apoyo en la creación de materiales, ayuda a la diferenciación de la enseñanza y aumento del compromiso del alumnado. Un porcentaje elevado de educadores percibe la IA como una oportunidad para personalizar la enseñanza y mejorar la accesibilidad, especialmente para estudiantes con necesidades específicas o dificultades de aprendizaje (Carnegie Learning, 2025; Michigan Virtual, 2025).

2.2. Riesgos: sesgos, desinformación e inhibición del aprendizaje

Junto a estos beneficios, los estudios y los marcos éticos insisten en riesgos significativos. A nivel estructural, la UNESCO (2025) y la Comisión Europea (2022) señalan problemas de desigual conectividad, brechas de acceso por región, género, lengua o discapacidad, y riesgos de vigilancia masiva y uso indebido de datos personales. El Informe C (Oficina C, 2024) y el Informe EDUTEC (2025) añaden preocupaciones sobre sesgos algorítmicos, filtrado de información, pérdida de transparencia y datificación excesiva de la vida escolar.

En el plano cognitivo, tanto Díaz-Merry (2024) como Sanz (2025) advierten sobre la inhibición del aprendizaje cuando la IA se usa como sustituto del esfuerzo intelectual: delegar sistemáticamente tareas de búsqueda, síntesis o resolución de problemas puede erosionar habilidades metacognitivas, memoria a largo plazo y pensamiento crítico. Investigaciones recientes con medidas neurofisiológicas señalan que la dependencia de grandes modelos de lenguaje durante tareas de escritura se asocia a patrones de actividad cerebral que plantean interrogantes sobre el desarrollo de habilidades de composición autónoma (Adams, 2025).

Otro riesgo central es la desinformación involuntaria y las denominadas “alucinaciones” de la IA generativa: sistemas que producen respuestas textual y sintácticamente plausibles, pero factualmente incorrectas, debido a su funcionamiento estadístico y a la ausencia de un modelo del mundo (Díaz-Merry, 2024). Esto exige que el alumnado desarrolle competencias de verificación y contraste de fuentes, y que el profesorado integre la IA en actividades que requieran validar, corregir y explicar la información generada.

En términos de integridad académica, varios estudios y encuestas señalan un aumento en el uso de IA para hacer trampas o delegar íntegramente tareas evaluables, así como la proliferación de herramientas de detección poco fiables y con sesgos contra estudiantes no nativos (Carnegie Learning, 2025; Hastings Initiative Members, 2025; Alfarwan, 2025). El riesgo no es solo la copia, sino el desplazamiento de actividades esenciales para el aprendizaje profundo (escritura, argumentación, resolución de problemas) hacia un modelo de consumo acrítico de contenidos generados.

Por último, la expansión de la IA tiene una dimensión sistémica y territorial: la concentración de empresas, talento y oferta formativa en determinadas regiones —en el caso español, Madrid y Cataluña— puede reforzar desigualdades en el acceso a recursos, formación docente y oportunidades vinculadas a la IA (IVIE, 2025). El reto, por tanto, no se limita al aula, sino que implica políticas de equidad digital, financiación y desarrollo territorial.

3. Motivaciones del alumnado para el uso de la IA

La evidencia empírica muestra que el alumnado, especialmente a partir de la educación secundaria, adopta la IA generativa de manera intensa, pero con percepciones ambivalentes. En Reino Unido, un estudio encargado por Oxford University Press revela que solo un 2% del alumnado de 13 a 18 años declara no usar IA para sus tareas escolares, mientras que el 80% la emplea de forma regular (Adams, 2025). En Estados Unidos, datos de College Board indican que el porcentaje de estudiantes de secundaria que utiliza herramientas generativas para su trabajo escolar creció del 79% al 84% en pocos meses, siendo ChatGPT la herramienta dominante (College Board, 2025).

Las motivaciones declaradas se repiten en distintos contextos: búsqueda de rapidez y eficiencia, apoyo para entender explicaciones complejas, ayuda para generar ideas o iniciar textos y reducción de la ansiedad ante tareas académicas (Altares-López et al., 2024; Martínez-Carrera et al., 2025; Sáez-Velasco et al., 2025).

Sáez-Velasco et al. (2025), en estudiantes de diseño de videojuegos, encuentran una actitud predominantemente favorable hacia la IA, asociada a percepciones de mayor eficacia, creatividad y autonomía en el proceso de diseño, aunque sin una mejora clara en la calidad final del producto. Altares-López et al. (2024) muestran que el alumnado universitario valora la IA como herramienta de apoyo cognitivo (comprender mejor, sintetizar información), de productividad académica (ahorrar tiempo, estructurar textos) y, a la vez, como fuente de tensiones éticas (plagio, autoría, dependencia).

En estudios centrados en futuros educadores sociales, la IA se percibe ante todo como herramienta de ayuda y futuro: se usa para buscar información, generar imágenes y apoyar tareas académicas, con beneficios percibidos en rapidez y comprensión, pero acompañados de dudas sobre fiabilidad y riesgo de pérdida de habilidades (Martínez-Carrera et al., 2025). Estos resultados son coherentes con las encuestas de College Board (2025): la mitad del alumnado no tiene claro si los beneficios superan los riesgos, un cuarto cree que sí y otro cuarto considera que no.

En contextos de secundaria y bachillerato, los datos cualitativos señalan que muchos estudiantes sienten que la IA “facilita demasiado” encontrar respuestas sin esfuerzo, temen perder competencias de estudio y creatividad, y perciben que algunos compañeros la utilizan de forma encubierta para tareas evaluables (Adams, 2025). Al mismo tiempo, otros estudiantes describen experiencias muy positivas, como comprender mejor las matemáticas o aprender a resolver problemas complejos gracias a explicaciones adaptadas a su nivel. Esta ambivalencia refleja un conflicto entre la tentación de la delegación cognitiva y la conciencia de que el aprendizaje requiere esfuerzo sostenido.

Desde una perspectiva más estructural, Wu y Zhang (2025) aportan evidencia cuantitativa de que el uso de IA generativa se asocia positivamente con la innovación y la alfabetización digital del alumnado de secundaria. Esto sugiere que, cuando su uso se integra en tareas que exigen pensar, crear y evaluar, la IA puede actuar como catalizador de habilidades de alto nivel. Sin embargo, la revisión de Alfarwan (2025) indica que muchos estudios en K-12 se centran en variables psicológicas (motivación, autoeficacia) y menos en medidas robustas de rendimiento, lo que limita las conclusiones sobre efectos reales en el aprendizaje a largo plazo.

En síntesis, las motivaciones del alumnado para usar IA en secundaria combinan búsqueda de apoyo académico y eficiencia con preocupaciones genuinas sobre la pérdida de habilidades, la integridad académica y la fiabilidad de la información. Este perfil ambivalente refuerza la necesidad de acompañar el uso de IA con educación crítica, explícita y guiada sobre cuándo, cómo y para qué utilizarla.

4. El profesorado ante la adopción de la IA

4.1. Factores que explican la adopción docente

Uno de los hallazgos más robustos de los estudios recientes es que la adopción de IA por parte del profesorado no depende tanto de ser “muy tecnológico” o de tener formación STEM, como de contar con conocimiento práctico sobre IA y competencia en el uso de datos. El estudio de López-Costa et al. (2025), con 372 docentes de secundaria en Cataluña y un modelo PLS-SEM, muestra que el predictor más potente de adopción es el conocimiento práctico de IA, especialmente la experiencia en generar contenidos con herramientas generativas, seguido del uso general de datos educativos. En cambio, la formación STEM y el uso aplicado de datos no tienen efectos directos significativos.

Este resultado se alinea con revisiones como la de Tan y Cheng (2024), que destacan la necesidad de pasar de una formación genérica en “competencia digital” a una alfabetización específica en IA y datos, orientada a la práctica pedagógica: entender cómo funcionan los modelos, qué pueden y qué no pueden hacer, cómo se entrenan y qué riesgos éticos conllevan. Las orientaciones del INTEF (2025) y el marco europeo de AI literacy insisten en que el profesorado debe ser capaz no solo de utilizar herramientas, sino de enseñar a pensar con y sobre la IA, integrando ética, pensamiento crítico y protección de datos (European Commission, 2025; INTEF, 2025).

A escala más amplia, los estudios de Galindo-Domínguez et al. (2024) muestran que, aunque la actitud del profesorado hacia la IA es mayoritariamente positiva, solo el 25% la ha incorporado de forma efectiva en sus prácticas. En primaria y secundaria, su uso se concentra en la creación de contenidos (presentaciones, textos, vídeos) y no tanto en promover la interacción directa y guiada del alumnado con la IA. En educación superior, en cambio, se observa un uso más orientado a explicar el funcionamiento de la IA, fomentar la experimentación estudiantil y apoyar tareas de investigación. Esta brecha entre actitud favorable y uso real sugiere la existencia de barreras formativas, institucionales y éticas.

Los datos de Estados Unidos refuerzan esta idea: informes como The State of AI in Education 2025AI in High School Education o las encuestas de Michigan Virtual indican que el uso docente de IA crece rápidamente, pero la existencia de políticas claras y formación estructurada es mucho más limitada; una parte importante del profesorado no participa en los programas ofertados, o no los percibe como ajustados a sus necesidades (Carnegie Learning, 2025; Hastings Initiative Members, 2025; Michigan Virtual, 2025).

4.2. Percepciones, riesgos y demandas del profesorado

Las percepciones docentes sobre la IA combinan optimismo pragmático y preocupación ética. López-Costa et al. (2025) encuentran que las percepciones negativas sobre los riesgos de la IA —sesgos, plagio, pérdida de control— tienen un efecto adverso, aunque moderado, sobre la adopción. Żammit (2025), en el contexto de la enseñanza del maltés como lengua minoritaria, muestra que el profesorado valora la personalización, la motivación y la accesibilidad que aporta la IA, pero expresa inquietud por la dependencia tecnológica, la limitada precisión de los modelos, las desigualdades de acceso y la falta de alfabetización en IA.

Las directrices éticas de la Comisión Europea (2022) y los marcos nacionales (INTEF, 2025; Oficina C, 2024) recogen estas preocupaciones en forma de principios: supervisión humana, transparencia, explicabilidad, equidad, protección de la privacidad y especial atención al alumnado vulnerable. El profesorado demanda formación estructurada, ejemplos de buenas prácticas, criterios claros de evaluación y acompañamiento institucional para evitar que la integración de la IA recaiga en iniciativas individuales aisladas (EDUTEC, 2025; EDEN, 2025).

Al mismo tiempo, estudios como los de Michigan Virtual (2025) y College Board (2025) muestran que muchos docentes se sienten desbordados por el ritmo de adopción de la IA por parte del alumnado y por la presión para responder a corto plazo con normas y estrategias pedagógicas, a menudo sin tiempo ni apoyo para reflexionar. Esta situación puede generar un clima de incertidumbre y desconfianza, tanto en el uso de la IA como en las herramientas de detección de plagio.

En el caso español, la posición relativamente avanzada de España en el European Educational AI Index (GoStudent, 2025a) y la existencia de marcos como las Orientaciones del INTEF (2025) ofrecen una base sólida, pero aún incipiente, para abordar estos desafíos. Falta consolidar programas de formación en IA integrados en la formación inicial y permanente del profesorado de secundaria, vinculados a la práctica real en el aula y alineados con los marcos internacionales de AI literacy (European Commission, 2025; Tan & Cheng, 2024).

Conclusiones

El análisis realizado permite confirmar parcialmente las tres hipótesis planteadas. En primer lugar, la evidencia disponible respalda la idea de que la IA tiene un alto potencial para mejorar la personalización del aprendizaje y la motivación del alumnado de secundaria, especialmente cuando se implementa mediante tutores guiados por IA, programas de CAL bien diseñados o sistemas adaptativos que proporcionan andamiaje cognitivo y retroalimentación inmediata. No obstante, estos efectos positivos no son automáticos ni garantizados: dependen del diseño pedagógico, de la integración en el horario lectivo, de la formación docente y de la alineación con el currículo.

En segundo lugar, las motivaciones del alumnado para utilizar IA son claramente ambivalentes. La IA se percibe como un recurso útil para ahorrar tiempo, comprender mejor, generar ideas y aumentar la confianza, pero también se asocia con la pérdida de habilidades, la erosión del pensamiento crítico, la tentación de copiar y la preocupación por la fiabilidad de las respuestas. Esta ambivalencia sugiere que la IA no debe ser simplemente “tolerada” o “prohibida”, sino problematizada y trabajada explícitamente en el aula como objeto de reflexión, debate y alfabetización crítica.

En tercer lugar, los estudios revisados indican que la adopción de IA por parte del profesorado de secundaria no depende de manera decisiva de la formación STEM, sino del conocimiento práctico de la IA y de la competencia en el uso general de datos, junto con las condiciones institucionales y la percepción ética. La brecha entre actitud positiva y uso efectivo, así como la escasez de políticas claras y formación sistemática, refuerzan la necesidad de programas de desarrollo profesional continuado, contextualizado y orientado a la práctica.

En términos de implicaciones educativas, los resultados apuntan a varias líneas de acción prioritarias en educación secundaria:

  1. Formación docente en IA y datos: pasar de la “competencia digital” genérica a una alfabetización específica en IA, que incluya comprensión técnica básica, evaluación crítica, ética, protección de datos y diseño de actividades con IA que fomenten el pensamiento crítico y la autorregulación del alumnado.
  2. Gobernanza y políticas claras: establecer marcos institucionales y normativos que definan usos aceptables de la IA, criterios de transparencia, protección de datos y procedimientos de evaluación, evitando tanto el vacío normativo como la hiperregulación que dificulte la innovación.
  3. Equidad y brecha digital: asegurar la infraestructura tecnológica, la conectividad y el acceso a dispositivos en todos los centros de secundaria, con especial atención a las zonas rurales y a los colectivos vulnerables, para evitar que la IA amplíe las desigualdades existentes.
  4. Diseño pedagógico centrado en el aprendizaje profundo: utilizar la IA no para sustituir el esfuerzo cognitivo, sino para favorecer la explicación, la reflexión, el contraste de ideas y la construcción activa de conocimiento. En este sentido, los tutores IA deben ser concebidos como herramientas de andamiaje, no como oráculos.
  5. Participación del alumnado y agencia estudiantil: involucrar al alumnado en la definición de normas de uso de la IA, en el análisis de sus riesgos y en actividades de co-diseño de proyectos con IA, reforzando su rol como sujetos activos y críticos frente a la tecnología.

En cuanto a líneas de investigación futura, resulta prioritario: (a) desarrollar estudios longitudinales en secundaria que analicen el impacto de la IA en el rendimiento, la motivación y las habilidades cognitivas a medio y largo plazo; (b) explorar efectos en poblaciones específicas (alumnado con necesidades educativas especiales, contextos rurales, minorías lingüísticas); (c) evaluar modelos de formación docente en IA y su relación con cambios reales en la práctica; y (d) estudiar las dimensiones afectivas y éticas de la relación alumnado–IA en el aula.

En definitiva, la IA en la educación secundaria no es un destino, sino un campo de decisiones pedagógicas, políticas y éticas. Su valor dependerá de la capacidad del sistema educativo para articular marcos de equidad y derechos, formar a su profesorado, escuchar las voces del alumnado y poner el aprendizaje profundo —y no la fascinación tecnológica— en el centro de cualquier integración.

 

Referencias

Revistas

  • Altares‑López, S., Bengochea-Gueva,a J.M., Ranz, C., Montes, H. y Ribeiro, A. (2024). Qualitative and quantitative analysis of students’ perceptions in the use of generative AI in educational environments. https://doi.org/10.48550/arXiv.2405.13487
  • Alfarwan, A. (2025). Generative AI Use in K‑12: A Systematic Review. Front. Educ., 10. https://doi.org/10.3389/feduc.2025.1647573
  • Galindo-Domínguez, H., Delgado, N., Losada, D., & Etxabe, J. M. (2024). An analysis of the use of artificial intelligence in education in Spain: The in-service teacher’s perspective. Journal of Digital Learning in Teacher Education, 40(1). https://doi.org/10.1080/21532974.2023.2284726
  • González Said de la Oliva, M. del P., Solis Trujillo, B. P.., Gonzales Núñez, C. y Flores Revoredo, R. (2025). Desafíos de la inteligencia artificial en la educación secundaria: una revisión sistemática (2020-2025). Horizontes. Revista De Investigación En Ciencias De La Educación, 9(39). https://doi.org/10.33996/revistahorizontes.v9i39.1099
  • Jauhiainen, J. S. (2024). Generative AI and education: Dynamic personalization of pupil’s school learning material with ChatGPT. Front. Educ., 9. https://doi.org/10.3389/feduc.2024.1288723
  • López, M. (2025). Uses of AI and AA in secondary education to promote individualized learning experiences. INTED2025 Proceedings. 10.21125/inted.2025.0790
  • López-Costa, M., Doñate-Beby, B. y Cabrera Lanzo, N. (2025). Understanding AI adoption among secondary education teachers: A pls-sem approach. Computers and Education: Artificial Intelligence, 8. https://doi.org/10.1016/j.caeai.2025.100416
  • Martínez-Carrera, S., Sánchez-Martínez, C., Fernandes, S., & Ricoy, M.-C. (2025). The Use of AI by Undergraduate Students of Social Education in Spain and Portugal: A Case Study. Education Sciences, 15(3), 390. https://doi.org/10.3390/educsci15030390
  • Nadelson, L. S. (2025). The use of generative artificial intelligence in K-12 education: An introduction to the special issue of the Journal of Educational Research. The Journal of Educational Research, 118(6). https://doi.org/10.1080/00220671.2025.2514913
  • Sáez-Velasco, S., Alaguero-Rodríguez, M., Rodríguez-Cano, S. y Delgado-Benito, V. (2025). Students’ Attitudes Towards AI and How They Perceive the Effectiveness of AI in Designing Video Games. Sustainability,17(3096). https://doi.org/10.3390/su17073096
  • Sevilla, A., Cuevas-Ruiz, P., Rello, L. y Sanz, I. (2025). Artificial Intelligence in Education: Computer-Assisted Learning and AI-guided Tutors. Ital Econ J. https://doi.org/10.1007/s40797-025-00354-1
  • Tan, X. y Cheng, G. (2024). Artificial intelligence in teaching and teacher professional development: A systematic review. Computers and Education: Artificial Intelligence, 8. https://doi.org/10.1016/j.caeai.2024.100355
  • Wu, D. y Zhang, J. (2025). Generative Artificial Intelligence in Secondary Education: Applications and effects on students’ innovation skills and digital literacy. PLoS One 20(5). https://doi.org/10.1371/journal.pone.0323349
  • Żammit, J. (2025). Secondary School Teachers’ Experiences with Generative AI in Maltese Language Teaching. Tech Know Learn, 30. https://doi.org/10.1007/s10758-025-09861-7

Links

 
 
Grupo MasterD
Recomiéndanos en Google +

Master Distancia, S.A.© Tel. 900 30 40 30 | Fax 976 764 110 | oposiciones@masterd.es | Av. Manuel Rodríguez Ayuso 158 (antigua Ctra. Madrid, km. 314,8) | 50012 Zaragoza, España