Comenzó un nuevo año, y a modo de completar las reflexiones sobre la Inteligencia Artificial (IA) y sus implicancias en la educación del último post de 2025, traigo a esta segunda parte algunas ideas asociadas más específicamente al interior de las instituciones educativas.
El artículo publicado por la UNESCO, El uso de la IA en educación: decidir el futuro que queremos, nos invita a una reflexión profunda y necesaria: la Inteligencia Artificial (IA) ya no es una tecnología del futuro lejano, sino una realidad presente que está transformando múltiples aspectos de nuestra vida, incluida la educación de nuestros hijos. La IA ofrece herramientas potencialmente poderosas para personalizar el aprendizaje, facilitar el acceso a la información y desarrollar nuevas habilidades. Sin embargo, su implementación no está exenta de desafíos y riesgos significativos.
¿Cómo abordar el tema al interior de las instituciones educativas y en la comunidad toda?
No podemos ser meros espectadores. La IA, y en particular la IA Generativa, ha entrado en nuestros hogares a través de aplicaciones educativas, asistentes virtuales y herramientas de búsqueda que nuestros hijos utilizan. La visión de la UNESCO de "decidir el futuro que queremos" nos llama a tomar un papel activo. No se trata de aceptar la tecnología ciegamente ni de rechazarla por completo, sino de entenderla, guiar su uso y asegurarnos de que se alinee con nuestros valores y el bienestar integral de nuestros hijos.
Los riesgos que preocupan a organismos como la UNESCO, tales como sesgos algorítmicos, privacidad de datos, brecha digital, posible disminución del pensamiento crítico si se usa pasivamente, son preocupaciones al interior de las instituciones ¿Cómo aseguramos que la IA sea una herramienta que apoye y no reemplace la interacción humana, la creatividad y la capacidad de resolver problemas de forma independiente? ¿Cómo garantizamos que su uso sea equitativo y no profundice las desigualdades?
En síntesis, la IA no es un fenómeno externo, y su impacto requiere un análisis riguroso, interdisciplinar y con mirada ética.
En este sentido, durante 2025 nos propusimos comprender cómo los estudiantes están viviendo la irrupción de la inteligencia artificial en sus procesos formativos. Nos interesaba conocer no solo sus usos cotidianos, sino también las expectativas, miedos y dilemas éticos que acompañan esta nueva realidad académica.
En una primera etapa del proyecto, obtuvimos resultados cualitativos que arrojan información muy valiosa.
Hemos identificado seis patrones principales:
1️⃣ Uso frecuente y diversificado. Los estudiantes emplean ChatGPT y otras IAs para generar ideas, resumir textos, organizar contenidos y mejorar el diseño visual de sus presentaciones o proyectos.
2️⃣ Valoración ambivalente. Reconocen el enorme potencial de la IA como apoyo, pero rechazan que sustituya al docente. El contacto humano, el diálogo y la retroalimentación siguen siendo vistos como insustituibles.
3️⃣ Preocupaciones éticas. Existe inquietud por la vigilancia automatizada y los sistemas de detección de plagio, que pueden generar falsos positivos y vulnerar la privacidad del estudiante.
4️⃣ Desigualdad digital. Detectan brechas entre quienes pueden pagar versiones premium de IA y quienes dependen de herramientas gratuitas con menos prestaciones.
5️⃣ Sesgos algorítmicos. Se percibe riesgo de que los sistemas reproduzcan estereotipos de género, raza o ideología, afectando la objetividad del aprendizaje.
6️⃣ Formación insuficiente. Los alumnos señalan que las universidades aún no ofrecen capacitación suficiente sobre el uso crítico y ético de la IA. Reclaman talleres, asignaturas específicas y acompañamiento docente.
Estas percepciones se sintetizan en una idea central: los estudiantes no quieren prohibiciones, sino formación, transparencia y orientación.
¿Qué ocurre del lado de la escuela? ¿Qué se necesita para un adecuado uso educativo de la IA?
Una investigación realizada en el mismo año por investigadoras del CIAE de la Universidad de Chile, advierte sobre la formación docente para integrar la IA: ¿Está la escuela preparada para la IA?
De acuerdo a lo estudiado por las expertas, son cinco puntos los que "frenan" el uso educativo de la IA:
1️⃣ Formación docente deficiente. La gran mayoría de los docentes declara no haber recibido ningún tipo de formación sobre inteligencia artificial, ni en su formación inicial ni en capacitaciones recientes. Esto limita su capacidad para usarla con sentido crítico y pedagógico.
2️⃣ Falta de lineamientos institucionales. La ausencia de marcos normativos claros genera incertidumbre respecto a cómo, cuándo y para qué usar estas tecnologías en el aula.
3️⃣ Brechas tecnológicas persistentes. La infraestructura digital sigue siendo un obstáculo grave, especialmente en establecimientos con menos recursos. Problemas de conectividad, acceso desigual a dispositivos y falta de soporte técnico restringen cualquier intento de innovación.
4️⃣ Escaso acompañamiento pedagógico. Los docentes no cuentan con asesorías ni referentes internos que los guíen en el uso reflexivo de IA, lo que alimenta la sensación de aislamiento frente a un fenómeno complejo.
5️⃣ Culturas escolares conservadoras. En muchos establecimientos, la IA no se discute como tema educativo. Persiste una mirada reduccionista, centrada en automatización de tareas, sin análisis crítico de sus implicancias formativas.
Sin dudas, la temática merece ser abordada desde una visión integral: escuela - familias.
Complementando estas evidencias con el artículo de la UNESCO, algunas recomendaciones para el uso de la IA al interior de las instituciones educativas, en diálogo con Gemini:
Adoptar un Enfoque Centrado en el Ser Humano
La IA como complemento, no como sustituto: Las instituciones deben reforzar la idea de que la IA es una herramienta para potenciar las capacidades humanas. La interacción docente-estudiante, el apoyo emocional y el contexto social que ofrece la escuela son irreemplazables.
Mantener la autonomía humana: Asegurar que los docentes y directivos mantengan el control final sobre las decisiones críticas (como admisiones o evaluaciones definitivas) y que la tecnología no dicte el rumbo pedagógico de forma autónoma.
Rediseñar la medición del aprendizaje: Ante la capacidad de la IA para superar exámenes estandarizados, las instituciones deben priorizar métodos que evalúen el pensamiento crítico, la creatividad y la resolución de problemas complejos, en lugar de la simple memorización o reproducción de textos.
Innovación pedagógica: Reevaluar qué competencias son ahora prioritarias para los estudiantes en un mundo donde la IA puede realizar tareas técnicas y de redacción básica.
Protección de datos y privacidad: Implementar protocolos rigurosos para garantizar que la información de los estudiantes no sea vulnerada ni utilizada comercialmente por las plataformas de IA.
Límites de edad: Siguiendo la recomendación de la UNESCO, se sugiere establecer un límite de edad mínimo (como los 13 años) para el uso independiente de herramientas de IA generativa en el aula, siempre bajo supervisión docente.
Mitigación de sesgos: Capacitar a la comunidad educativa para identificar posibles sesgos algorítmicos que puedan perpetuar estereotipos o discriminación.
Formación docente: Los profesores deben ser los primeros en entender y saber manejar estas herramientas para poder guiar a sus alumnos. La alfabetización digital debe ser considerada una competencia básica y obligatoria.
Capacitación para operadores administrativos: Dado que la IA puede automatizar tareas de gestión (asistencia, calificaciones), el personal administrativo debe estar calificado para supervisar estos procesos y evitar errores sistémicos.
Cerrar la brecha digital: Las instituciones deben trabajar para que el acceso a la IA no se convierta en un factor más de exclusión. Es vital asegurar que todos los estudiantes, independientemente de su nivel socioeconómico, tengan acceso a las infraestructuras necesarias (conectividad y dispositivos).
Orientación a padres: Las instituciones deben actuar como puentes informativos, ayudando a los padres a entender que no deben ser observadores pasivos ni temer a la tecnología, sino acompañar a sus hijos en un uso crítico y ético de la misma.
No es neutral: Enseñar a los estudiantes que la tecnología tiene intencionalidades y limitaciones. Fomentar el análisis sobre cuándo es beneficioso usar la IA y cuándo su uso podría mermar la calidad del aprendizaje o la profundidad de la reflexión.
En resumen, la recomendación principal es "dirigir la tecnología para que no sea ella quien nos dirija", manteniendo siempre la educación como un esfuerzo colectivo, social y profundamente humano.
Adoptar estas prácticas ayudaría a navegar el creciente mundo de la IA de una manera informada y responsable, asegurando que la tecnología sirva para potenciar el aprendizaje y el desarrollo de los niños y jóvenes, en línea con una visión humanista y ética como la que promueve la UNESCO.
¡Feliz 2026!
