jueves, 19 de febrero de 2026

Más allá del código: ¿Qué reglas necesita la Inteligencia Artificial?

En su sitio web, la Organización para la Cooperación y el Desarrollo Económico (OCDE) define el término Inteligencia Artificial como un sistema, de la siguiente manera: 

Un sistema de IA es un sistema basado en máquinas que, para objetivos explícitos o implícitos, infiere, a partir de la información que recibe, cómo generar resultados como predicciones, contenido, recomendaciones o decisiones que pueden influir en entornos físicos o virtuales. Los diferentes sistemas de IA varían en sus niveles de autonomía y adaptabilidad después de su implementación.

Partir de esta definición es clave para poder tener comprender que cuando nos referimos a la Inteligencia Artificial (IA) estamos considerando un campo en múltiples dimensiones de impacto social, mucho más amplio que el chatGPT.

La inteligencia artificial avanza rápidamente, y con ella surgen oportunidades transformadoras, pero también retos críticos para las sociedades globales. El informe publicado por la OECD.AI traza un camino hacia un futuro más equilibrado y seguro para la IA.

El informe analiza los posibles beneficios y riesgos futuros de la (IA), y propone acciones prioritarias para maximizar su impacto positivo mientras se mitigan los peligros. Además, lo sintetiza en diez puntos claves, de mayor relevancia a atender: 

  • desmarcada

    10 beneficios prioritarios: desde avances científicos acelerados hasta servicios personalizados en salud y educación, pasando por una mayor transparencia institucional.

  • desmarcada

    10 riesgos clave: contempla temas que refieren a manipulación de la información, concentración de poder y la necesidad de alinear los sistemas de IA con valores humanos, entre otros.

  • desmarcada

    10 acciones prioritarias para políticas públicas: se proponen una serie de definiciones de reglas claras, inversión en investigación de seguridad en IA y promoción de habilidades laborales para un futuro impulsado por la IA.

El informe evalúa escenarios, tendencias y medidas de gobernanza para asegurar un desarrollo responsable de la IA.

1. Beneficios de la IA

La IA tiene el potencial de transformar la sociedad y la economía, generando impactos positivos en diversas áreas:

  • Avances científicos: Aceleración del descubrimiento de nuevos tratamientos médicos y soluciones tecnológicas.

  • Crecimiento económico y productividad: Optimización de procesos en la industria y los servicios, aumentando la eficiencia.

  • Reducción de la desigualdad: Posibilidades de mejorar el acceso a la educación, la salud y el empleo.

  • Mejor toma de decisiones: Mayor capacidad para analizar datos y hacer predicciones precisas en múltiples sectores.

  • Educación y salud personalizadas: Herramientas de IA que adaptan el aprendizaje y los tratamientos médicos a las necesidades individuales.

  • Mayor transparencia y participación ciudadana: Uso de IA para mejorar la supervisión de gobiernos e instituciones.

  • Automatización de tareas peligrosas: Reducción del riesgo laboral al delegar tareas peligrosas en sistemas autónomos.

2. Riesgos de la IA

El informe también señala desafíos significativos que deben abordarse:

  • Ciberataques avanzados: La IA puede facilitar ataques más sofisticados a infraestructuras críticas.

  • Desinformación y manipulación: Uso de IA para generar noticias falsas y engañosas, afectando la democracia.

  • Carrera tecnológica sin regulación: Competencia acelerada entre empresas y países sin suficiente inversión en seguridad.

  • Concentración de poder: Dominio de la IA por un pequeño grupo de empresas o naciones, afectando la equidad global.

  • Impacto en el empleo: Automatización que puede reemplazar ciertos trabajos sin generar suficientes alternativas.

  • Vigilancia masiva y privacidad: Expansión del uso de IA para monitorear a las personas sin controles adecuados.

  • Falta de explicabilidad: Decisiones tomadas por IA sin que los humanos puedan entender o cuestionar su lógica.

3. Acciones Prioritarias

Para garantizar un desarrollo seguro y equitativo de la IA, el informe sugiere diez acciones clave:

  • Establecer regulaciones claras sobre responsabilidad y daños causados por IA.

  • Definir usos prohibidos de la IA para evitar aplicaciones peligrosas.

  • Asegurar la transparencia de los sistemas de IA y la divulgación de información clave.

  • Implementar procedimientos de gestión de riesgos en toda la vida útil de los sistemas de IA.

  • Evitar dinámicas de competencia que prioricen la velocidad sobre la seguridad.

  • Invertir en investigación para mejorar la seguridad y confiabilidad de la IA.

  • Capacitar a la población en habilidades digitales y de IA para afrontar cambios en el empleo.

  • Fomentar la participación social en la regulación y supervisión de la IA.

  • Prevenir la concentración de poder en pocas empresas o países.

  • Promover el desarrollo de IA en áreas estratégicas como salud, educación y sostenibilidad.

Con ayuda de chatGPT,  comparto un cuadro “comparativo” para destacar puntualmente el alcance de los beneficios, riesgos y acciones propuestos en el informe, a las familias. De lo propuesto por el chatGPT, puede observarse que la mayoría de los puntos destacados, tienen un alcance significativo a las familias. 

Comparación: Beneficios Generales vs. Beneficios para las Familias


Beneficios Generales

Beneficios para las Familias

Avances científicos: IA impulsa descubrimientos médicos y nuevas tecnologías.

Salud personalizada: Diagnósticos más precisos y tratamientos adaptados a cada miembro de la familia.

Crecimiento económico: Mejora la productividad y eficiencia en el trabajo.

Seguridad laboral y oportunidades: Puede generar nuevos empleos, pero es clave preparar a los jóvenes con habilidades digitales.

Reducción de la desigualdad: Facilita el acceso a educación y salud en comunidades vulnerables.

Acceso a educación de calidad: Plataformas de aprendizaje personalizadas para niños y adultos.

Mejor toma de decisiones: Análisis de datos para predecir tendencias y optimizar procesos.

Apoyo en la vida cotidiana: IA ayuda en planificación financiera, administración del hogar y educación de los hijos.

Educación y salud personalizadas: Adaptación de contenido educativo y tratamientos médicos según necesidades.

Tutoría personalizada: Herramientas de IA para reforzar el aprendizaje en casa.

Mayor transparencia y participación: Mejora la supervisión de gobiernos y empresas.

Protección contra desinformación: Enseñar a las familias a identificar noticias falsas generadas por IA.

Automatización de tareas peligrosas: Reduce riesgos en entornos laborales.

Mayor seguridad en el hogar: Dispositivos de IA para monitoreo y prevención de accidentes.



Comparación: Riesgos Generales vs. Riesgos para las Familias


Riesgos Generales

Riesgos para las Familias

Ciberataques avanzados: La IA facilita ataques más sofisticados a sistemas críticos.

Seguridad digital en el hogar: Protecciones contra robos de identidad y ciberataques a dispositivos familiares.

Desinformación y manipulación: IA puede generar noticias falsas y engañar a las personas.

Exposición infantil a contenido falso: Los niños pueden ser vulnerables a información errónea o manipulaciones en redes sociales.

Carrera tecnológica sin regulación: Desarrollo apresurado sin suficiente control.

Uso de IA sin supervisión: Riesgo de depender de IA sin entender sus limitaciones o sesgos.

Concentración de poder: Dominio de la IA por pocas empresas o países.

Acceso desigual a la tecnología: No todas las familias tienen los mismos recursos para aprovechar la IA.

Impacto en el empleo: Automatización reemplaza trabajos sin generar suficientes alternativas.

Desempleo en sectores tradicionales: Familias deben prepararse para nuevas oportunidades de empleo en la era digital.

Vigilancia y pérdida de privacidad: IA puede usarse para recopilar datos sin consentimiento.

Protección de datos familiares: Evitar que información personal de niños y adultos sea usada sin autorización.

Falta de explicabilidad: Las decisiones de la IA pueden ser difíciles de entender.

Decisiones sin control parental: Aplicaciones y juegos con IA pueden influir en los niños sin que los padres lo noten.


Comparación: Acciones Prioritarias Generales vs. Acciones para las Familias


Acciones Prioritarias Generales

Acciones para las Familias

Regulación y responsabilidad legal: Normas claras sobre el uso de IA.

Control del uso de IA en casa: Supervisar qué aplicaciones usan los niños y qué datos comparten.

Transparencia y divulgación de información sobre IA.

Educación digital: Enseñar a toda la familia cómo funciona la IA y sus riesgos.

Gestión de riesgos en el desarrollo y uso de IA.

Seguridad en el hogar: Implementar contraseñas seguras y revisar configuraciones de privacidad en dispositivos.

Evitar la competencia desenfrenada sin ética.

Uso responsable de la tecnología: Establecer límites en el uso de IA para no reemplazar la interacción humana.

Inversión en IA segura y confiable.

Promoción de habilidades digitales: Preparar a los niños para el futuro laboral con conocimientos en tecnología.

Capacitación laboral para la era de la IA.

Preparación para cambios laborales: Buscar oportunidades de formación y adaptación a nuevos empleos.

Protección contra la concentración de poder en IA.

Acceso equitativo a tecnología: Buscar opciones asequibles para que toda la familia se beneficie de la IA.


Conclusión

El informe destaca que la IA puede ser una fuerza para el bien, pero solo si se gestiona de manera adecuada. Para ello, es fundamental que gobiernos, empresas y la sociedad trabajen juntos en la regulación, la educación y el desarrollo responsable de esta tecnología.

En resumen, la IA ofrece grandes oportunidades, pero también desafíos significativos. Para las familias, la clave está en la educación, la protección de la privacidad y la preparación para un mundo cada vez más digitalizado.

El camino adecuado no es ignorar ni prohibir estas tecnologías, sino comprender sus capacidades y limitaciones para integrarlas eficazmente.

martes, 27 de enero de 2026

Un segundo balance 2025: El uso de la IA y el futuro que queremos

Comenzó un nuevo año, y a modo de completar las reflexiones sobre la Inteligencia Artificial (IA) y sus implicancias en la educación del último post de 2025, traigo a esta segunda parte algunas ideas asociadas más específicamente al interior de las instituciones educativas.

El artículo publicado por la UNESCO, El uso de la IA en educación: decidir el futuro que queremos, nos invita a una reflexión profunda y necesaria: la Inteligencia Artificial (IA) ya no es una tecnología del futuro lejano, sino una realidad presente que está transformando múltiples aspectos de nuestra vida, incluida la educación de nuestros hijos. La IA ofrece herramientas potencialmente poderosas para personalizar el aprendizaje, facilitar el acceso a la información y desarrollar nuevas habilidades. Sin embargo, su implementación no está exenta de desafíos y riesgos significativos.

¿Cómo abordar el tema al interior de las instituciones educativas y en la comunidad toda?

No podemos ser meros espectadores. La IA, y en particular la IA Generativa, ha entrado en nuestros hogares a través de aplicaciones educativas, asistentes virtuales y herramientas de búsqueda que nuestros hijos utilizan. La visión de la UNESCO de "decidir el futuro que queremos" nos llama a tomar un papel activo. No se trata de aceptar la tecnología ciegamente ni de rechazarla por completo, sino de entenderla, guiar su uso y asegurarnos de que se alinee con nuestros valores y el bienestar integral de nuestros hijos.

Los riesgos que preocupan a organismos como la UNESCO, tales como sesgos algorítmicos, privacidad de datos, brecha digital, posible disminución del pensamiento crítico si se usa pasivamente, son preocupaciones al interior de las instituciones ¿Cómo aseguramos que la IA sea una herramienta que apoye y no reemplace la interacción humana, la creatividad y la capacidad de resolver problemas de forma independiente? ¿Cómo garantizamos que su uso sea equitativo y no profundice las desigualdades?

En síntesis, la IA no es un fenómeno externo, y su impacto requiere un análisis riguroso, interdisciplinar y con mirada ética.

En este sentido, durante 2025 nos propusimos comprender cómo los estudiantes están viviendo la irrupción de la inteligencia artificial en sus procesos formativos. Nos interesaba conocer no solo sus usos cotidianos, sino también las expectativas, miedos y dilemas éticos que acompañan esta nueva realidad académica.

En una primera etapa del proyecto, obtuvimos resultados cualitativos que arrojan información muy valiosa.

Hemos identificado seis patrones principales:

1️ Uso frecuente y diversificado. Los estudiantes emplean ChatGPT y otras IAs para generar ideas, resumir textos, organizar contenidos y mejorar el diseño visual de sus presentaciones o proyectos.

2️ Valoración ambivalente. Reconocen el enorme potencial de la IA como apoyo, pero rechazan que sustituya al docente. El contacto humano, el diálogo y la retroalimentación siguen siendo vistos como insustituibles.

3️ Preocupaciones éticas. Existe inquietud por la vigilancia automatizada y los sistemas de detección de plagio, que pueden generar falsos positivos y vulnerar la privacidad del estudiante.

4️ Desigualdad digital. Detectan brechas entre quienes pueden pagar versiones premium de IA y quienes dependen de herramientas gratuitas con menos prestaciones.

5️ Sesgos algorítmicos. Se percibe riesgo de que los sistemas reproduzcan estereotipos de género, raza o ideología, afectando la objetividad del aprendizaje.

6️ Formación insuficiente. Los alumnos señalan que las universidades aún no ofrecen capacitación suficiente sobre el uso crítico y ético de la IA. Reclaman talleres, asignaturas específicas y acompañamiento docente.

Estas percepciones se sintetizan en una idea central: los estudiantes no quieren prohibiciones, sino formación, transparencia y orientación.


¿Qué ocurre del lado de la escuela? ¿Qué se necesita para un adecuado uso educativo de la IA?

Una investigación realizada en el mismo año por investigadoras del CIAE de la Universidad de Chile, advierte sobre la formación docente para integrar la IA: ¿Está la escuela preparada para la IA?

De acuerdo a lo estudiado por las expertas, son cinco puntos los que "frenan" el uso educativo de la IA:

1️ Formación docente deficiente. La gran mayoría de los docentes declara no haber recibido ningún tipo de formación sobre inteligencia artificial, ni en su formación inicial ni en capacitaciones recientes. Esto limita su capacidad para usarla con sentido crítico y pedagógico.

2️ Falta de lineamientos institucionales. La ausencia de marcos normativos claros genera incertidumbre respecto a cómo, cuándo y para qué usar estas tecnologías en el aula.

3️ Brechas tecnológicas persistentes. La infraestructura digital sigue siendo un obstáculo grave, especialmente en establecimientos con menos recursos. Problemas de conectividad, acceso desigual a dispositivos y falta de soporte técnico restringen cualquier intento de innovación.

4️Escaso acompañamiento pedagógico. Los docentes no cuentan con asesorías ni referentes internos que los guíen en el uso reflexivo de IA, lo que alimenta la sensación de aislamiento frente a un fenómeno complejo.

5️Culturas escolares conservadoras. En muchos establecimientos, la IA no se discute como tema educativo. Persiste una mirada reduccionista, centrada en automatización de tareas, sin análisis crítico de sus implicancias formativas.


Partiendo entonces de la premisa que la tecnología
debe estar al servicio de las personas, la clave es un abordaje de la IA desde un enfoque humanista y ético, priorizando el desarrollo de habilidades críticas, la seguridad digital y el diálogo constante sobre cómo y por qué usamos estas herramientas. La IA puede ser un aliado extraordinario, pero solo si la manejamos con conciencia, criterio y poniendo en el centro el bienestar de nuestros hijos.

Sin dudas, la temática merece ser abordada desde una visión integral: escuela - familias.

Complementando estas evidencias con el artículo de la UNESCO, algunas recomendaciones para el uso de la IA al interior de las instituciones educativas, en diálogo con Gemini:

Adoptar un Enfoque Centrado en el Ser Humano

  • La IA como complemento, no como sustituto: Las instituciones deben reforzar la idea de que la IA es una herramienta para potenciar las capacidades humanas. La interacción docente-estudiante, el apoyo emocional y el contexto social que ofrece la escuela son irreemplazables.

  • Mantener la autonomía humana: Asegurar que los docentes y directivos mantengan el control final sobre las decisiones críticas (como admisiones o evaluaciones definitivas) y que la tecnología no dicte el rumbo pedagógico de forma autónoma.


Actualizar los Sistemas de Evaluación

  • Rediseñar la medición del aprendizaje: Ante la capacidad de la IA para superar exámenes estandarizados, las instituciones deben priorizar métodos que evalúen el pensamiento crítico, la creatividad y la resolución de problemas complejos, en lugar de la simple memorización o reproducción de textos.

  • Innovación pedagógica: Reevaluar qué competencias son ahora prioritarias para los estudiantes en un mundo donde la IA puede realizar tareas técnicas y de redacción básica.


Establecer "Líneas Rojas" y Éticas

  • Protección de datos y privacidad: Implementar protocolos rigurosos para garantizar que la información de los estudiantes no sea vulnerada ni utilizada comercialmente por las plataformas de IA.

  • Límites de edad: Siguiendo la recomendación de la UNESCO, se sugiere establecer un límite de edad mínimo (como los 13 años) para el uso independiente de herramientas de IA generativa en el aula, siempre bajo supervisión docente.

  • Mitigación de sesgos: Capacitar a la comunidad educativa para identificar posibles sesgos algorítmicos que puedan perpetuar estereotipos o discriminación.


Invertir en Capacitación y Alfabetización Digital

  • Formación docente: Los profesores deben ser los primeros en entender y saber manejar estas herramientas para poder guiar a sus alumnos. La alfabetización digital debe ser considerada una competencia básica y obligatoria.

  • Capacitación para operadores administrativos: Dado que la IA puede automatizar tareas de gestión (asistencia, calificaciones), el personal administrativo debe estar calificado para supervisar estos procesos y evitar errores sistémicos.


Promover la Equidad y la Inclusión

  • Cerrar la brecha digital: Las instituciones deben trabajar para que el acceso a la IA no se convierta en un factor más de exclusión. Es vital asegurar que todos los estudiantes, independientemente de su nivel socioeconómico, tengan acceso a las infraestructuras necesarias (conectividad y dispositivos).


Involucrar a las Familias

  • Orientación a padres: Las instituciones deben actuar como puentes informativos, ayudando a los padres a entender que no deben ser observadores pasivos ni temer a la tecnología, sino acompañar a sus hijos en un uso crítico y ético de la misma.


Fomentar el Pensamiento Crítico sobre la Tecnología

  • No es neutral: Enseñar a los estudiantes que la tecnología tiene intencionalidades y limitaciones. Fomentar el análisis sobre cuándo es beneficioso usar la IA y cuándo su uso podría mermar la calidad del aprendizaje o la profundidad de la reflexión.

En resumen, la recomendación principal es "dirigir la tecnología para que no sea ella quien nos dirija", manteniendo siempre la educación como un esfuerzo colectivo, social y profundamente humano.

Adoptar estas prácticas ayudaría a navegar el creciente mundo de la IA de una manera informada y responsable, asegurando que la tecnología sirva para potenciar el aprendizaje y el desarrollo de los niños y jóvenes, en línea con una visión humanista y ética como la que promueve la UNESCO.

¡Feliz 2026!