Cómo regular el uso de la inteligencia artificial en educación

El desarrollo de la inteligencia artificial nos ha situado en un momento crucial como pocos en el desarrollo de la historia de la humanidad. Sin embargo, la magnitud de sus beneficios es proporcional a la importancia de sus riesgos. Por eso, regularla bien desde el principio resulta vital para que podamos maximizar sus bondades evitando sus peligros. Lo vemos en este artículo.

Cómo regular el uso de la inteligencia artificial en educación

La inteligencia artificial (IA) ha llegado para transformar nuestra sociedad en múltiples aspectos, ofreciendo soluciones innovadoras y mejorando la calidad de vida de las personas en todo el mundo. Desde la atención médica hasta la optimización de la producción agrícola, la IA ha demostrado su capacidad para revolucionar diversos sectores y crear un futuro más eficiente y prometedor para todos. En educación, la IA también se ha abierto camino en las aulas, facilitando, por ejemplo, una enseñanza personalizada y adaptable a las necesidades de cada estudiante o aliviando la carga de trabajo de los docentes, permitiéndoles concentrarse en el desarrollo de habilidades esenciales en sus alumnos.

Sin embargo, a pesas de estos grandes beneficios, la inteligencia artificial es una tecnología muy potente que también nos plantea desafíos gigantescos relacionados sobre todo con cuestiones éticas y de seguridad que deben ser abordadas de la manera adecuada.

Marcos regulatorios

Así las cosas, la regulación de la IA se ha convertido en una prioridad global y gobiernos y organismos internacionales están acelerando sus esfuerzos regulatorios. Las declaraciones de principios han dejado de ser suficiente ante el avance imparable de esta tecnología que acaba de “obligar” al presidente de Estados Unidos a utilizar una ley de tiempos de guerra para obligar a las tecnológicas a notificar al Gobierno cualquier avance que suponga un riesgo grave para la seguridad nacional.

La UE también ultima su propia norma: la Ley de Inteligencia Artificial (AI Act), con el objetivo de introducir un marco normativo y jurídico común para controlar su uso en los países miembro. De concretarse el proyecto normativo, Europa se convertirá en la primera región del mundo en tener un marco regulatorio vigente alrededor de esta tecnología. Para evitar quedar desfasada antes de nacer, la ley regula los usos de la y tecnologías, y no las tecnologías concretas. Para ello, se basa en una clasificación de los riesgos que la inteligencia artificial podría suponer para la seguridad, la salud o los derechos fundamentales de una persona en cada caso. El marco incluye cuatro niveles de riesgo: inaceptable, alto, limitado y mínimo, y en función de estos niveles, determina obligaciones para proveedores y usuarios.

Mientras la UE ultima los detalles de esta Ley, las principales potencias mundiales convocadas por el Primer Ministro del Reino Unido se reunían en la primera cumbre mundial sobre seguridad e IA. Una cumbre celebrada en un lugar muy simbólico, Bletchley Park, el lugar donde Alan Turing, padre de la inteligencia artificial, y 10.000 criptoanalistas descifraban a diario los mensajes cifrados con los que se comunicaba el ejército alemán, y que ha derivado en un acuerdo histórico, la Declaración de Bletchley, en la que los países firmantes se comprometen a impulsar la cooperación para evitar los futuros riesgos derivados de la IA.

Los principios que deben guiar el desarrollo y la implementación de la IA

Antes de las cumbres, las leyes de guerra y los proyectos de ley, estaban los principios. Los principios elaborados por la OCDE en mayo de 2019, avalados por el G-20 en la Cumbre de Osaka, y adoptados por 42 países en París. Estos principios pueden resumirse en:

  • IA inclusiva, sostenible y centrada en las personas. La IA debe estar al servicio de las personas y del planeta, impulsando un crecimiento inclusivo, el desarrollo sostenible y el bienestar.
  • Los sistemas de IA deben diseñarse de manera que respeten el Estado de derecho, los derechos humanos, los valores democráticos y la diversidad, e incorporar salvaguardias adecuadas —por ejemplo, permitiendo la intervención humana cuando sea necesario— con miras a garantizar una sociedad justa y equitativa.
  • IA transparente y responsable. Los sistemas de IA deben estar presididos por la transparencia y una divulgación responsable a fin de garantizar que las personas sepan cuándo están interactuando con ellos y puedan oponerse a los resultados de esa interacción.
  • IA robusta, segura y evaluable. Los sistemas de IA han de funcionar con robustez, de manera fiable y segura durante toda su vida útil, y los potenciales riesgos deberán evaluarse y gestionarse en todo momento.

    Inteligencia artificial y educación: unas guías para las futuras políticas públicas

    Inteligencia artificial y políticas públicas

    Un momento de la sesión «Inteligencia artificial y educación: una guía para las futuras políticas públicas», en EnlightED 2023.

    Definidos los beneficios, los desafíos, los principios y las declaraciones, quizás sea el momento de preguntarse cómo pasar a la acción. ¿Cómo garantizar el desarrollo de la IA, en ámbitos tan importantes y sensibles como la educación, maximizando sus beneficios y minimizando sus riesgos? ¿Qué debemos priorizar y qué obstáculos debemos evitar? ¿Cómo asegurarnos de que la IA en educación se usa de una forma transparente, clara y segura? ¿Cuáles son los beneficios y los riesgos potenciales del uso de herramientas basadas en IA en educación que deben ser cuidadosamente considerados por los responsables políticos?

    En su pasada edición, la conferencia mundial de tecnología y educación, EnlightED, intentó dar respuesta a estas preguntas con la ayuda de varios expertos. A continuación, resumiremos algunas de sus intervenciones.

    Una visión holística a tres niveles: macro, meso y micro

    “Tenemos multitud de marcos y principios, lo que falta es hacerlos efectivos”. Así comenzaba su intervención Liliana Arroyo, directora general de sociedad digital de la Generalitat de Cataluña. ¿Cómo lo hacemos? “Necesitamos una visión holística sin perder atención en los detalles.” Por eso, Arroyo defendió una aproximación a tres niveles: macro, meso y micro. “A nivel macro, tenemos todos los marcos ya mencionados, que están de acuerdo en que tenemos que tener un sistema de gobierno de la IA.” Este nivel tiene que estar formado por diferentes partes y debe guiarse por la cooperación internacional. “Luego tenemos el nivel meso, el nivel medio, el dominio organizativo.” Son los espacios de formación. Los espacios que educan a las personas que van a desarrollar estas soluciones tecnológicas. “Estas instituciones deben tomar estos principios como referencia, testarlos para decirnos qué es lo que funciona y lo que no, combinar investigación y práctica, con comunidades de práctica que testen y sirvan de apoyo, no solo entre pares, sino entre diferentes actores.” Pero los detalles son muy importantes. Y por eso no podemos dejar de lado el nivel micro, “el del individuo.” Explica Arroyo. “Los individuos tienen que saber como poner esto en práctica.” No sirve de nada tener una legislación internacional buena y efectiva y comunidades de práctica estupendas si los individuos en sus experiencias diarias y cotidianas no saben cómo poner esto en práctica, cómo hacerlo una realidad.


Tenemos multitud de marcos y principios, lo que falta es hacerlos efectivos.

Debemos cambiar lo que necesitamos aprender

Por su parte, el investigador y profesor de Ciencias de la Computación Fredrik Heintz, gran experto en IA confiable, centró su intervención en los cambios que la inteligencia artificial va a traer a la educación y en cómo podemos actuar antes estos cambios. Por ejemplo, debemos dejar de centrarnos en las respuestas y centrarnos en las preguntas: “Tradicionalmente, la educación ha girado en torno a responder preguntas claramente definidas. En este caso, podemos pensar que habrá un cambio radical. Ahora que estas herramientas de IA responden tan bien a las preguntas, debemos aprender a hacer las preguntas adecuadas y examinar de forma crítica las respuestas.” Este experto considera, además, que la IA debe dejar de contemplarse como una materia técnica “ya que es algo que influye en todos los aspectos de la educación.” Por eso, todas las profesiones, todas las disciplinas deberían tener un conocimiento suficiente sobre IA y cómo ésta afecta a su ámbito específico de acción.

Así, para concluir, el investigador advertía: “Tengo una visión muy positiva sobre el desarrollo de la Inteligencia artificial; pero sí que creo que tenemos que tomarnos muy en serio el aspecto educativo y debemos pensar en cómo influye en nuestra forma de enseñar y en cómo tenemos que dar a todo el mundo en la sociedad un mayor y un mejor conocimiento de lo que es para utilizarla como una herramienta que nos permita abordar los retos a los que nos enfrentamos.”

Tenemos que tomarnos muy en serio el aspecto educativo de la IA: pensar en cómo influye en nuestra forma de enseñar y en cómo tenemos que dar a todo el mundo un mayor y un mejor conocimiento de lo que es para utilizarla como una herramienta que nos permita abordar los retos a los que nos enfrentamos.

Aterrizar la inteligencia artificial: de las grandes declaraciones a la realidad de las personas

Luis Magdalena, catedrático de Ciencias de la Computación e IA y vicepresidente de la Sociedad Española para la Inteligencia Artificial, habló de la necesidad de aterrizar la IA: “Tenemos muchas declaraciones, muchos documentos que hablan de por qué se necesita la IA en  la educación. Pero todos ellos se han escrito a un nivel muy elevado. Los principios están muy bien, pero tenemos que pensar también que la educación es ubicua y es preciso hacer una definición sobre el terreno. Transferir las ideas y principios para convencer a las personas. Plantearnos el porqué de todo esto y pensar en una respuesta, no a nivel humanidad sino a nivel de cosas más tangibles.” Esto, explica Magdalena, hay que hacerlo con muchísimo cuidado para “no dar pasos demasiado rápido y llegar demasiado lejos, demasiado pronto.” Muchos “demasiado” que tener en cuenta. Hay que tomar las decisiones adecuadas de forma consciente y por eso es tan importante educar sobre inteligencia artificial: “Si vamos introducir una tecnología totalmente nueva tenemos que ayudar a las personas que van a utilizar esta herramienta: tenemos que formarlos, tenemos que tener unas estructuras que los ayuden, tenemos que contar con el apoyo de personas del sector audiovisual, del sector informático… para poder asistir a las personas que van a utilizar la tecnología.”

Estas precauciones también implican “no poner todos los huevos en la misma cesta de la inteligencia artificial”, dejando espacio para que las personas desarrollen su propia autonomía y pensamiento crítico. Así que elegir bien para qué queremos utilizar esta herramienta y ayudar a las personas para que aprendan a usarla. De lo contrario, “el sistema acabará rompiéndose. Y se romperá por la parte de los alumnos, o de los profesores o, incluso, de los padres que muchas veces están preocupados por esta tecnología que está llegando a su casa y que no saben cómo usar para ayudar a sus hijos.”

Debemos tener muchísimo cuidado para no dar pasos demasiado rápido y llegar demasiado lejos, demasiado pronto.

Una oportunidad única

Nos encontramos en un momento crucial como pocos en el desarrollo de la historia de la humanidad. Un momento que va a cambiar el rumbo de la historia de manera similar a como en otros momentos lo cambió la invención de la imprenta o el descubrimiento del fuego. Los responsables políticos deben tomar grandes decisiones rápida pero cuidadosamente. Un equilibrio difícil del que dependerá el rumbo de nuestra historia en los próximos años.

Imagen de portada: Imagen de upklyak en Freepik.

También podría interesarte