La digitalización educativa ha avanzado en pocos años a una velocidad difícil de imaginar hace apenas una década. Plataformas de aprendizaje, sistemas de gestión escolar, analítica de datos o herramientas basadas en inteligencia artificial forman ya parte del funcionamiento cotidiano de muchos centros educativos. Y esto, no nos engañemos, nos ha pillado muy desprevenidos.
En los últimos años, intentamos ponernos al día centrando el debate en su potencial pedagógico o en su utilidad para mejorar la gestión de los sistemas educativos. Sin embargo, a medida que estas herramientas se consolidan, hay otras cuestiones muy importantes que poner sobre la mesa. La expansión de plataformas digitales plantea preguntas que no son solo pedagógicas o técnicas, sino también normativas: por ejemplo, quién controla los datos que generan los estudiantes, qué información se recoge sobre sus trayectorias o cómo funcionan los algoritmos que intervienen en los procesos de aprendizaje.
Estas cuestiones conectan la digitalización educativa con un debate más amplio: el de los llamados derechos digitales en el que la escuela es un espacio especialmente sensible de la discusión.
La Carta de Derechos Digitales: un marco de referencia, no una ley
En 2021 el Gobierno español presentó la Carta de Derechos Digitales, un documento que intenta responder a una pregunta cada vez más presente en sociedades profundamente digitalizadas: cómo trasladar los derechos fundamentales al entorno tecnológico contemporáneo.
La Carta no es una ley ni crea obligaciones jurídicas directas. Su función es más bien programática. Se trata de un marco de principios destinado a orientar futuras regulaciones, políticas públicas y prácticas institucionales en un contexto marcado por la expansión de internet, las plataformas digitales y la inteligencia artificial.
Su punto de partida es que los derechos que ya existen (privacidad, libertad de expresión, igualdad o protección frente a la discriminación), y están consagrados en la mayor parte de las constituciones de países democráticos, deben seguir vigentes cuando la vida social se desarrolla en entornos digitales.
Sin embargo, las tecnologías contemporáneas introducen situaciones nuevas que obligan a reinterpretar esos derechos. El documento aborda cuestiones como la protección de datos personales, la identidad digital, la transparencia de los sistemas automatizados o la protección de menores en internet.
Algunos de estos principios tienen una relación directa con la educación. La carta subraya, por ejemplo, la necesidad de proteger la privacidad de los menores en el entorno digital y de garantizar que el uso de tecnologías no genere nuevas formas de discriminación. También plantea la importancia de la transparencia en los sistemas algorítmicos que puedan influir en decisiones relevantes para las personas, una cuestión que adquiere especial relevancia a medida que herramientas basadas en inteligencia artificial empiezan a incorporarse a procesos educativos.
El documento dedica además un apartado específico al derecho a la educación en el entorno digital. En él se subraya que la incorporación de tecnologías debe contribuir a ampliar oportunidades educativas y no a reproducir desigualdades existentes. También se destaca la importancia de desarrollar competencias digitales críticas que permitan comprender cómo funcionan las tecnologías y cuáles son sus implicaciones sociales.
Su alcance jurídico es limitado y su marco de referencia es el contexto español. Pero su importancia reside en otra parte: en introducir un lenguaje que permite pensar la digitalización desde la perspectiva de los derechos. Y ese lenguaje, más allá de las fronteras nacionales, conecta con una conversación internacional cada vez más amplia sobre cómo gobernar el desarrollo tecnológico.
Un debate que ya es global
En los últimos años, distintos países y organismos internacionales han empezado a desarrollar marcos destinados a adaptar la protección de derechos al entorno digital. El objetivo es similar en todos los casos: asegurar que la expansión de tecnologías como las plataformas digitales, el tratamiento masivo de datos o la inteligencia artificial se desarrolle dentro de límites compatibles con los derechos fundamentales.
Europa ha sido uno de los espacios donde este debate ha tomado forma con mayor claridad. Un ejemplo significativo es la Artificial Intelligence Act, la primera regulación integral sobre inteligencia artificial adoptada por la Unión Europea.
La norma introduce un enfoque basado en niveles de riesgo y establece obligaciones más estrictas para los usos considerados sensibles. Entre ellos aparece el ámbito educativo. Los sistemas de inteligencia artificial que puedan influir en decisiones relevantes —como procesos de admisión, evaluación o seguimiento del rendimiento académico— pueden clasificarse como aplicaciones de alto riesgo y quedar sujetos a requisitos específicos de transparencia, supervisión humana y responsabilidad institucional.
En paralelo, organismos multilaterales han elaborado recomendaciones destinadas a orientar el desarrollo ético de estas tecnologías. La UNESCO Recommendation on the Ethics of Artificial Intelligence, adoptada por los Estados miembros de la organización, subraya la necesidad de garantizar que el desarrollo de la inteligencia artificial respete los derechos humanos, promueva la equidad y evite nuevas formas de exclusión.
Estos marcos comparten la constatación de que, como ya hemos dicho, las tecnologías digitales se han convertido en infraestructuras centrales de la vida social. Internet, las plataformas digitales o la inteligencia artificial no son ya herramientas marginales, sino sistemas que influyen en decisiones relevantes para millones de personas. En ese contexto, confiar únicamente en la innovación tecnológica o en la autorregulación de las empresas resulta insuficiente. Se necesitan marcos institucionales capaces de acompañar ese desarrollo.
En la escuela los usuarios son menores. Un estudiante no puede decidir si utiliza o no la plataforma de su centro. No puede negociar condiciones ni elegir proveedor.
Derechos digitales en contextos educativos vulnerables
Cuando el debate sobre derechos digitales se traslada a contextos educativos vulnerables, el punto de partida cambia. En muchos países, la primera preocupación no es la regulación de algoritmos o la protección avanzada de datos, sino algo más básico: el acceso mismo a la infraestructura digital. Sin conectividad estable, dispositivos disponibles o plataformas accesibles, la discusión sobre derechos en el entorno digital corre el riesgo de quedarse en un plano abstracto.
Sin embargo, precisamente por esa razón la cuestión de los derechos digitales adquiere una dimensión particular en estos contextos. Cuando los sistemas educativos dependen en gran medida de soluciones tecnológicas proporcionadas por actores externos como empresas, fundaciones o iniciativas internacionales, las decisiones sobre plataformas, datos o infraestructuras educativas no siempre se toman dentro del propio sistema educativo. Esto puede limitar la capacidad de los Estados y de las instituciones escolares para definir cómo se utilizan esas herramientas y bajo qué condiciones.
A ello se suma un segundo desafío: la capacidad institucional para regular y supervisar el uso de tecnología educativa. La gobernanza de datos educativos, la evaluación de sistemas automatizados o la definición de estándares de transparencia requieren recursos técnicos, marcos normativos y equipos especializados que muchos sistemas educativos todavía están construyendo.
En este contexto, el debate sobre derechos digitales no puede limitarse a la protección frente a posibles abusos tecnológicos. También debe incluir el derecho a participar en entornos digitales en condiciones equitativas y con garantías institucionales claras. La expansión de la tecnología educativa puede ampliar oportunidades de aprendizaje, pero solo si va acompañada de políticas que aseguren que esa transformación fortalece, y no debilita, la capacidad de los sistemas educativos para proteger los derechos de los estudiantes.
Educar también en derechos digitales
La digitalización educativa seguirá avanzando en los próximos años. Plataformas de aprendizaje, sistemas de analítica de datos o herramientas basadas en inteligencia artificial continuarán ampliando su presencia en las aulas y en la gestión de los sistemas educativos.
En ese contexto, el debate sobre los derechos digitales introduce una dimensión necesaria en la conversación sobre tecnología educativa. Documentos como la Carta de Derechos Digitales, junto con regulaciones emergentes como la Artificial Intelligence Act y otros marcos internacionales, reflejan una preocupación creciente por garantizar que la transformación digital se desarrolle dentro de límites compatibles con los derechos fundamentales.
La educación ocupa un lugar particular en esta discusión. No solo porque utiliza tecnologías que gestionan información sensible sobre millones de estudiantes, quienes además no tienen margen de decisión, sino también porque tiene la responsabilidad de preparar a las nuevas generaciones para desenvolverse en entornos cada vez más mediados por sistemas digitales.
Pensar en los derechos digitales en educación implica, por tanto, una doble tarea. Por un lado, establecer garantías institucionales claras para el uso de la tecnología en los sistemas educativos: protección de datos, transparencia en los sistemas automatizados y mecanismos de supervisión adecuados. Por otro, incorporar estos debates al propio proceso educativo, de modo que los estudiantes comprendan cómo funcionan los entornos digitales en los que participan y qué derechos les asisten en ellos.
Si la educación tiene como objetivo formar ciudadanos capaces de participar en sociedades democráticas, también debe prepararlos para ejercer sus derechos en el espacio donde hoy se organiza una parte creciente de la vida social: el entorno digital.


