Desmontando algunos mitos sobre las pantallas en educación

Cada época ha temido siempre a las cosas que anuncian un futuro distinto. Es por eso que las pantallas han entrado en las aulas como en su día los hicieran los libros, las pizarras o los mapas: con muchos recelos. Convertidas en villanas o en oráculos, hoy se multiplican los mitos a su alrededor. Este artículo recorre esas ficciones y las contrasta con voces y hechos que invitan a mirar la tecnología con ojos críticos, para descubrir que, al final, educar siempre ha sido aprender a convivir con lo nuevo.

Desmontando algunos mitos sobre las pantallas en educación

Pantallas y educación: mitosCada cierto tiempo, alguien anuncia el fin de la inteligencia. Primero fue la escritura, luego la televisión, después los videojuegos y, ahora, las pantallas y la inteligencia artificial. La historia de la educación parece escrita a golpes de pánico. Hoy, buena parte del debate se reduce a una pregunta: ¿tecnología sí o no? Y, como suele ocurrir, los cantos de sirena acaban silenciando las preguntas importantes: ¿Para qué puede servirnos? ¿Cómo la usamos? ¿Qué tipo de aprendizaje queremos promover?

El miedo a las pantallas es comprensible. Cambian nuestros hábitos, nuestra atención y la forma en la que accedemos al conocimiento. Pero confundir cambio con deterioro es un error tan antiguo como la propia cultura. Cada avance tecnológico ha provocado desconfianza antes de ser asumido como herramienta. Lo nuevo siempre parece una amenaza cuando no se comprende.

Este artículo no pretende convertir las pantallas en heroínas ni en culpables. Su propósito es mucho más modesto: examinar esos mitos que se repiten y se replican con aire de verdad revelada y, a través de estudios científicos y voces expertas, desmontar (o al menos intentarlo) algunos de ellos para poner las cosas en su sitio. Porque si algo debería enseñarnos la educación (también la digital) es a desconfiar de las simplificaciones y a mirar los hechos con un poco más de calma.

Mito 1: “Las pantallas entorpecen el aprendizaje y nos hacen más tontos”

Pocas frases se repiten tanto (y con tan poca base) como esta. Cada vez que aparece un nuevo dispositivo, alguien advierte que nos está volviendo más torpes, más distraídos, menos capaces de pensar por nosotros mismos. Ya se sabe: si algo cambia demasiado deprisa, debe de ser malo. Sin embargo, la evidencia no acompaña.

Hace unos meses, un estudio del MIT ocupó titulares en medio mundo al sugerir que usar ChatGPT podía deteriorar las habilidades de pensamiento crítico. La afirmación parecía demoledora y fue reproducida sin matices por buena parte de la prensa. Sin embargo, la educadora e investigadora Lara Crespo, en un magnífico artículo que inspiró en buena medida este texto, nos recordó algo esencial: estamos disfrazando el sensacionalismo de evidencia.

Como Crespo recordaba y demostraba en su artículo, el propio estudio reconocía sus límites. La muestra era reducida, las tareas muy acotadas y el experimento no se realizó en un contexto educativo real. De hecho, los autores admitían que los efectos observados eran provisionales, que el estudio aún no había pasado la prescriptiva revisión entre pares y que hacía falta más investigación antes de sacar conclusiones generales.

La evidencia acumulada apunta, más bien, en otra dirección. El psicólogo Richard Mayer, pionero en el estudio del aprendizaje multimedia, lleva décadas demostrando que los entornos digitales bien diseñados mejoran la comprensión, la retención y la transferencia del conocimiento. La clave está en el diseño pedagógico, no en la presencia o ausencia de pantallas.

Otros expertos, como Michael B. Horn, subrayan que la tecnología puede personalizar la enseñanza, adaptándola al ritmo y estilo de cada alumno. En un aula diversa, eso no es un capricho: es una herramienta de equidad.

Y como recuerda Carlos Magro, experto en innovación educativa, el problema no es tecnológico, sino pedagógico. “Si la escuela no da sentido al aprendizaje, los alumnos buscarán atajos —con o sin inteligencia artificial—”, advierte. Las pantallas no nos vuelven más tontos. Simplemente exigen que aprendamos de otro modo. Lo preocupante no es la herramienta, sino lo poco que hemos cambiado la forma de enseñar.

Mito 2: “Las pantallas son malas para la salud mental”

Este mito suena convincente porque parte de una preocupación real. El malestar asociado al uso excesivo de pantallas (ansiedad, insomnio, irritabilidad) existe. Pero convertir esa preocupación en una condena general es simplificar demasiado. La ciencia, hasta ahora, no ha encontrado una relación clara y directa entre pantallas y deterioro psicológico.

Asimismo, investigadores como Sonia Livingstone y Danah Boyd han mostrado que el impacto psicológico del uso de pantallas no depende tanto de la cantidad de tiempo frente a ellas, sino del tipo de actividad, del contexto relacional y del acompañamiento adulto. No es lo mismo ver videos de forma pasiva y solitaria durante horas, que participar en proyectos colaborativos, crear contenidos o resolver problemas con herramientas digitales en un entorno guiado.

Organismos como la Asociación Americana de Psicología (APA) o UNICEF proponen una “dieta digital equilibrada”: no eliminar la tecnología, sino enseñar a alternarla con descanso, actividad física y relaciones presenciales. En la misma línea, la psicóloga Marieth Lozano, del Colegio Colombiano de Psicólogos, recuerda que “se debe regular el uso de los celulares, más no prohibirlos”.

Sin embargo, la narrativa del daño persiste porque ofrece una explicación sencilla a problemas mucho más complejos. Como apunta el filósofo Gregorio Luri, prohibir los móviles “es una medida barata que promete resultados milagrosos para unos padres nerviosos”. La salud mental infantil se ve afectada por múltiples factores: la presión académica, la desigualdad, la falta de acompañamiento adulto. Culpar solo a la tecnología es una forma elegante de mirar hacia otro lado.

Un estudio de la Universidad de Oxford con más de 300.000 adolescentes no halló correlación sólida entre tiempo de pantalla y bienestar emocional. De hecho, detectó efectos positivos cuando el uso era activo y creativo.

En definitiva, las pantallas no son ni veneno ni terapia. Son el reflejo de nuestras prácticas. Si enseñamos a mirar con criterio y a desconectar con conciencia, pueden formar parte de una educación emocional más lúcida.

Pero nada de eso ocurre por sí solo. Los docentes tienen un papel decisivo: cuando proponen el uso de dispositivos y aplicaciones con propósitos educativos claros, dentro de una planificación coherente de actividades, dan sentido pedagógico al uso de la tecnología y la convierten en una herramienta de aprendizaje. También las familias son parte de este equilibrio: si promueven el uso de la tecnología con un propósito cooperativo —para resolver problemas, crear juntos o investigar—, y abandonan la idea de que las pantallas son niñeras eficientes y baratas, estarán ayudando a sus hijos a aprender a convivir con lo digital de forma saludable.

Las pantallas no son ni el enemigo ni el bálsamo de Fierabrás. Convertirlas en culpables o en salvadoras solo nos distrae de lo esencial: hoy por hoy, una de las tareas educativas más importantes consiste en aprender a convivir con ellas con criterio, justicia y humanidad.

Mito 3: “Las pantallas aumentan la desigualdad”

Pocas frases suenan tan razonables como esta. Si algunos tienen acceso a la tecnología y otros no, parece lógico pensar que la brecha se agranda. Y esto podría, en parte, llegar a ser cierto. Pero confundir el síntoma con la causa lleva a errores mayores. Las pantallas no crean la desigualdad: solamente la reflejan.

En contextos de vulnerabilidad, la escuela suele ser el único espacio donde los niños pueden acceder a internet, aprender competencias digitales o incluso tener un dispositivo. Prohibir las pantallas en esos entornos equivale, en la práctica, a cerrar una puerta más.

La pedagoga Mariana Maggio, de la Universidad de Buenos Aires, ha hablado de las “expulsiones invisibles” que produce esta desconexión. Los estudiantes que no aprenden a manejar tecnología en la escuela llegan a la universidad o al trabajo en desventaja, sin las habilidades digitales básicas que hoy se presuponen. No es un problema técnico, sino de justicia educativa.

También hay un riesgo de doble vara. Gregorio Luri lo resume irónico: “Las escuelas que ya tienen recursos seguirán usándolos; las que no, quedarán atrás. Y eso rompe la equidad.” Las políticas de prohibición suelen aplicarse con más rigor en los centros públicos que en los privados, perpetuando la brecha que dicen combatir.

La inclusión digital no consiste en llenar las aulas de tabletas, sino en garantizar acceso, acompañamiento y sentido pedagógico. Como recuerda el marco europeo DigCompEdu, formar ciudadanos digitales no implica usar pantallas sin control, sino enseñar a entenderlas, regularlas y aprovecharlas críticamente.

Negar esa oportunidad a los más vulnerables es una forma de exclusión silenciosa. Las pantallas no aumentan la desigualdad: lo hace la falta de políticas que aseguren que todos puedan aprender a usarlas. En un mundo digital, no enseñar tecnología es enseñar desigualdad.

Mito 4: “Se puede educar al margen del mundo digital”

Hay escuelas que siguen intentando educar como si el siglo XXI no hubiera empezado. Al prohibir las pantallas, creen estar preservando la atención, la calma o la pureza del aprendizaje, cuando en realidad lo que preservan es una forma de enseñar que pertenece a otro tiempo. Pretender formar ciudadanos sin tener en cuenta el mundo digital equivale a enseñar náutica sin salir nunca del puerto.

El educador Brandon Cardet-Hernández, exdirector de escuela en Nueva York, lo expresaba en unos términos difícilmente refutables: “Prohibir dispositivos desconecta a la escuela de la realidad digital de sus estudiantes.” El aula, en su opinión, debe ser un espacio donde los jóvenes aprendan a usar la tecnología con criterio, no donde se les enseñe a temerla.

Hablar hoy de educación es hablar, inevitablemente, de ciudadanía digital. Los alumnos viven, se comunican y aprenden en un ecosistema híbrido, donde lo presencial y lo virtual se entrelazan. Ignorar ese entorno no los protege: los deja solos frente a él. Por eso, cada vez más expertos coinciden en que enseñar a convivir con la tecnología es parte de la misión educativa, no una distracción de ella.

La escuela no puede educar al margen del mundo digital. Su tarea no es excluirlo, sino ayudar a habitarlo con autonomía, ética y criterio. Los marcos de referencia europeos, como el ya mencionado DigCompEdu o el Marco de Competencias Digitales de la Unión Europea (DigComp), insisten en esta idea: la integración crítica y consciente de la tecnología es una competencia esencial para el profesorado y el alumnado. Enseñar en el siglo XXI implica enseñar a pensar y actuar en la sociedad digital.

Mirar con calma

Al final, el debate sobre las pantallas no trata realmente de tecnología. Habla de nosotros, de la escuela que queremos y del tipo de ciudadanos que aspiramos a formar. Por eso, la pregunta que subyace a cada uno de estos mitos es la siguiente: ¿qué significa aprender en tiempos de cambio?

En este Observatorio, lo hemos repetido hasta la saciedad: las pantallas no son ni el enemigo ni el bálsamo de Fierabrás. Convertirlas en culpables o en salvadoras solo nos distrae de lo esencial: hoy por hoy, una de las tareas educativas más importantes consiste en aprender a convivir con ellas con criterio, justicia y humanidad.

Este es el verdadero reto de la escuela: no enseñar contra la tecnología, sino enseñar a vivir con ella sin perder el sentido. A formar personas capaces de pensar por sí mismas en un mundo saturado de estímulos, de defender su atención como un acto de libertad.

Mirar con calma no significa mirar menos, sino mirar mejor. Tal vez la educación, hoy más que nunca, consista en eso: en aprender a mirar, también las pantallas, con atención, con sentido y con esperanza.

También podría interesarte