martes, 18 de diciembre de 2012

DANDO VUELTAS A LA EVALUACIÓN Y LOS RESULTADOS DE LA PRUEBA TIMMS



Resulta difícil para quienes han sufrido durante toda su escolarización un sistema educativo basado en los exámenes entender nuestra crítica a las evaluaciones externas que ha generalizado el PP, hasta el punto de que, durante la primaria, se sufren cada dos cursos. A los ocho, a los diez y a los doce años.

Para la sabiduría popular del ciudadano medio, el examen es la piedra angular del sistema educativo y, si no queremos comprobar los conocimientos de nuestros alumnos y alumnas en un examen, será porque tenemos algo que esconder o tememos que fracasen.

Sin embargo, hasta para los críticos, la evaluación forma parte del proceso educativo y es un instrumento que utilizamos para conocer el progreso o las dificultades de nuestros alumnos. Así que, cuando criticamos las pruebas externas, nos estamos refiriendo a otras cosas y a otros miedos. Intentaré explicar algunas ahora y amenazo con seguir reflexionando en voz alta sobre el asunto.

Primero, la evaluación externa no aporta ninguna información relevante sobre el niño o niña evaluado. Salvo que se abra un proceso general contra el profesorado, salvo que se le considere incompetente o excesivamente subjetivo o parcial, el profesor o profesora que está con los niños y niñas varias horas a la semana durante diez meses es el más indicado para realizar una evaluación global que tenga en cuenta lo que se han esforzado o ha dejado de esforzarse, la actitud, el interés o desinterés, los progresos, las limitaciones y los resultados alcanzados por los estudiantes.

Ninguna prueba va a proporcionar mayor información que la observación permanente y cotidiana.

Si esto es así, si la evaluación externa no aporta ningún dato relevante sobre el alumnado, debería servir, al menos para  diagnosticar los problemas, déficits y necesidades del sitema educativo y los centros escolares.

Optimista previsión: a pesar de la alarma con la que se difunden los resultados, no se conoce cuál ha sido el diagnostico ni se ha presentado ningún plan de actuación del gobierno para superar la situación, para ayudar a los centros peor valorados o mejorar las destrezas del profesorado. Finalizada la evaluación, y terminada la publicidad maliciosa sobre los resultados, la actuación del gobierno continúa a su bola, independiente de las conclusiones que se hayan sacado. ¿Qué justificación tiene que, con la alarma que sienten y pregonan en la Comunidad madrileña, la pionera en estas lides, los planes educativos y los recursos que se ponen en marcha hayan ido a reforzar el aprendizaje de inglés, que no se valora en las pruebas internacionales, o la competencia informática, que tampoco?

Un diagnostico serio y no una actuación para la galería, de esas que le gustaban tanto a Espe Rancia, habría llevado a analizar la adecuación o no de los programas, de las metodologías didácticas utilizadas, de la formación del profesorado, de las ratios y de los instrumentos de apoyo, etc. Y, después, a diseñar un plan de mejora.

Así pues, al final, la evaluación externa solo se usa para comparar centros.

Aunque ni para eso sirva. En primer lugar, se ha repetido tantas veces, porque los grupos que se comparan solamente tienen en común la edad pero son bien diferentes en cuanto a composición social, en cuanto a su diversidad nacional y sus lenguas maternas o en cuanto a la integración o no de alumnado con necesidades educativas especiales. Y, en segundo lugar, porque los centros pueden no presentar a todos sus alumnos y alumnas a la prueba, de manera que, al esconder al alumnado con más dificultades, se falsean y manipulan los universos a comparar. Esta es una práctica común en aquellos centros que necesitan el marketing para atraer la demanda.

A esto tenemos que añadir que las pruebas diseñadas no sirven para valorar objetivos distintos a los académicos. No sirven para evaluar la autonomía, ni el espíritu cooperativo y de trabajo en equipo, ni la capacidad crítica, etc

Incluso en el terreno meramente académico, la selección de unos temas u otros marca pequeñas diferencias que tienen que ver con el hincapié que haya hecho cada docente en un tema u otro. Por lo que yo recuerdo, por ejemplo, la expresión oral no se valora en la prueba de 6º y la expresión escrita se hace de forma rutinaria.

A pesar de todas estas cosas, la secretaria de Estado de Educación, Formación Profesional y Universidades, Montserrat Gomendio, “contesta con un rotundo "sí" cuando se le pregunta si los informes internacionales que colocan a los alumnos españoles por debajo de la media de la UE significan que España está en emergencia educativa”.

Tal barbaridad solo tiene motivaciones ideológicas. Desprestigiar la actual enseñanza para justificar la enésima reforma que, en general, supone siempre una vuelta hacia atrás, hacia un supuesto paraíso educativo que, como hace 20 años explicaron los sociólogos franceses Baudelot, y Establet, no existió jamás. Es el "bucle melancólico" del que hablaba Jon Juaristi refiriéndose a la nostalgia nacionalista vasca de un país que nunca había existido.

(Me autocito en "contra el pensamiento único educativo", escrito durante el primer gobierno de Aznar ya he comentado lo falsas que resultan las comparaciones entre unas y otras épocas educativas).

Desdramaticemos. Una diferencia del 5% en los resultados no es significativa. A lo mejor se explica porque en España, en contra de la creencia común, hay menos profesores, trabajan más horas lectivas y las clases son más numerosas.

 Según el estudio de Juan Martínez, del gabinete de estudios de CCOO, publicado en el TE de mayo de 2012, páginas 20 y 21, la ratio media en Primaria era de 21,1 alumnos por aula. Esta cifra es  superior a la de la Unión Europea, de 19,8 alumnos/aula (+6,6%). En la Secundaria inferior (nuestra ESO) la media española de 24,2 alumnos/aula era superior, un 10,5% mayor, que la de la Unión Europea, de 21,9 alumnos por unidad. Además, los cinco países de la UE mejor situados en el Informe PISA de 2009 de los que se tienen datos completos sobre ratios son Finlandia (19,8 en Primaria), Bélgica (20,1), Estonia (18,1), Polonia (18,7) e Islandia (17,8). ¿Por qué no imitamos a los mejores en este apartado?

Estas diferencias en las condiciones en las que se imparte la enseñanza explicarían, de sobra, que un 5% del alumnado estuviese un poco menos atendido y obtuviese peores resultados.

jueves, 13 de diciembre de 2012

APUNTE RÁPIDO Y BREVE SOBRE EVALUACIÓN TIMSS


¿Qué hay de "cierto" en este titular alarmante de EL PAÍS:  "Los alumnos de 9 años, por debajo de la UE en Lectura, Matemáticas y Ciencias" que pretende, otra vez, sembrar dudas sobre la educación española? 

¿Qué significa realmente la diferencia entre la media española en lectura, 513, y la de la Unión, 534, o en matemáticas, 482 y 519, o en Ciencias, 505 y 521? 

NADA. No significa nada pues ambos resultados están en la misma escala, la intermedia, que va desde los 475 puntos hasta los 550,  dentro de los cuatro niveles que usan los autores del estudio: "TIMSS and PIRLS have identified four points along the achievement scales to use as international benchmarks of achievement—Advanced International Benchmark (625), High International Benchmark (550), Intermediate International Benchmark (475), and Low International Benchmark (400)".

En otra entrada, "Aguirre contra Idefix", ya dí mi opinión, irónica, sobre alguna de estas pruebas externas. En este post tan solo quiero señalar algún interrogante que me suscitó la lectura del  artículo del periodico:

1) ¿tiene algo que ver los buenos resultados de los valones belgas el que se trate de sociedades muy homogeneas con escasa emigración?

2) ¿distorsionan los resultados el que muchos de los evaluados en Ciencias estén recibiendo las enseñanzas en inglés?

Volveremos sobre estos asuntos con más calma.