lunes, 10 de marzo de 2014

Las pruebas masivas, ¿tienen “propósitos subyacentes”?

Las teorías conspirativas constituyen una posición frente al mundo; el cambio de tono y de temas no debería disuadirnos de que siempre están ahí presentes. Y las teorías integrativas también constituyen una posición frente al mundo; que la época nos trate de convencer de que el muro cayó, que la historia concluyó y que, en consecuencia, ya no hay necesidad de luchar por grandes cosas ni de hacer críticas, busca colocar ese discurso como lo más sensato: ahora habría que dedicarse a consumir, a disfrutar del futuro, que ya está aquí.

Hubo una época —no muy lejana— en la que era un escándalo descubrir a alguien haciendo espionaje sin autorización legal. En aquel entonces, eso tumbaba gobiernos. Nadie pensaba en desclasificar información, sencillamente porque nada había que ocultar. Pero, por eso mismo, parecía que había mucho por ocultar. Hoy, en cambio, se revela que Estado Unidos estaba “chuzando” las llamadas y los correos electrónicos de media humanidad y nada pasa; o mejor: no caen los gobiernos, no caen los perpetradores de estas prácticas ilegales…. Más bien caen los que las denuncian, así sea acusándolos puerilmente de cualquier otra cosa.

En este momento, las evaluaciones masivas se han implantado de manera que parece imposible hablar de los procesos educativos sin hacer referencia a ellas. Los gobiernos se han dotado de mecanismos que obligan a pasar por ahí cualquier medida, desde las grandes inversiones, hasta el cambio de un bombillo en una escuela. Y periódicamente aparecen los escándalos periodísticos a propósito de los resultados. Como si no hubiera un día a día de la escuela, sino los momentos en que nos leen de cualquier manera unas gráficas. Entonces vienen los golpes de pecho, los grandes propósitos y, a los pocos días, cualquier otra noticia eclipsa la atención y se sigue haciendo lo que se puede.

Recientemente ocurrió con los resultados de la prueba PISA. Unos salen a decir que esto es una demostración de que el gobierno se rajó —junto con los estudiantes— en educación; otros sugieren leer el lento avance mostrado por las cifras que no puede ser arrollado por buenos propósitos unilaterales, pues todos los países están al mismo tiempo, compitiendo en esa olimpiadas por ser los mejores. Etc.

Y los de las teorías conspirativas enfilan sus baterías a mostrar que se trata de propósitos subyacentes, cosas que no se dicen. Es curioso, pero en esta época no hay ningún inconveniente en decir que se va a acabar con “el eje del mal” y emprender la cruzada contemporánea más abusiva, sin que nadie se escandalice. Las pruebas masivas están en ese nivel de cinismo.

Ninguna denuncia impidió que las evaluaciones masivas en Colombia se implementaran a lo largo de la educación básica, que luego se extendieran hasta la educación media, que de allí saltaran hasta la educación superior y que, corrigiendo un error garrafal, se devolvieran hasta el preescolar. Tenemos una población estudiantil que podría estar siendo sometida a estos procedimientos desde los 4 hasta los 21 años, aproximadamente. Esto es escandaloso, pues se trata de una vida entera cribada por los mecanismos de una disciplina (la psicometría) que, si bien tiene —como cualquier otra— sus maneras de obtener información, no por ello tendría que tomarse el tramo escolar de la vida de los ciudadanos. Pero, ¿acaso hay incomodidad por parte de quienes tienen que acomodar su vida y su práctica educativa a estos mecanismos? Curiosamente, no: quienes intentan poner todo en sospecha, ¡hablan en los mismos términos de la política educativa que impone las pruebas!, ¡sacan sus temas de los resultados de las pruebas!, ¡incluso procedan de la manera que está implicada en ese tipo de mecanismos! Por eso, toda teoría conspirativa al respecto muere en la decisión que cada uno toma en relación con los resultados. El que denuncia las pruebas masivas, pasa inmediatamente a felicitar a sus estudiantes o lamenta secretamente que no hayan tenido mejores resultados. Y eso, automáticamente lo hace parte de la conspiración, si es que alguna había.

Los propósitos de las evaluaciones masivas nunca fueron “subyacentes”, siempre estuvieron y están explícitos; si hay algo escondido (que, por supuesto lo hay) ¡no es lo principal! Y decir “escondido” hoy, es decir “maquillado”, o “en la letra menuda”, o “en otra columna menos vistosa del periódico”. Los propósitos de las pruebas masivas están explícitos en todos los Planes de Desarrollo Educativo —regionales o nacionales— a partir de la década del 90: medir la calidad de la educación. Para quien acepta que hay una cosa llamada así, es decir, para quien no tiene un vocabulario propio para hablar de lo educativo, y que, además, vive en esta época, pues el asunto de medir la calidad de la educación no tiene misterio alguno; o, si lo tiene, sucumbirá ante semejante peso, ante semejante evidencia.

Y, ¿para qué se mide la calidad educativa?; para tomar decisiones sobre el gasto en educación. Eso también ha estado claro desde el comienzo. Si bien hay que hacer un rodeo —no es muy largo— para entender cómo, de todas maneras se puede leer en la lógica de los procedimientos en boga desde que las evaluaciones masivas se introdujeron. Al tiempo que se hacen pruebas de “competencias” a los estudiantes, se recaba información para establecer los “factores asociados” a la tal calidad de la educación. Nada de esto está escondido, nada de esto es un misterio, ambas expresiones son usadas incluso por el sindicato. La pelea no está en el concepto de “calidad” sino en si está bien medida; la pelea no está en el concepto de “factores asociados”, sino en si se tuvieron en cuenta los que yo visualizo. Si el asunto es, como decía Eliseo Verón, que la ideología —hoy ya no usamos el término, pues dizque se cayeron las ideologías— no se comunica (no es el contenido del mensaje) sino que se meta-comunica (es un diccionario y una gramática), pues ya todos estamos usando los términos de la política educativa, de las evaluaciones masivas, y, lo que es tal vez más diciente, estamos armando nuestras frases con la misma gramática, independientemente de que el mensaje pretenda denunciar algo.

Los resultados de las pruebas de competencias son los que más se convierten en noticia, los que más “opinión” generan. ¿Se trata de estrategia política de divulgación? Tal vez, pero no hay que olvidar que las audiencias piden esos resultados. En una ocasión, el ICFES resolvió no publicar los resultados de las pruebas de Estado, tratando de explorar algo alternativo a ese ranking de instituciones que se repite año a año. Pues bien, al otro día protestaban de todas partes, llamaban al ICFES a exigir el derecho a la información, hasta que hubo que publicarla.

Por su parte, los resultados de las aplicaciones de instrumentos de “factores asociados” son un poco menos ruidosos. No participan de la dramatización de los resultados de las pruebas de competencias, donde se pueden hallar ganadores, perdedores, culpables, etc. ¡como en una telenovela!, que como todos sabemos, son los programas de mayor rating en la televisión. Estos factores son asociados a la calidad. Es decir, se requiere un mecanismo para hacer esa asociación. Antes, se hacía “a ojo”: si los maestros son los que enseñan, pues mientras mejor formados estén, mejor enseñanza; y, como implicación teníamos la inversión en capacitación docente. Si la escuela gira alrededor de los libros, pues pongamos libros en la biblioteca de la escuela. Pero hoy no se puede proceder así, porque se da la imagen de inconsistencia. Uno puede presentarse ante una oficina y, perfectamente le pueden decir que no existe, porque el empleado no lo encuentra a uno en la base de datos. ¡Vale más ese dato que la presencia física! Este no es un argumento empirista, sino una ilustración de que hoy hay que tener cifras y gráficas para resultar verosímil, así las cifras hayan sido obtenidas débilmente y las gráficas sean una invención de última hora (cfr. por ejemplo, el documental La infancia bajo control: las autoridades francesas exhiben una gráfica que no responde a información alguna, sino a un prejuicio según el cual si se empieza en la gama baja del delito, se termina indefectiblemente en el crimen).

Entonces, usted tiene que demostrar que existe; las cifras tienen que mostrar que los libros sirven y que la capacitación del docente es útil para la escuela. ¿Cómo se hace? Con un software estadístico. Esa es otra joya de la corona: ahora se trata de la información que sale de un paquete de computador, y las preguntas sobre quién lo diseñó, qué limites le determinó, en qué dirección lo puso a correr, qué información le introduce, qué filtros… lucen necias ante la enorme cantidad de gráficas a color que puede ir arrojando el programa y que podemos pasar de una vez a las presentaciones de Power Point y, de ahí, a nuestra intuición. Todos contentos.

La relación entre la llamada calidad de la educación (cuya información proviene de las pruebas de competencias) y los llamados factores asociados, es un cruce de estas dos informaciones. El paquete estadístico detecta (¿se nota que ya le dimos independencia subjetiva?) si los cambios de una información tienen que ver con los cambios de la otra información. Si a medida que aumentan las cigüeñas, aumentan los nacimientos, pues a los niños los trae la cigüeña. No se trata de una creencia banal, ni mucho menos de superstición… se trata de ciencia. Un hombre con la cabeza en un horno y los pies en un congelador, en promedio se encuentra bien. Es indiscutible, si se entiende el concepto de promedio.

Entonces, de acuerdo con los límites (pero nadie está interesado en eso) que se programan en el paquete, éste “nos dirá” no que la capacitación docente está o no asociada a la calidad, sino que las cifras que le metieron, independientemente de a qué correspondan, se transforman o no en mutua dependencia, en cualquier sentido. Que de ahí nos digan —como efectivamente lo han hecho en Colombia— que la calidad de la educación no depende de la capacitación docente, pues es una licencia que se toma el político que quiere hacer ajuste fiscal, porque el estadístico no podría afirmarlo, si se atiene a su disciplina. Pero es que todos queremos ver quién es el culpable y si podemos escapar de un dedo acusatorio… y detalles como aquéllos sólo nos distraerían de preocupaciones tan sentidas como ver caer al malo.

Con más frecuencia que los resultados de competencias, vemos los anuncios de que “los expertos” —otra entelequia de la época que hemos dado por existente— dicen que es muy importante éste o aquél asunto para mejorar la calidad de la educación. En este momento, por ejemplo, acaba de ser noticia la adopción, por parte del gobierno, de un estudio de este tipo, ¡nada menos que como política de Estado! Por encima de las normas y de los mecanismos regulares de la administración de los procesos educativos, el presidente adopta un estudio de factores asociados de la fundación Compartir, de un empresario privado. ¿Hay allí algo nuevo? No, por supuesto, se trata de que, ante el escándalo de los resultados en la prueba PISA, alguien viene —desde la neutralidad de una Fundación— a darnos la clave para ser en 2025 el país mejor educado de América Latina. Se entiende: el de mejores cifras.

Cuando nos ponen a “opinar” (a eso ha quedado reducido el sujeto hoy: alguien que consume y que opina), nos ocupamos es de los resultados. Con ello ya nos tragamos la carnada. Cuando los diseñadores de la política educativa nos oyen discutir sobre estos asuntos, se sienten dichosos, con la satisfacción que otorga el deber cumplido. Qué importa que el resultado sea X o que sea Y, el caso es que la gente se ponga a discutir sobre los resultados; es decir, que legitimen la aplicación de las pruebas.

Somos ingenuos para criticar. Generalmente las objeciones que hacemos a las pruebas se pueden desmontar muy fácilmente. Somos contendores flojos. Entre otras porque tal vez no haya contienda y la supuesta pelea sólo arroje como resultado, a largo plazo, la consolidación —¡lo estamos viendo!— de una manera de administrar la educación. Las críticas a la estadística, por ejemplo, están muy mal hechas. Y claro que se puede criticar la perspectiva estadística, pero no ingenuamente, porque de tal procedimiento siempre sale fortalecida la política educativa. Si la prueba está mal hecha, pues está mal hecha para todos. Pero, entonces, ¿por qué se repiten sistemáticamente los resultados? Los diseñadores de pruebas dirán que esa es la demostración de que las pruebas son objetivas; nosotros podríamos decir, más bien, que esa es la prueba de que se repiten los mismos errores, que las mismas decisiones se vuelven a tomar en las mismas condiciones, lo cual no deja mucho margen a quien obra así condicionado.

Criticar realmente las pruebas sería deslegitimar el sistema en el que están inscritas, no objetar las pruebas en sí, o tal o cual detalle del procedimiento que, como parece, lo único que hace es hacernos partícipes de la legitimación de la política educativa, de la reducción del gasto en educación, de la introducción de una lógica administrativista en la escuela, etc. “Sistema” no en el sentido de la Secretaría de Educación o del Ministerio de Educación, sino en el sentido de aquello que nos hace creer hoy (y salir a la calle a exigir) que la educación o la información son un derecho, cuando hace un par de décadas las considerábamos aparatos ideológicos de Estado.