Pablo Chaverri Chaves, Científico Cognitivo.

Con respecto al Decreto Ejecutivo 43942-MEP, del 2 de febrero de 2023, que modifica el Reglamento de Evaluación de los Aprendizajes para crear una nueva “Prueba Nacional Estandarizada”, surgen una serie de dudas y vacíos que es urgente responder. Al respecto, es importante destacar la pertinencia de las interrogantes planteadas por el Departamento de Tercer Ciclo y Educación Diversificada de la Dirección de Desarrollo Curricular del MEP en el Oficio DVM-AC-DDC-DTCED-030-2023. Si bien todas las preguntas del anterior Oficio son muy relevantes, hay varios aspectos especialmente preocupantes. En mi opinión lo siguientes puntos requieren una pronta, clara y detallada respuesta por parte del MEP al país:
1. La falta de claridad en el objetivo de la nueva Prueba Nacional Estandarizada, pues el Decreto Ejecutivo habla de diversos términos: diagnóstico, monitoreo, medición y garantía de la calidad, medición de capacidades, certificación y evaluación de programas de estudio; de modo que no se concreta de forma coherente y unívoca el propósito de esta. Debido a que el objetivo de la prueba marca la pauta para todo el proceso, este es un aspecto medular que no puede quedar al uso libre del lenguaje, pues hay diferencias significativas entre los términos utilizados que implican consecuencias prácticas. Por ejemplo, si el objetivo fuera garantizar la calidad, entonces las pruebas podrían centrarse en analizar los procesos de enseñanza-aprendizaje vinculados a niveles de aprendizaje. Si el objetivo fuera certificar conocimientos, entonces se requieren descripciones detalladas de los niveles de desempeño esperado para compararlos con los resultados de desempeño observado. Si lo que interesara fuera, por ejemplo, valorar habilidades más que conocimientos, entonces el diseño de los ítems variaría sensiblemente. ¿Qué es lo que busca el MEP? El Decreto Ejecutivo deja más dudas que respuestas.
2. Se habla de hacer una prueba al inicio del año de carácter diagnóstico y otra al final de certificación, pero sin describir cada una ni su propósito específico ni la información que se espera recolectar y generar, ni la forma en que se analizará, y sin explicar la correlación entre ambas pruebas, pese a su carácter distinto. ¿Se desea hacer una comparación entre ambas?, ¿cómo se haría si tienen un carácter distinto entre sí que las haría no equivalentes?
3. No hay una explicación del modelo metodológico de la prueba, por ejemplo no se indica si está basada en normas o en criterios. Además, más allá de una nota, no describe ninguna clase de retroalimentación educativa. ¿De qué sirve una nota si no se puede saber cómo anda el dominio de cada tema o aspecto evaluado? La evaluación sirve para mejorar si brinda retroalimentación detallada del desempeño y sobre esto el Decreto Ejecutivo es omiso.
4. La ponderación de la nota final habla de una sola prueba y no de pruebas por cada asignatura. ¿Cómo se interpreta esto?, ¿se hará una sola prueba de todas las materias o se harán varias y se promediarán? Esto genera confusión en el Decreto, que habla en términos singulares (“la Prueba”) y no plurales (“las Pruebas”).

En términos generales, quedan abiertos grandes vacíos de incertidumbre sobre qué, cómo y con qué propósito específico se quiere evaluar al final de la primaria y de la secundaria. La ministra ha dicho que el criterio del área curricular de secundaria ocurre por “ignorancia”, pero las dudas planteadas en el Oficio DVM-AC-DDC-DTCED-030-2023 no solo son legítimas, sino que su respuesta es necesaria.

5. No se describen los análisis de validez y confiabilidad ni se habla de pilotajes para la construcción y ensamblaje de la prueba. Todo evaluador sabe que construir ítems estandarizables no es sencillo y cada uno lleva un proceso delicado que debe ser sometido a pruebas luego de su formulación, tanto de carácter cualitativo (por ejemplo entrevista cognitiva) como de carácter cuantitativo (por ejemplo análisis de consistencia).
6. Es preocupante que se hable de pruebas aplicadas digitalmente cuando son conocidos los problemas de conectividad y carencias de infraestructura y tecnológicas en los centros educativos públicos para poder dar soporte a una evaluación digital equitativa y segura. Yo mismo como investigador he aplicado cuestionarios en escuelas y colegios públicos y es muy difícil hacerlo de forma digital, debido a los muchos problemas materiales que, lamentablemente, nuestro país no ha resuelto y que producen una grave brecha digital que afecta especialmente a los estudiantes de las comunidades y familias de menores recursos, lo cual suma a las brechas socioeconómicas que convierten a Costa Rica en uno de los países más desiguales del mundo.
7. El Decreto Ejecutivo no viene acompañado de un marco teórico ni metodológico, ni técnico que explique el detalle de las pruebas. Este proceso no es sencillo, requiere conocimiento especializado así como interdisciplinario, trabajo colaborativo a gran escala y procesos preliminares de ensayo, error y corrección. Toda persona que haya participado en la construcción de una prueba estandarizada sabe que se trata de un reto complejo y el tratamiento que el Decreto en mención da a este tema es superficial, incompleto, carente de sustento y contradictorio.
8. Se elimina la anterior ponderación 40% prueba y 60% calificaciones y se pasa a un modelo 50/50, que da menos peso al proceso anterior a la prueba. Como lo identificó un trabajo previo de la UNA (González Alvarado et al., 2020), el modelo de ponderación que se elija tiene consecuencias significativas en los niveles de aprobación-reprobación estudiantil.
9. Se elimina la ponderación de todas las materias y se restringe solo a las llamadas básicas, excluyendo a las llamadas especiales. Esto nos da una idea de la jerarquía curricular en el actual MEP, que va contra la idea de un currículo donde todas las materias son importantes porque parten de una visión integral del desarrollo del ser humano. ¿De qué sirve enarbolar el discurso de que todas las habilidades para la vida “son importantes”, si a la hora de ponderar, materias como la educación física, las artes plásticas o la música no entran en la ecuación?
10. Se elimina la posibilidad de hacer varias veces la prueba y considerar la mejor nota, eliminando este incentivo a la superación personal y a la creencia en las segundas oportunidades.
11. No se tomó en cuenta al área curricular de educación secundaria del MEP, lo cual habla de una grave desconexión entre evaluación y currículum educativo, y de una fractura interna en el MEP que no le sirve a nadie.
12. En inglés no se explica cómo se concilia la relación entre nota mínima de 70 versus banda de dominio de lengua extranjera, sin identificar el marco de referencia a emplear. ¿Se va a emplear el Marco Común Europeo de Referencia para las lenguas (MCER), se construirá uno propio, será otro el caso?, ¿qué se hará? Lo que queda claro es que el Decreto Ejecutivo no es claro ni específico.
13. No se explica cómo la nueva prueba permitirá hacer inferencias y valoraciones para mejorar el proceso educativo. Esto es fundamental, porque las pruebas no son un fin en sí mismo, sino parte de un proceso, pero esto se debe planificar. El Decreto dice que es obligatorio utilizar los resultados de la Prueba, pero tal mandato se vuelve vacío si no describe qué tipo de información arrojará la evaluación más allá de una nota general de altas consecuencias.
14. Se dice que la evaluación “garantiza” la calidad pero no se explica cómo se lograría esto. Sin duda que la evaluación es necesaria para mejorar, pero si no se explica cómo se hará esta relación es parecido a decir que se requiere un puente para unir dos pueblos pero sin tener idea de cómo y qué tipo de puente se hará. Si ni siquiera está claro el objetivo de la nueva prueba: ¿cómo se puede garantizar su utilidad para mejorar la calidad educativa?
15. No se indica si la nota final debe lograrse de forma absoluta o si habrá redondeo. Este es un punto sensible por tratarse de una prueba de altas consecuencias.
Costa Rica requiere un sistema de evaluación de los aprendizajes avanzado y sólido, que brinde información detallada, clara, pertinente y oportuna al estudiante, al docente, a toda la comunidad educativa y a la sociedad, que contribuya a mejorar los procesos de enseñanza y aprendizaje, y que sirva para tomar decisiones con base en evidencia (Chaverri Chaves y Arguedas Ramírez, 2020), tanto a nivel micro, como a nivel macro, y que contribuya, también, a abordar las grandes brechas de desigualdad socioeducativa que agrietan el tejido social y pueden llevarnos, como país, a un abismo (Chaverri Chaves, 2021). De otra manera: ¿para qué evaluar? El Decreto Ejecutivo del Gobierno de la República, tal como está, deja muchas dudas y preocupaciones que deben ser respondidas antes de pretender aplicar una Prueba Nacional Estandarizada sin sustento teórico ni metodológico, ni técnico.

Referencias
Chaverri Chaves, P., & Arguedas Ramírez, A. (2020). Políticas Públicas Basadas en Evidencia: una revisión del concepto y sus características. Revista ABRA, 40(60), 49-76. https://doi.org/10.15359/abra.40-60.2
Chaverri Chaves, P. (2021). La educación en la pandemia: Ampliando las brechas preexistentes. Actualidades Investigativas En Educación, 21(3), 1–22. https://doi.org/10.15517/aie.v21i3.46725
González Alvarado, F., Acosta-Ballestero, I., Artavia-Aguilar, C., Calderón-Ramírez, G., Chaverri-Chaves, P., Cruz-Arroyo, E., Ramírez-González, A., Rodríguez-Pineda, M., & Solano-Alpízar, J. (2020). Hallazgos principales de la investigación “Balance crítico de las Pruebas Nacionales de Bachillerato en Educación Media como instrumento de certificación del conocimiento del estudiantado”. Revista Electrónica Educare, 24(1), 1-24. https://doi.org/10.15359/ree.24-1.13

Por Pablo Chaverri

Máster en Ciencias Cognoscitivas y Licenciado en Trabajo Social, ambos grados por la Universidad de Costa Rica (UCR). Se desempeña como académico en el Instituto de Estudios Interdisciplinarios de la Niñez y la Adolescencia (INEINA) de la Universidad Nacional (UNA), donde investiga sobre cognición social infantil y políticas públicas de niñez y adolescencia. Trabajó como profesor en el programa de Estudios Globales de la Universidad de Long Island (LIU), sede Costa Rica, donde brindó cursos sobre métodos de investigación y teoría de la cultura. Es integrante del grupo de investigación en Cognición Social del Instituto de Investigaciones Psicológicas (IIP) de la Universidad de Costa Rica.