sábado, 26 de marzo de 2011

Rúbricas

Objetivo del escrito.
Con la finalidad de poder clarificar el nivel de logros que alcanzan los alumnos, se han ideado diferentes formas de poder conocerlo, una de ellas, las rúbricas, son una herramienta bastante útil al respecto y es necesario poder entender la dinámica que opera en su construcción y la utilidad que puede prestar su utilización para mejorar aprendizajes y prácticas educativas. Con esta finalidad es que intentaré hacer una pequeña descripción de ellas en base a la lectura de seis textos, entregando finalmente mi apreciación personal del tema en cuestión.
Historia
La primera propuesta de un tipo de rúbrica según Turley y Gallagher (2008) se remonta al año 1912, cuando Ernest Noyes, manifiesta la necesidad de contar con una herramienta que midiera de manera clara y concreta los niveles de logro alcanzados por los alumnos, lo anterior buscaba estandarizar la manera de “medir” los logros evitando la subjetividad de la opinión personal, contando con un instrumento que signifique lo mismo para diferentes profesores e instituciones. De esta forma es que se inicia una ardua labor para crear diferentes escalas de medición que tenían (y en muchos casos tienen) la misión de medir y comparar los progresos entre estudiantes, clases, escuelas y ciudades. También tuvo importancia dentro de un centro educativo para comprobar la eficacia de enseñanza de los maestros. En síntesis el origen es netamente a partir de la ciencia positivista y de cara a la eficiencia administrativa, pensando en que la tecnología podría sustituir el juicio humano altamente subjetivo.
Las escalas comparativas se desarrollaron principalmente fuera del aula, en universidades o por expertos, para luego ser aplicadas en centros educativos de primaria o secundaria. La cercanía de las escalas hacia lo que conocemos hoy en día como rúbrica se dio en la medida que se incorporaron en la medición niveles de logros, sin embargo, continuaron siendo creadas con la finalidad de estandarizar mediciones de manera más precisa y eficiente. En la medida que un número creciente de profesores intentó utilizar estas escalas de una forma original, es decir, como una manera de tener un lenguaje común para evaluar o para describir que se entendería por lo que se quiere medir, fue dándose un nuevo sentido. Llegando a crearse las primeras rúbricas a partir de lo que maestros y alumnos comparten en común respecto a la temática que se quiere medir, éstas a diferencia de las escalas, fueron creadas en las propias aulas y parten de la idea de conocer los niveles alcanzados para saber lo que falta por alcanzar (Turley y Gallagher, 2008).
Definición de Rúbrica.
En el contexto educativo pueden ser entendidas como pautas que permiten aunar criterios, niveles de logro y descriptores, cuando se trata de evaluar o emitir una opinión a cerca de un proceso educativo (Vera, 2004. Citado por Martínez, 2008). Complementando la idea anteriro, la rúbrica sería una forma de comprobar el grado de pericia que un individuo a logrado y tiene respecto a un proceso de aprendizaje, el cual estaría compuesto por niveles progresivos de dominio del elemento a medir (Martínez, 2008).
Rúbrica y evaluación.
Una evaluación de procesos educativos debe contar con supuestos previos que la hagan una herramienta efectiva para la toma de decisiones y de crecimiento para quien evalúa y quien sea el evaluado. De acuerdo a ello deben existir aspectos mínimos que debería presuponer previamente una evaluación, de acuerdo a lo aportado por Wamba et al, S/F; Encina, S/F; y lo descrito en clases, ellos son:
Ø  Ser siempre positiva: destacar lo logrado, motivar a conseguir lo pendiente.
Ø  Ser un reflejo de nuestro enfoque metodológico, consecuente con la manera de trabajo realizado.
Ø  Debe servir para reflexionar. Por parte del profesor y del alumno.
Ø  Evitar ser un instrumento de comparación.
Ø  No necesariamente sinónimo de examen.
Ø  Evaluado y evaluador deben tener claro: ¿Qué?, ¿Cómo? Y ¿Cuándo? Se evaluará.
Ø  Criterios sabidos y consensuados por ambas partes.
La construcción de una rúbrica consensuada entre profesor y alumno, permite que el evaluar un proceso o el término de una etapa educativa, cumpla con gran parte de los puntos antes planteados, pensando en su correcta creación y puesta en práctica.
Utilidad de la rúbrica.
De lo descrito por Encina (S/F), respecto a la utilización de una rúbrica como una forma de obtener una calificación y lo aportado por Turley y Gallagher (2008), en lo referente al uso de las rúbricas como una manera de aporte a las aulas constructvistas, obtenemos diferentes elementos de utilidad en el uso de esta herramienta de evaluación, ellos son.
v Permite describir el nivel de logro individual de los alumnos.
v La creación de manera consensuada permite tener claro y entender los parámetros a evaluar.
v Ayuda a los estudiantes a prepararse para las evaluaciones y poder emitir juicios sobre su logros alcanzados.
v Su flexibilidad permite incorporar criterios, es decir adaptarla al contexto.
v Hace más objetiva y clara la mirada del profesor respecto a que va a evaluar.
La idea anterior surge del pensar las rúbricas como un elemento compartido por el profesor y los alumnos y con una clara opción hacia la mejora de los aprendizajes, tomando en cuenta la participación activa de los alumnos en su propia formación y del profesor como un facilitador y evaluador consensuado de tales logros.
Limitaciones en el uso de las rúbricas.
A partir del aporte de las lecturas realizadas y de la propia experiencia en el tema de las rúbricas, es que una de las limitaciones básicas es el no conocimiento de su utilidad y fines, es decir, la apropiación por parte del docente de este instrumento. En mi caso particular, construí algunas rúbricas, pero con el claro propósito de sólo cumplir con lo pedido, al incorporar más elementos en su potencial construcción como es el hecho de incorporar la opinión de los alumnos, y de hacerla una herramienta más práctica y aterrizada a la sala, me hace pensar que perdí una oportunidad de medir de mejor forma lo que los alumnos lograron y a la vez de retroalimentar con sus propias ideas su desarrollo.
Thaler et al (2009) indica que uno de las limitantes del uso de las rúbricas es el tiempo y esfuerzo que puede llegar a significar la construcción de ellas, sin embargo aclara que ello tendrá mayor o menor influencia de acuerdo al foco de trabajo y a los multipropósitos a los cuales puede estar destinado tal instrumento. En el caso particular de la sala de clase, se puede transformar en una herramienta que potencie la participación y compromiso por parte de los alumnos en su desarrollo de manera activa.
Ideas finales
El leer y apropiarme de ideas más lúcidas respecto a los inicios y actuales usos de las rúbricas me ha dado nuevas luces al respecto de su aplicación y potencial que tiene en el proceso de aprendizaje y evaluación del mismos. En este aspecto creo que las rúbricas pueden ser un elemento práctico para poder alcanzar este nuevo “lenguaje” educativo: educación por competencias. Lo anterior lo relaciono de la siguiente forma, las competencias serían los elementos finales a lograr por los alumnos, por su parte, los parámetros evaluados a través de las rúbricas serían los pasos intermedios o particulares de cada área alcanzados y por supuesto con el potencial de mejorar de acuerdo a los niveles de logro o alcances que la rúbrica posea. En síntesis, me imagino las rúbricas como las competencias adaptadas al hacer diario. Veo rúbricas y competencias en sintonía, guardando su distancia y utilidades, creo que comparten uno de sus orígenes: intentar ser una forma eficiente y libre de subjetividad para medir algo. Lo que fueron las escalas de medición en su momento y que finalmente decantaron en lo que hoy conocemos como rúbricas.
Pensando en la analogía anterior, creo que es posible una educación por competencias, pero que necesita ser modificado el lenguaje, las finalidades y usos de tales instrumentos de constatación. Por el momento conformo mi ansiedad de conocer, entendiendo un poco más sobre este interesante instrumento de evaluación: las Rúbricas.

Bibliografía

Cebrian, M. y Monedero, J. (S/F). El e-portafolio y la e-rubrica en la supervisión del practicum. Recuperado el 11 de marzo de 2011 de
http://agorasur.es/publico/documentos/Poio_09_Monedero_Cebrian.pdf

Encina, A. (S/F). La evaluación en los tiempos de los estándares. Recuperado: 11 de marzo del 2011 de http://www.difusion.com/files/file/articulos/1-Encina-Alonso.pdf
Martínez, J. (2008). Las rúbricas en la evaluación escolar: su construcción y su uso. Avances en Medición, 6, 129-138.

Thaler, N., Kazemi, E. and Huscher, C. (2009) Developing a Rubric to Assess Student Learning Outcomes Using a Class Assignment. Teaching of Psychology, 36: 2, 113 — 116. Recuperado (profesora) de
URL: http://dx.doi.org/10.1080/00986280902739305

Turley, E. y Gallagher, C. (2008). On the Uses of Rubrics: Reframing the Great Rubric Debate. English Journal Vol. 97, No. 4, 87-92. Recuperado por profesora.
Wamba, A., Aguaded. C., Climent, N. y Ferraras, M. (S/F). Las rubricas de evaluación de los prácticum como instrumento de reflexión para los estudiantes de maestro de educación primaria. Actas IX Simposium de PIOI. Rescatado del 11 de marzo del 2011 de
http://redaberta.usc.es/uvi/public_html/images/pdf2007/ana%20maria%20wamba.pdf

lunes, 21 de febrero de 2011

Evaluación en relación al proyecto de tesis

El proyecto lo quiero enfocar hacia la comprensión desde el punto de vista del alumno sobre los momentos que le son más significativos en el aprendizaje de las ciencias en secundaria, entendiendo por momentos lo que le ofrece el centro educativo instrumentalizado en el (o los) profesor (es) de ciencia. La postura de análisis en este caso la relacionaré con la evaluación docente que experimentamos los profesores que trabajamos para los municipios en Chile.
La experiencia que tengo al respecto es haber experimentado el proceso evaluativo que es llevado a cabo en mi país. De ello quiero extraer algunas ideas y cuestionar el proceso y opiniones particulares que se han vertido tendiendo a generalizar situaciones. Por otro lado y tendiendo a conectarlo con el trabajo de tesis final, proponer vías de conexión que según mi postura ayudarían a comprender lo que ocurre en los centros y en mi disciplina en particular.
¿Por qué generar un proceso evaluativo a nivel docente?, para mí la respuesta, es clara y evidente, tener una radiografía de los procesos de enseñanza -aprendizaje que se llevan a cabo en los centros educativos y ver la forma en que se puedan realizar innovaciones de mejora tendientes a elevar los aprendizajes de los alumnos, por medio de la mejora en las prácticas de los profesionales de la educación.
El objetivo así planteado suena bien y es comprensible tanto por quienes tienen el deber de velar por una educación de calidad, como por parte de los que deben llevarla a la práctica, sin embargo, el problema estriba en cómo se instrumentaliza dicho proceso evaluativo. En primer lugar, la responsabilidad de los docentes en el proceso es clara y tiene sus formas de hacer objetivo o comprensible el proceso desarrollado y los resultados que de ello se obtenga, llámese niveles de aprendizaje medidos a través de evaluaciones estandarizadas (SIMCE). Sin embargo, no puede ser el único elemento que se observe, para poder obtener conclusiones acerca de cómo los alumnos están o no logrando ciertos niveles de aprendizaje medidos a través del instrumento antes mencionado.
Respecto a cómo se evalúa la práctica docente, se realiza básicamente de tres maneras: El primero de ellos es un portafolio, el cual busca recoger evidencias escritas de que el profesor es capaz de realizar al plantearse una situación de enseñanza determinada, por lo que debe  planificarla de tal manera de lograr una coherencia entre los objetivos, las actividades y lo que sus alumnos son capaces y deberían realizar en el nivel determinado, luego de ejecutada la planificación realizar la respectiva auto-retroalimentación en base a la evidencia y el análisis reflexivo de todo lo realizado.
Una segunda evidencia corresponde a una clase ideal grabada en video, en donde se deben respetar las condiciones de una clase ideal pauteada previamente. El tercer elemento es un evaluador par que surge del mismo contexto de donde trabaja uno (comuna, municipio, sector, etc), pero de un centro educativo distinto. Por último una autoevaluación fundamentada, es decir después de ubicarse en los niveles que uno cree se encuentra en los indicadores, debe explicar que da peso a dichas elecciones.
Antes de iniciar mis observaciones al sistema evaluativo, tengo que decir que entre no tener evaluación y que exista una, prefiero esta última alternativa, pero siempre pensando en que puede ser mejorada. En última instancia indico las categorías en que puede resultar la evaluación que son de: insatisfactorio, básico, competente y destacado. Por otro lado, respecto a la evaluación final que se obtenga desde el nivel centrar (Ministerio de Educación) se puede efectuar una modificación a nivel local (comuna), es decir, elevar o bajar una categoría de acuerdo a criterios que no me quedan del todo claro.
La primera observación la hago respecto al contexto que se quiere medir, el cual es uno de tipo ideal, es decir independiente de donde se esté llevando a cabo la evaluación en sí, uno debe preparar todo el material como si se estuviera en una situación que en la realidad nunca y recalco nunca se da. Como primera evaluación, ya sea como una forma de iniciar el proceso evaluativo a nivel país o de un profesor en particular estaría bien, para saber de que son capaces de hacer una vez iniciados en la práctica y después de un cierto periodo. Ello conllevaría pensar de antemano que su formación inicial ha sido la mejor, sin embargo, ya desde el 2004 se está llevando a cabo procesos evaluativos y en lo sustancial no ha variado en este aspecto. Lo que quiero decir es que el contexto en que se lleva a cabo una evaluación docente es necesario de considerar, pues en algunos casos no están los medios, las condiciones o los elementos necesarios para poder llevar a cabo un proceso en un contexto ideal. En este aspecto se me viene a la mente la imagen que coloqué en la discusión ética, es decir, te evalúo pero no te doy las condiciones para realizar una buena evaluación en la realidad, no pasa nada, créate un escenario ideal y haz como si trabajaras allí, demuéstrame que puedes, pero eso nuca lo vas a utilizar en la realidad.
Por otro lado está la cantidad de información que se debe entregar con una terminología que para mi gusto es casi ridícula, en el sentido que en la práctica no se ocupan tanta documentación ni el profesorado promedio utiliza ese vocabulario de corte técnico, es como si hubieran tomado curriculums varios, epistemologías educativas diversas, metodologías, estrategias hacen un coctel diverso y crean manuales, pautas, orientaciones que tenga de todo para que no falle por falta de algo, pero de fondo no tiene validez real ni práctica.
El último punto es que de manera efectiva y periódica el profesorado dependiente de las municipalidades es sometido  desde el año 2004 a evaluaciones de su “que hacer”, situación que pretendía ser un referente para los colegios particulares. En la práctica este modo de enseñar no ha sido un referente claro, pues a pesar de manejar información adecuada como para iniciar un proceso evaluativo, no es efectivo de manera cuantitativa, en la práctica un número importante sobre un 70 % de los colegios particulares no cuenta con un sistema de evaluación efectivo y los que lo tiene presentan un enfoque claramente distinto al diseñado por el ministerio.
Como plantee en párrafos anteriores la relación de la efectividad de un colegio y con ello la de los profesores se desprende del rendimiento de los alumnos o a la inversa, la calidad de enseñanza que demuestren los profesores repercutirá fuertemente en el aprendizaje de los alumnos, a pesar de que la literatura no recomienda realizar estas interpretaciones que resultan poco fiables. Con este modelo evaluativo, no se entregan descriptores claros que ello esté ocurriendo, sin embargo a nivel de manejo de la información desde el propio ministerio existe una fuerte difusión de información en las que se realizan correlaciones poco fiables dando cuenta del rendimiento docente y los aprendizajes generales alcanzados por los alumnos.
Conclusiones y relación con mi futuro proyecto de investigación. La evaluación debe desarrollarse en un contexto real, aún cuando adolezca de no ser masiva ni generalizable, pues el proceso enseñanza - aprendizaje no se da de la misma manera en diferentes lugares. Es necesario tomar en cuenta una serie de factores que también son parte de lo necesario para poder desarrollar un proceso educativo efectivo, las condiciones del propio establecimiento, expectativas de los alumnos, necesidades y requerimiento de las familias, características de los profesores, entorno educativo, administración del centro, entre otros elementos que tienen importancia.
La evaluación debe tener un sentido práctico y debe estar relacionado con la mejora, en el caso de los docentes a sus prácticas educativas, en este mismo sentido no debería ser un proceso impuesto, sino más bien promovido a nivel de centros educativos y tutelado u orientado a nivel central, llámese ministerio, subsecretaría, coordinadora de centros u otra institución encargada de evaluar, esta idea si bien es a largo plazo generaría una cultura evaluativa la que debe ser permanente y no cada cierto tiempo, es decir evaluación como una actividad más del que hacer del profesor.
El encargado de la evaluación debe ser una persona imparcial que vele por que el proceso sea efectivamente para lo que está propuesto y que no van a afectar en su procedimiento otros factores.
Textos consultados
Manzi, J. (2007). Seminario “Evaluación Docente en Chile:Fundamentos, Experiencias y resultados”. Centro de medición Pontificia Universidad Católica de Chile.
Manual para la Buena enseñanza.

lunes, 7 de febrero de 2011

Evaluación PISA

            La rigurosidad metodología con que se ha desarrollado la evaluación PISA hace suponer una cierta neutralidad, sin embargo, existe un elemento fundamental que incide en el impacto final que pueda tener en un determinado país, este es el manejo de la información, que es bastante, que cada sector, país o colectivo le de. Como bien lo mencionan los textos de Martínez (2006) y Sanmartí y Sardà (2007), los resultados de esta evaluación claramente buscan cambiar la orientación de los currículos en las aulas, pero no está clara la dimensión global del impacto o influencia real que puedan tener. La explicación técnica que aporta, si bien es muy detallada y abierta para que cada conglomerado tome sus propias decisiones, puede ser utilizada de manera fragmentada o parcial, similar a lo que ocurre con los medios de comunicación, en apoyo de políticas cortoplacistas, de ahí mi inquietud por quién y cómo utilice este tipo de evaluación.
En lo que explica Martínez (sic) respecto a la metodología utilizada, al parecer se entiende PISA como la evaluación internacional mejor posicionada y con mayor autoridad, tanto en su constructo, como en su objetivo a evaluar: “lo que un alumno de 15 años debería poder hacer, lograr”. Sin embargo el mismo texto termina con conclusiones categóricas respecto a
-         como evaluar el impacto que tiene en la medición la baja implicación o desmotivación de los alumnos.
-         No esta suficientemente probado que la edad y no el curso sea un buen elemento para la elección de la población a estudiar.
-         Se deberían entregar con mayor visibilidad cualificadotes de cada país en particular, edad ingreso al colegio, población con secundaria rendida, etc.
-         Si bien sienten que han tenido impacto en las políticas y prácticas educativas, es un elemento que no se puede medir, pues es información que no manejan.
-         No tienen claro el impacto en otros ámbitos, en este aspecto el texto de Sanmartí (sic), es más explícita indicando que la evaluación pudiera incentivar una desvaloración de los profesionales de la educación, en incentivar la competitividad entre centros y entre profesores. Si bien no es uno de los explícitos de PISA, es evidente que los titulares y muchas decisiones políticas se pueden orientar hacia centros con mejores resultados en detrimentos de los otros, sin tomar en cuenta la complejidad de fondo que explica las situaciones particulares.


            En el aspecto personal puedo indicar lo siguiente, la forma en que los alumnos deben enfrentar los ítems de la evaluación PISA es un reto a la forma tradicional en que estamos acostumbrados a medir lo que son capaces de realizar o los logros que pueden tener. En cuanto a los contenidos tratados son relativamente similares, pero la forma que tenemos de abordarlos, de manera sectaria hace difícil el conseguir que nuestro alumnos desarrollen habilidades de interpretación o comprensión holística sobre un determinado punto, un ejemplo muy sencillo en ciencias es el AGUA, la cual desde secundaria será tratada como el agua de biología, el agua de física y el agua de química, en consecuencia que cuando consuma un vaso del vital elemento será sólo uno y no tres las formas de entender y de beberlo.

               Un último punto que quisiera tratar fue algo que me llamó la atención respecto a una opinión vertida en el extracto del diario por Julio Carabañas de la Universidad Complutense de Madrid: “….y dando por sentado que con sus tests libres de contenido, PISA cuantificaba en realidad la inteligencia general de los examinados” , creo que al respecto está equivocado, en realidad contenido existe, la diferencia está en la manera de resolver una situación problemática o de enfrentar una explicación, en mi caso “científica”, en la forma de manejar la información que en este caso sería el contenido que se da por sentado que debería manejar. Es más en uno de los textos ese era uno de los puntos de discusión,, debido a que en algunos países debido a un ingreso más tardío no necesariamente manejarían la misma cantidad de información.

domingo, 23 de enero de 2011

Existen elementos que no es necesario evaluar para darse cuenta que el sistema o el proceso está siendo poco eficiente en su búsqueda. En algunos casos se realiza la evaluación como una forma de argumentar que el proceso evaluativo se llevó a cabo, sin embargo, en sí no tiene ninguna utilidad.
Esto puede ocurrir en ambos sentidos, es decir, que se esté intentando evaluar el caso que se presenta en la imagen o en situaciones en que claramente lo que se persigue de una u otra forma es evidente que está superado o ya cumplido.

Alvaro Muñoz: Hola

Alvaro Muñoz: Hola: "Saludo afectuosamente a todos mis seguidores y seguidoras. Espero sus comentarios"

miércoles, 12 de enero de 2011