Material de lecturas



Descargar 0.69 Mb.
Página11/14
Fecha de conversión12.11.2017
Tamaño0.69 Mb.
1   ...   6   7   8   9   10   11   12   13   14

5. Conclusiones: implicaciones para la investigación y la teoría de la medición

Ralph Tyler es un icono en la historia de la medición educativa. Empecé este capítulo con un análisis histórico porque yo quería abordar explícitamente la tensión entre mi constante creencia en la visión de Tyler —de que la medición educativa debe ser parte integral de la enseñanza— y mi necesidad de cuestionar su herencia involuntaria: el persistente modelo de pruebas y mediciones para la evaluación en el aula, fundado principalmente en pruebas objetivas elaboradas externamente. La otra visión de la evaluación en el aula presentada en este capítulo es radicalmente diferente de la imagen de la aplicación de pruebas en el salón de clase presentada en volúmenes anteriores de Educational Measurement, y en libros de texto sobre medición. Ésta otra visión se centra en conceptualizaciones mucho más ricas sobre el aprendizaje del estudiante en el contexto de actividades significativas y resalta el uso formativo de la evaluación para mejorar el aprendizaje.

El nuevo modelo idealizado está bien fundado en las teorías cognitivas y socioculturales contemporáneas del aprendizaje y en la teoría de la motivación, pero en cierto sentido todavía es experimental, ya que no se ha puesto en marcha en gran escala. Queda mucho por aprender sobre qué nuevas ideas y adaptaciones adicionales se necesitarán para hacer que tal visión funcione en la práctica. Concluyo reflexionando sobre cuatro temas esenciales para la investigación futura: (1) estudios de las herramientas y los procesos de evaluación, (2) desarrollo de las progresiones del aprendizaje, (3) estudios del desarrollo del maestro, y (4) nuevas conceptualizaciones de confiabilidad y la validez.

5.1. Estudios de las herramientas y los procesos de evaluación

En Knowing What Students Know, Pellegrino et al. (2001) sostuvieron que las interpretaciones y las prácticas de evaluación deben basarse en un modelo bien concebido de aprendizaje del estudiante. Lo mismo puede decirse respecto de la importancia del modelo teórico que sirve de fundamento a los estudios de investigación. Cuando Black y Wiliam (1998) emprendieron su voluminosa revisión de la investigación sobre la evaluación formativa en el aula, citaron estudios fundamentales, meta análisis y revisiones que representaban mucho más de mil estudios. Con todo, muchos de los estudios citados son inadecuados para nuestros propósitos, porque se derivan de modelos de aprendizaje muy insuficientes para la teoría contemporánea. Por ejemplo, una gran mayoría de los estudios sobre retroalimentación se conceptualizaron desde una perspectiva conductista y dependían de pre pruebas y post-pruebas que se parecían mucho a los materiales de enseñanza. En la literatura motivacional, la recomendación de evitar tareas estimulantes tal vez no se sostenga en un ambiente basado en criterios más que en uno que remita a normas, o cuando la cultura del aula respalda a los estudiantes para que desarrollen una orientación hacia el aprendizaje. Se necesitan nuevos estudios que reflejen modelos constructivistas y socioculturales del aprendizaje asistido.

Unos cuantos estudios citados en el capítulo ilustran cómo puede introducirse y estudiarse una práctica específica de evaluación, consistente con la teoría social-constructivista. Por ejemplo, Elawar y Corno (1985) crearon una intervención para ayudar a los maestros a que se concentraran en conseguir que la retroalimentación fuera útil para el mejoramiento de los estudiantes. White y Frederiksen (2000) y Klenowski (1995) examinaron el efecto de la auto-evaluación en el aprendizaje del estudian- te y sus actitudes respecto a las calificaciones, el conocimiento de los criterios, etc. Se necesitan más estudios como éstos. Deben diseñarse para que respondan a preguntas de investigación tales como las siguientes: ¿cuán bien captan objetivos importantes de aprendizaje las evaluaciones incorporadas en la enseñanza? ¿Qué conocimientos aportan tales evaluaciones a los maestros y estudiantes, y qué otros estímulos proporcionan para que se hagan avances en el aprendizaje? ¿Cómo puede hacerse que las ocasiones de la evaluación y las estrategias para realizarla se adapten a las rutinas de enseñanza? (Ejemplos de estas estrategias son sobre todo los portafolios, las discusiones entre estudiantes y la explicación a la clase de las soluciones a problemas.) ¿Pueden introducirse con muchísimo cuidado los procesos derivados de la teoría del aprendizaje —evaluación del conocimiento previo, retroalimentación, conciencia metacognitiva, auto-evaluación, etcétera— como un medio para incrementar el aprendizaje y la motivación del estudiante? ¿En qué condiciones y para quién son eficaces estas estrategias? ¿Pueden hacerse coherentes, y que se respalden mutuamente la evaluación formativa y la sumativa? Cuando son coherentes, ¿se incrementan el aprendizaje y la motivación del estudiante? Las extrapolaciones especulativas de la investigación y la teoría existentes también deben someterse a prueba explícitamente. Por ejemplo, si se pospusieran las calificaciones, ¿aumentaría esto la eficacia de la evaluación formativa, es decir, se vería estimulada la orientación al aprendizaje y aumentarían la realización y los logros?

5.2. Estudios del desarrollo del maestro

Los estudios de una variable por vez o de una característica de la evaluación por vez son útiles para los fines de la investigación, porque nos ayudan a concentrarnos en los efectos de una estrategia específica y en las formas mediante las cuales esas prácticas de evaluación en particular respaldan el aprendizaje del estudiante. Además, estos estudios me parecen ejemplos útiles de cómo puede ocurrir el cambio: es decir, cómo es posible que los maestros a quienes les gusta la teoría de la evaluación formativa den los pasos iniciales para modificar su práctica. En última instancia la meta es hacer un paradigma completo y un cambio cultural (Shepard, 2000). Sin duda, si uno adopta una técnica de evaluación formativa sin un cambio filosófico correspondiente, los esfuerzos se verán socavados o acabarán por ser inútiles, ya que persistirán las actitudes tradicionales, como la de quienes en su desempeño académico sólo les importa la calificación. Sin embargo, sabemos gracias a la investigación sobre la reforma educativa y el cambio del docente que es imposible instaurar una reforma integral. Por lo tanto, es bastante práctico tomar en consideración argumentos teóricos y luego adoptar una estrategia específica de evaluación, como el punto focal para la transformación lenta y concienzuda en la práctica, junto con un acompañamiento constante y la reflexión para tener en cuenta las inevitables repercusiones teóricas y prácticas. La estrategia de la intervención única de evaluación podría ser una capacitación especial para dar retroalimentación enfocada al mejoramiento; documentar los fondos del mismo conocimiento de los estudiantes; examinar el trabajo de los alumnos en equipos de grado; introducir la autoevaluación, y así sucesivamente. En un estudio notable realizado en Inglaterra en el que el avance promedio de los alumnos de un grupo fue del orden de un tercio de una desviación estándar, Black y Wiliam (2004) familiarizaron a los maestros con la teoría de la evaluación formativa y luego los invitaron a desarrollar sus propios planes, seleccionando estrategias de la literatura, tales como preguntas abundantes, marcar el trabajo escolar sólo con comentarios, compartir criterios con los alumnos e implantar la autoevaluación y la evaluación por pares dada por los estudiantes.

La investigación sobre el aprendizaje y desarrollo profesional de los maestros nos proporciona varios principios generales para respaldar el cambio. En esencia, nosotros (los que promovemos el cambio) necesitamos tratar a los maestros en la medida en que son personas que aprenden, de la misma manera como les pedimos que traten a sus estudiantes. Necesitamos tener un modelo bien concebido de la práctica profesional ideal hacia la que los conducimos, y al mismo tiempo debemos estar conscientes de que los maestros harán contribuciones y también modificarán las herramientas y prácticas de la comunidad en la que participan (Lave y Wenger, 1991). Para que los docentes hagan cambios significativos en las creencias pedagógicas y en las prácticas concomitantes, ellos mismos necesitarán experimentar y reflexionar sobre nuevos procedimientos en el contexto de sus propias aulas (Putnam y Borko, 2000). Los estudios de investigación realizados en el contexto de la práctica deben prestar atención a cuestiones tales como las siguientes: ¿qué condiciones, creencias previas o apoyos hacen posible o frustran el uso de la evaluación tal como uno la quiere hacer? ¿Cómo influye el conocimiento de la materia que tiene un maestro sobre sus creencias y sobre la implementación de prácticas eficaces de evaluación formativa? ¿Cómo pueden quedar integradas las prácticas de evaluación formativa con otras reformas curriculares o con otros cambios culturales dirigidos a desarrollar una comunidad de personas que aprenden, los cuales también se basan en un modelo sociocultural del aprendizaje? ¿Cómo debe uno dedicarse a las cuestiones en torno a la calificación y a las evaluaciones externas, con objeto de ayudar y no de obstaculizar los esfuerzos de la evaluación formativa? ¿Cómo influyen en la renegociación de los objetivos de la evaluación formativa el contexto escolar y el contrato social implícito (Perrenoud, 1991) que los estudiantes llevan consigo en lo que se refiere a las calificaciones?

5.3. Nuevas conceptualizaciones de la confiabilidad y la validez

Mi preámbulo histórico describió el campo de la medición como reacio a distanciarse de una visión tradicional de las pruebas en el aula, que se concentraban en la evaluación sumativa. La llegada del siglo XXI, sin embargo, ha visto cambios notables. La publicación de Knowing What Students Know (Pellegrino et al., 2001) fue un verdadero parte aguas. Un segundo acontecimiento muy relevante fue la publicación de un número especial de Educational Measurement: Issues and Practice sobre “cambiando la manera en que los teóricos de la medición piensan sobre las evaluaciones en el aula” (Brookhart, 2003). Al frente de este movimiento, Brookhart (2003) sostiene que los avances en la teoría de la confiabilidad y la validez han sido forjados en el contexto de programas de evaluación en gran escala. En atención a la necesidad de que evaluación y enseñanza se integren en el aula, como he señalado en este capítulo, Brookhart (2003) ha dado argumentos en el sentido de que la forma de concebir confiabilidad y validez en el aula debe ser también fundamentalmente diferente.

Un principio básico de la teoría de la medición ha sido siempre que la confiabilidad y la validez dependen del uso de pruebas. En el contexto del aula, no es necesario que la confiabilidad de cualquier evaluación cumpla el mismo criterio de estabilidad que una medición utilizada para determinar la graduación del bachillerato o el ingreso a la universidad. Debido a que la evaluación formativa en las aulas es constante, una percepción errónea de las habilidades o el conocimiento de un estudiante puede un día corregirse con nueva información y al siguiente con una demostración de su aprovechamiento (Shepard, 2000). Lo que es más importante, los conceptos de andamiaje y evaluación dinámica (Lidz, 1987), fundamentados en la zona de desarrollo próximo de Vygotsky, tienen la finalidad de cambiar el nivel de aprovechamiento del estudiante en el mismo proceso de evaluación. Moss (2003), en el número especial de Educational Measurement: Issues and Practice, sostiene que, como docente, “No tengo necesidad de sacar y garantizar interpretaciones fijas de las capacidades de los estudiantes, sino que más bien mi trabajo es ayudarles a hacer que esas interpretaciones se vuelvan obsoletas” (p. 16). Smith (2003), también en el número especial, propuso que quizás la suficiencia de la información sería el criterio más apropiado para la confiabilidad en el contexto del aula. “¿Tengo a la mano la información suficiente para tomar una decisión razonable respecto de este estudiante en relación con este campo de contenido?” (p. 30). Como observó Moss, el criterio sería diferente dependiendo de si la decisión fuera sumativa, como para una carta de recomendación, o formativa, como cuando un maestro adapta la retroalimentación para ayudar a un estudiante a mejorar el trabajo que ha escrito.

Así como la evaluación formativa quizás no necesite que se dé a conocer una calificación fija, también es el caso que los coeficientes de correlación rara vez pueden ser los indicadores apropiados de la confiabilidad. En las aulas, dar sentido a los datos de observación y a las muestras del trabajo de los alumnos significa buscar patrones, comprobar evidencia contradictoria y comparar la descripción emergente en contraposición con modelos del desarrollo de las competencias. Al igual que otros autores, estoy en favor de un enfoque interpretativista del análisis y la síntesis de datos (Gipps, 1999; Graue, 1993; Moss, 1996, 2003; Shepard, 2001). En mi propio caso, veo una fuerte conexión entre el uso de métodos cuantitativos de investigación, de prácticas de evaluación formativa, y mi preparación para el trabajo clínico, cuando utilizo observaciones para formar una hipótesis tentativa, cuando reúno información adicional para confirmar o revisar, y cuando planeo una intervención (que en sí misma es una hipótesis de trabajo). En efecto, hace un tiempo, Geertz (1973) estableció una analogía entre la inferencia clínica como la que se usa en medicina y la forma en que los teóricos culturales diagnostican el significado fundamental del discurso social, queriendo decir con ello que usan una teoría aterrizada (grounded) para generar interpretaciones convincentes, o generalizaciones que tienen un poder explicativo más allá de las descripciones gruesas. Obsérvese que verificar si existen patrones y justificar que ciertas interpretaciones particulares están fundamentadas borra los límites entre la confiabilidad y la validez, como Smith (2003) tuvo que reconocer en su argumento en favor de la suficiencia de la información como la forma de definir la confiabilidad concerniente a los propósitos del aula. De hecho, la línea de interrogación que Smith (2003) propone para evaluar la confiabilidad corresponde de cerca al proceso interpretativo de evidencia que Moss (2003) ofrece como criterio de validez. En vista de que esta última es el concepto más incluyente, prefiero usar el término validez para referirme al proceso de fundamentar interpretaciones, y limitar el uso del término confiabilidad a las exigencias de consistencia más estrechas, tales como los acuerdos entre varios jueces al utilizar guías de calificación (rubrics).

Brookhart (2003), Moss (2003) y Smith (2003) han comenzado a especular sobre cómo tendrá que reformularse la teoría de la confiabilidad y la validez para que tengan sentido en los propósitos del aula, pero es tan sólo el inicio de un esfuerzo mayor de reconceptualización. Será necesario modificar muchos viejos conceptos o incluso ir en contra de ellos. Por ejemplo, sabemos que la diferencia entre dos calificaciones cuantitativas, es por lo general mucho menos confiable que cualquiera de las dos calculada por sí sola. No obstante, si fuéramos a tomar con seriedad la recomendación de Knowing What Students Know, de representar el progreso del estudiante a lo largo de continuos de aprendizaje bien desarrollados, las calificaciones de diferencia o las mediciones del progreso podrían ser sumamente confiables, porque la medición de crecimiento basada en el aula tendría el respaldo de todos los datos que se reunieran a lo largo del proceso, y no dependería solamente de los dos extremos. Un programa de investigación que estudiara la confiabilidad para los propósitos del aula debería empezar por examinar el tipo y el grado de consistencia requerido para respaldar las decisiones en el aula.

La validez es el sitio apropiado para empezar o terminar cualquier intento de medición educativa. En las aulas, la evaluación formativa es válida si contribuye al progreso del aprendizaje del estudiante. Como señala Moss (2003), la validez en los contextos del aula alude principalmente a las consecuencias, a qué tan bien las interpretaciones de las evaluaciones informan a las decisiones docentes y cuánto ayudan a hacer que los estudiantes avancen a lo largo de una trayectoria de competencia creciente. Para trazar un plan de investigación con objeto de desarrollar una teoría de la validez apropiada para la evaluación en el aula, uno necesita solamente retomar los temas importantes del capítulo. Para que se respalden mutuamente, la evaluación formativa y la sumativa deben alinearse desde el punto de vista conceptual. Deben incorporar objetivos de aprendizaje importantes, que se sirvan de una amplia gama de tareas y tipos de problemas para captar las comprensiones de los estudiantes. Las investigaciones sobre la validez deben examinar lo bien que diversas herramientas de evaluación representan el conocimiento, las habilidades y las actitudes de los estudiantes así como sus identidades en proceso de desarrollo, con fines sumativos, y cuán bien soportan acercamientos profundos y de dominio del aprendizaje, cuando se usan formativamente. Los estudios de validez deben, asimismo, consagrarse a revisar si los procesos de evaluación funcionan como se desea. Por ejemplo, ¿utilizan los estudiantes una retroalimentación sustantiva para mejorar su trabajo? El programa de investigación esbozado líneas arriba para examinar los efectos de las herramientas y los procesos de evaluación es, en realidad, un programa de investigación sobre la validez. La mayor comprensión que se alcance gracias a la investigación que pone a prueba el modelo de evaluación formativa, su relación con la teoría del aprendizaje, etcétera, ayudará asimismo a iluminar una nueva comprensión de la teoría de la validez, necesaria para la evaluación en el aula.



BIBLIOGRAFÍA

Ames, C. (1984). Competitive, cooperative, and individualistic goal structures: A cognitivemotivational analysis. En R. E. Ames y C. Ames (Eds.). Research on motivation in education, 1, 177-207. Nueva York: Academic Press.

Ames, C. (1992). Classrooms: Goals, structures, and student motivation. Journal of Educational Psychology, 84, 261-271.

Assessment Reform Group. (1999). Assessment for learning: Beyond the black box. University of Cambridge School of Education: Cambridge.

Atkin, J. M., Black, P., y Coffey, J. (2001). Classroom assessment and the National Science Education Standards. Washington, DC: National Academy Press.

Baron, J. B., y Wolf, D. P. (Eds.). (1996). Performance-based student assessment: Challenges and Possibilities, Ninety-fifth Yearbook of the National Society for the Study of Education. Parte 1. Chicago: University of Chicago Press.

Benware, C., y Deci, E. (1984). Quality of learning with an active versus passive motivational set. American Educational Research Journal, 21, 755-765.

Black, P., y William, D. (1998). Assessment and classroom learning. Assessment in Education: Principles, Policy, and Practice, 5(1), 7-74.

Black, P., y William, D. (2004). The formative purpose: Assessment must first promo- te learning. En M. Wilson (Ed.), Towards coherence between classroom assessment and accountability: 103º Yearbook of the National Society for the Study of Education. Parte 2, pp. 20-50. Chicago: University of Chicago Press.

Bloom, B. S. (Ed.). (1956). Taxonomy of educational objectives: The classification of educational goals. Nueva York: David McKay Company.

Bransford, J. D., Brown, A. L., y Cocking, R. R. (1999). How people learn: Brain, mind, experience, and school. Washington, DC: National Academies Press.

Brookhart, S. M. (1993). Teachers’ grading practices: Meaning and values. Journal of Educational Measurement, 30, 123-142.

Brookhart, S. M. (1994). Teachers’ grading: Practice and theory. Applied Measurement in Education, 7 (4), 279-301.

Brookhart, S. M. (2003) Developing measurement theory for classroom assessment purposes and uses. Educational Measurement: Issues and Practice, 22 (4), 5-12.

Brown, F. G. (1981). Measuring classroom achievement. Nueva York: Holt, Rinchart y Winston.

Bruner, J.S. (1985). Vygotsky: A historical and conceptual perspective. En J. V. Wersch y Center for Psychosocial Studies (Eds.), Culture, communication, and cognition: Vygotskian perspectives, pp. 21-34. Nueva York: Cambridge University.

Butler, R. (1987). Task-involving and ego-involving properties of evaluation: Effects of different feedback conditions on motivational perceptions, interest and performance. Journal of Educational Psychology, 79, 474-482.

Butler, R. (1988). Enhancing and undermining intrinsic motivation: The effects of task- involving and ego-involving evaluation on interest and performance. British Journal of Educational Psychology, 58, 1-14.

Butler, R., y Nisan, M. (1986). Effects of no fee- dback, taskrelated comments, and grades on intrinsic motivation and performance. Journal of Educational Psychology, 78, 210-216.

Calkins, L., Montgomery, K., y Santman, D. (1998). A teacher’s guide to standardized reding tests: Knowledge is power, Portsmouth, NH: Heinemann.

Carpenter, T. P., y Moser, J. M. (1984). The acquisition of addition and subtraction concepts in grades one through three. Journal for Research in Mathematics Education. 15 (3), 179-202.

Cizek, G. J., Fitzgerald, S. M., y Rachor, R. E. (1995/1996). Teachers’ assessment practices: Preparation, isolation, and the kitchen sink. Educational Assessment, 3 (2), 159-179.

Clay, M. M. (1985). The early detection of reading difficulties. Auckland, Nueva Zelanda: Heinemann.

Cobb, P., Wood, T., y Yackel, E. (1993). Discourse, mathematical thinking, and classroom practice. En E. A. Forman, N. Minick, y C. A. Stone (Eds.), Contexts for learning: Sociocultural dynamics in children’s development, pp. 91-119. Nueva York: Oxford University Press.

Connolly, A., Nachtman, W., y Pritchett, M. (1972). Keymath diagnostic arithmetic test. Circle Pines, MN: American Guidance Service.

Cook, W. W. (1941). Achievement tests. En W.

S. Monroe (Ed.), Encyclopedia of educational research, pp. 1283-1301. Nueva York: Macmillan.

Cook, W. W. (1951). The functions of measurement in the facilitation of learning. In E. F. Lindquist (Ed.), Educational Measurement, pp. 3-46. Washington, DC: American Council of Education.

Crooks, T. J. (1988). The impact of classroom evaluation practices on students. Review of Educational Research, 58 (4), 428-481.

Deci, E., y Ryan, R. (1985). Intrinsic motivation and self-determination in human behavior. Nueva York: Plenum.

Dorr-Bremme, D. W. (1983). Assessing students: Teachers’ routine practices and reasoning. Evaluation Comment, 6 (4), 1-12.

Dweek, C. (1986). Motivational processes affecting learning. American Psychologist, 41, 1040-1048.

Elawar, M. C., y Corno, L. (1985). A factorial experiment in teachers’ written feedback on student homework: Changing teacher behavior a little rather than a lot. Journal of Educational Psychology, 77, 162-173.

Elliot, E., y Dweck, C. (1988). Goals: An approach to motivation and achievement. Journal of Personality and Social Psychology, 54, 5-12.

Farr, R., y Griffin, M. (1973). Measurement gaps in teacher education. Journal of Re- search and Development in Education, 7 (1), 19-28.

Fennema, E., y Franke, M. L. (1992). Teachers’ knowledge and its impact. En D. A. Grouws (Ed.), Handbook of research on mathematics teaching and learning, pp. 147-164. Nueva York: Macmillan.

Fleming, M., y Chambers, B. (1983). Teacher- made tests: Windows on the classroom. New Directions for Testing and Measurement: Testing in the Schools, 19, 29-38.

Forster, M., y Masters, G. (2004). Bridging the conceptual gap between classroom assessment and system accountability. En M. Wilson (Ed.), Towards coherence between classroom assessment and accountability: 103º Yearbook of the National Society for the Study of Education, parte 2, pp. 51-73. Chicago: University of Chicago Press.

Geertz, C. (1973). The interpretation of cultures. Nueva York: Basic Books.

Gipps, C. V. (1999). Socio-cultural aspects of assessment. En P.D. Pearson y A. Iran Nejad (Eds.), Review of research in education, 24, 355-392. Washington, DC: American Educational Research Association.

Glaser, R., y Nitko, A. J. (1971). Measurement in learning and instruction. En R. L. Thorn- dike (Ed.), Educational measurement, 2a ed., pp. 625-670. Washington, DC: American Council on Education.

Goehring, H. J., Jr. (1973). Course competencies for undergraduate courses in educational tests and measurement. The Teacher Educator, 9, 11-20.

Goodman, Y. M. (1985). Kidwatching: Ob- serving children in the classroom. En A. Jaggar y M. T. Smith-Burke (Eds.), Observing the language learner, pp. 9-18. Newark, DE: International Reading Association and National Council of Teachers of English.

Goslin, D. A. (1967). Teachers and testing. Nueva York: Russell Sage.

Graue, M. E. (1993). Integrating theory and practice through instructional assessment. Educational Assessment, 1, 293-309.

Harackiewicz, J., Abrahams, S., y Wageman, R. (1987). Performance evaluation and intrinsic motivation: The effects of evaluative focus, rewards, and achievement orientation. Journal of Personality and Social Psycho- logy, 53, 1015-1023.

Heath, S. B. (1983). Ways with words: Language, life, and work in communities and classrooms. Cambridge: Cambridge University Press.

Heubert, J., y Hauser, R. (Eds.). (1999). High- stakes: Testing for tracking, promotion, and graduation. Washington, DC: National Academy Press.

Hiebert, E. H., y Raphael, T. E. (1998). Early literacy instruction. Fort Worth, TX: Harcourt Brace College Publishers.

Hogan, K., y Pressley, M. (1997). Scaffolding scientific competencies within classroom communities of inquiry. En K. Hogan y M. Pressley (Eds.), Scaffolding student learning: Instructional approaches and issues, pp. 74-107. Cambridge, MA: Brookline Books.

Klenowski, V. (1995). Student self-evaluation process in student-centered teaching and learning contexts of Australia and En- gland. Assessment in education, 2, 145-163.

Kluger, A. N., y DeNisi, A. (1996). The effect of feedback interventions on performance: A historical review, a meta-analysis, and a preliminary feedback intervention theory. Psychological Bulletin, 119, 254-284.

Kulm, G. (Ed.). (1990). Assessing higher order thinking in mathematics. Washington, DC: American Association for the Advancement of Science.

Lappan, G., Fey, J. T., Fitzgerald, W. M., Friel, S.

N., y Phillips, E. D. (1998). Connected mathematics, say it with symbols: Algebraic reasoning. Student Ed. Menlo Park, CA: Dale Seymour Publications.

Lave, J., y Wenger, E. (1991). Situated learning: Legitimate peripheral participation. Cambridge: Cambridge University Press.

Lepper, M. (1983). Extrinsic reward and intrinsic motivation: Implications for the classroom. En J. Levine y M. Wang (Eds.), Teacher and student perceptions: Implications for learning, pp. 281-317. Hillsdale, NJ: Lawrence Erlbaum.

Lidz, C. S. (1987). Dynamic assessment: An interactional approach to evaluating learning potential. Nueva York: Guilford Press.

Lindquist, E. F. (Ed.). (1951). Educational measurement. Washington, DC: American Council on Education.

Linn, R. L. (Ed.). (1989). Educational measurement, 3a ed. Nueva York: American Council on Education y Macmillan.

Lorsbach, A. W., Tobin, K., Briscoe, C., y La- Master, S. U. (1992). An interpretation of assessment methods in middle school science. International Journal of Science Education, 14 (3), 305-317.

Madaus, G. F., y Stufflebeam, D. L. (2000). Pro- gram evaluation: A historical overview. En D. L. Stufflebeam, G. F. Madaus, y T. Kellaghan (Eds.), Evaluation models: Viewpoints on educational and human services evaluation, 2a ed., pp. 3-18. Boston: Kluwer Academic.

Madaus, G. F., West, M. M., Harmon, M. C., Lomax, R. G., y Viator, K. A. (1992, October). The influence of testing on teaching math and science in grades 4-12: Executive summary. Chestnut Hill, MA: Boston College, Center for the Study of Testing, Evaluation, and Educational Policy.

Marshall, H. H. (1988). Work or learning: Implications of classroom metaphors. Educational Researcher, 17 (9), 9-16.

Marton, F. y Saljo, R. (1976). On qualitative differences in learning: 1. Outcome and process. British Journal of Educational Psychology, 46, 4-11.

Masters, G., y Forster, M. (1997). Mapping literacy achievement: Results of the 1996 National School English Literacy Survey. Camberra, Australia: Department of Employment, Education, Training and Youth Affairs (DEETYA).

Mathematical Sciences Education Board. (1993).

Measuring what counts: A conceptual guide for mathematics assessment. Washington, DC: National Academy Press.

Mayo, S. T. (1964, February). What experts think teachers ought to know about educational measurement. Ponencia presentada en la reunion anual del National Council on Measurement in Education, Chicago.

Mazur, E. (1997). Peer instruction: A user’s manual.

Upper Saddle River, NJ: Prentice Hall. McMillan, J. H. (2003). Understanding and improving teachers’ classroom assessment decision making: Implications for theory and practice. Educational Measurement: Is- sues and Practice, 22 (4), 34-43.

McNeil, L. M. (1988). Contradictions of control: School structure and school knowledge. Nueva York: Routledge.

Mitchell, M. (1993). Situational interest: Its multifaceted structure in the secondary school mathematics classroom. Journal of Educational Psychology, 85, 424-436.

Moll, L.C., Amanti, C., Neff, D., y González, N. (1992). Funds of knowledge for teaching: Using a qualitative approach to connect homes and classrooms. Theory Into Practice, 31 (2), 132-141.

Morrow, L. M. (1985). Retelling stories: Strategies for improving children’s comprehension, concept of story structure, and oral language complexity. Elementary School Journal, 85, 647-661.

Morrow, L. M., y Smith, J. K. (1990). Assessment for instruction in early literacy. Englewood Cliffs, NJ: Prentice Hall.

Moss, P. A. (1996). Enlarging the dialogue in educational measurement: Voices from interpretive research traditions. Educational Researcher, 25, 20-28, 43.

Moss, P. A. (2003). Reconceptualizing validity for classroom assessment. Educational Measurement: Issues and Practice, 22 (4), 13-25.

National Association for the Education of Young Children. (1990). Guidelines for appropriate curriculum content and assessment in programs serving children ages 3 through 8. Washing- ton, DC: National Association for the Education of Young Children.

National Council of Teachers of Mathematics. (1989). Curriculum and evaluation standards for school mathematics. Reston, VA: Autora.

National Council of Teachers of Mathematics. (1995). Assessment Standards for School Mathematics. Reston, VA: Autora.

National Research Council. (1989). Everybody counts: A report to the nation on the future of mathematics education. Washington, DC: National Academy Press.

Nava, F. J. G., y Loyd, B. H. (abril de 1992). An investigation of achievement and non-achievement criteria in elementary and secondary school grading. Ponencia presentada en la reunion anual de la American Educational Research Association: San Francisco.

Newmann, F. (1992). Higher order thinking and prospects for classroom thoughtfulness. En F. Newmann (Ed.), Student engagement and achievement in American secondary schools, pp. 62-91. Nueva York: Teachers College Press.

Nitko, A. J. (1989). Designing tests that are integrated with instruction. En R. L. Linn (Ed.), Educational measurement, 3ra ed., pp. 447-474. Nueva York: American Council on Education y Macmillan.

Noll, V. H. (1955). Requirements in educational measurement for prospective teachers. School and Society, 80, 88-90.

Ogle, D. M. (1986). K-W-L: A teaching model that develops active reading of expository text. The Reading Teacher, 39 (6), 564-570.

Pedulla, J. J., Abrams, L. M., Madaus, G. F., Russell, M. K., Ramos, M. A., y Miao, J. (2003). Perceived effects of state-mandated testing pro- grams on teaching and learning: Findings from a national survey of teachers. Boston: Boston College, National Board on Educational Testing and Public Policy.

Pellegrino, J. W., Baxter, G. P., y Glaser, R. (1999). Addressing the “Two Disciplines” problem: Linking theories of cognition and learning with assessment and instructional practice. En P. D. Pearson y A. Iran- Nejad (Eds.), Review of research in education, 24, 307-353. Washington, DC: American

Educational Research Association. Pellegrino, J. W., Chudowsky, N., y Glaser, R.

(2001). Knowing what students know: The science and design of educational assessment. Washington, DC: National Academy Press.

Perrenoud, P. (1991). Towards a pragmatic approach to formative evaluation. En P. Weston (Ed.), Assessment of pupils’ achievement: Motivation and school success, pp. 77-101. Amsterdam: Swets and Zeitlinger.

Putnam, R. T., y Borko, H. (2000). What do new views of knowledge and thinking have to say about research on teacher learning? Educational Researcher, 29 (1), 4-15.

Resnick, L. B., y Resnick, D. P. (1992). Assessing the thinking curriculum: New tools for education reform. En B. R. Gifford y M. C. O’Connor (Eds.), Changing assessments: Alternative views of aptitude, achievement, and instruction, pp. 37-75. Boston: Kluwer Academic.

Roeder, H. H. (1972). Are today’s teachers pre- pared to use tests? Peabody Journal of Education, 59, 239-40.

Romberg, T., y Carpenter, T. (1986). Research on teaching and learning mathematics: Two disciplines of scientific inquiry. En M. Wittrock (Ed.), Handbook of research on learning, 3a ed., pp. 850-873. Nueva York: Macmillan.

Routman, R. (2000). Conversations: Strategies for teaching, learning and evaluating. Ports- mouth, NH: Heinemann.

Sadler, R. (1989). Formative assessment and the design of instructional assessments. Instructional Science, 18, 119-144.

Salmon-Cox, L. (1981). Teachers and standardized achievement tests: What’s really happening? Phi Delta Kappan, 69(9), 631-634. Seriven, M. (1967). The methodology of evaluation. En R. A. Tyler, R. M. Gagne, y M.

Seriven (Eds.), Perspectives of curriculum evaluation, pp. 39-83. Chicago: Rand Mc- Nally.

Shepard, L. A. (2000). The role of assessment in a learning culture. Educational Researcher; 29 (7), 4-14.

Shepard, L. A. (2001) The role of classroom assessment in teaching and learning. En V. Richardson (Ed.), Handbook of research on teaching, 4a ed., pp. 1066-1101. Washing- ton, DC: American Educational Research Association.

Shepard, L. A. (2003). Reconsidering large-scale assessment to heighten its relevance to learning. En J. M. Atkin y J. E. Coffey (Eds.) Everyday assessment in the science classroom, pp. 121-146. Arlington, VA: NSTA Press.

Shepard, L. A., y Bliem, C. L. (1995). Parents’ thinking about standardized tests and performance assessments. Educational Re- searcher, 24 (8), 25-32.

Shepard, L., Hammerness, K., Darling-Hammond, L., y Rust, F. (2005). Assessment. En L. Darling-Hammond y J. Bransford (Eds.), Preparing teachers for a changing world: What teachers should learn and be able to do, pp. 275-326. San Francisco: Jossey-Bass.

Silver, E. A., y Kenney, P. A. (1995). Sources of assessment information for instructional guidance in mathematics. En T. A. Rom- berg (Ed.), Reform in school mathematics and authentic assessment, pp. 38-86. Albany, NY: State University of New York Press.

Silver, E. A., y Kilpatrick, J. (1989). Testing mathematical problem solving. En R. Char- les y E. Silver (Eds.), Teaching and assessing mathematical problem solving, pp. 178-186. Hillsdale, NJ: Lawrence Erlbaum.

Smith, J. K. (2003). Reconsidering reliability in classroom assessment and grading. Educational measurement: Issues and Practice, 22 (4), 26-33.

Stiggins, R. J. (1991). Relevant classroom assessment training for teachers. Educational Measurement: Issues and Practice, 10 (1), 7-12.

Stiggins, R. J. (2001). Student-involved classroom assessment, 3a ed. Upper Saddle River, NJ: Prentice Hall.

Stiggins, R. J., y Conklin, N. F. (1992). In teachers’ hands: Investigating the practices of classroom assessment. Albany: State University of New York Press.

Stipek, D. J. (1996). Motivation and instruction. En D. C. Berliner y R. C. Calfee (Eds.),

Handbook of educational psychology, pp. 85-113. Nueva York: Simon & Schuster Macmillan.

Stipek, D. (1998). Motivation to learn: From theory to practice, 3a ed.,. Boston: Allyn & Bacon.

Symonds, P. M. (1927). Measurement in secondary education. Nueva York: Macmillan.

Taylor, C. S., y Nolen, S. B. (2005). Classroom assessment: Supporting teaching and learning in real classrooms. Upper Saddle River, NJ: Pearson Education.

Teale, W. H., Hiebert, E. y Chittenden, E. (1987).

Assessing young children’s literacy development. The Reading Teacher, 40, 772-777.

Teale, W. H., y Sulzby, E. (Eds.). (1986). Emergent literacy: Writing and reading. Norwood, NJ: Ablex.

Tharp, R. G., y Gallimore, R. (1988). Rousing minds to life: Teaching, learning, and schooling in social context. Nueva York: Cambridge University Press.

Thorndike, E. L. (1913). Introduction to the theory of mental and social measurements. Nueva York: Teachers College, Universidad de Columbia.

Thorndike, E. L. (1922). Measurement in education. En Twenty-first yearbook of the National Society for the Study of Education. Parte 1, pp. 1-9. Bloomington, IL: Public School Publishing.

Thorndike, E. L. (1931). Human learning. Nueva York: Century.

Thorndike, E. L. (1971). Educational measurement, 2a ed. Washington, DC: American Council on Education.

Torgerson, T. L., y Adams, G. S. (1954). Measurement and evaluation for the elementary-school teacher with implications for corrective procedures. Nueva York: Dryden Press.

Travers, R. M. W. (1955). Educational measurement. Nueva York: Macmillan.

Tyler, R. W. (1951). The functions of measurement in improving instruction. In E. F. Lindquist (Ed.), Educational measurement, pp. 47-67. Washington, DC: American Council on Education.

U. S. Congress, Office of Technology Assessment. (1992). Testing in American schools: Asking the right questions (OTA-SET-519). Washington, DC: U.S. Government Printing Office.

Valencia, S. W., y Calfee, R. C. (1991) The development and use of literacy portfolios for students, classes, and teachers. Applied Measurement in Education, 4, 333-346.

Van den Heuvel-Panhuizen, M. (2001). A learning-teaching trajectory description as a hold for mathematics teaching in primary schools in the Netherlands. En M. Tzekaki (Ed.), Didactics of mathematics and informatics in education. 5a Conferencia Panhelénica con Participación Internacional, pp. 21-36. Thessaloniki: Universidad Aristóteles de Thessaloniki, Universidad de Macedonia, Instituto Pedagógico.

Vygotsky, L. S. (1978). Mind in society: The development of higher psychological processes. Cam- bridge, MA: Harvard University Press.

Ward, J. G. (1980). Teachers and testing: A survey of knowledge and attitudes. En L. M. Rudner (Ed.), Testing in our schools, pp. 15-24. Washington, DC: National Institute of Education.

White, B. Y., y Frederiksen, J. R. (2000). Metacognitive facilitation: An approach to making scientific inquiry accessible to all. En J. Minstrell y E. van Zee (Eds.), Inquiring into inquiry learning and teaching in science, pp. 33-370. Washington, DC: American Association for the Advancement of Science.

Wigheld, A., Eccles, J. S., y Rodríguez, D. (1998).

The development of children’s motivation in school contexts. En P. D. Pearson y A. Iran-Nejad (Eds.), Review of Research in Education, 23, 73-118. Washington, DC: American Educational Research Association.

Wiggins, G. (1992). Creating tests worth taking. Educational Leadership, 49, 26-33.

Wiggins, G. (1993). Assessment: Authenticity, context, and validity. Phi Delta Kappan, 74, 200-214.

Wiggins, G. (1998). Educative assessment: Designing assessments to inform and improve student performance. San Francisco: Jossey- Bass.

Wiggins, G., y McTighe, J. (1998). Understanding by design. Alexandria, VA: Association for Supervision and Curriculum Development.

Wood B. D. (1923). Measurement in higher education. Yonkerson-Hudson, Nueva York: Banco Mundial.

Wood, D., Bruner, J. S., y Ross, G. (1976). The role of tutoring in problem-solving. Journal of Child Psychology and Psychiatry, 17, 89-100.

Yeh, J. P., Herman, J. L., y Rudner, L. M. (1981). Teachers and testing: A survey of test use (CSE Report No. 166). Los Ángeles: UCLA, Center for the Study of Evaluation.




Compartir con tus amigos:
1   ...   6   7   8   9   10   11   12   13   14


La base de datos está protegida por derechos de autor ©composi.info 2017
enviar mensaje

    Página principal