La exigencia cognitiva en los exámenes tipo test en contexto universitario y su relación con los enfoques de aprendizaje, la autorregulación, los métodos docentes y el rendimiento académico
-
1
Universidad de Murcia
info
ISSN: 2174-8144, 2254-9625
Año de publicación: 2019
Volumen: 9
Número: 3
Páginas: 177-187
Tipo: Artículo
Otras publicaciones en: EJIHPE: European Journal of Investigation in Health, Psychology and Education
Resumen
La calidad del rendimiento académico y los resultados de aprendizaje dependen de diversos factores, tanto de tipo psicológico como de tipo contextual. El contexto académico incluye las actividades formativas y el tipo de evaluación o examen, sobre el cual también influyen factores cognitivos y motivacionales, tales como los enfoques de aprendizaje y estudio y la autorregulación. En nuestro contexto universitario el tipo de examen predominante es el de preguntas de opción múltiple. La exigencia cognitiva de estas preguntas puede variar. Desde la típica taxonomía de Bloom se considera que de menor a mayor exigencia cognitiva tenemos preguntas sobre conocimiento factual, conceptual, de aplicación, etc. Normalmente el profesor no tiene en cuenta estas clasificaciones a la hora de elaborar este tipo de examen. Se propone aquí un modelo de adaptación de la clasificación de preguntas de opción múltiple según exigencia cognitiva (memorización asociativa, comprensión, aplicación), poniéndolo a prueba analizando un examen de una asignatura de Grado en Psicología y relacionando los resultados con medidas de enfoques de aprendizaje (cuestionarios ASSIST y RSPQ-2F) y autorregulación en una muestra de 87 sujetos. Los resultados muestran rendimiento académico diferencial según tipos “cognitivos” de preguntas y diferencias en enfoques de aprendizaje y autorregulación. Se subraya la conveniencia de tener en cuenta estos factores de exigencia cognitiva a la hora de elaborar preguntas de opción múltiple.
Referencias bibliográficas
- Abellán-Pérez, C. (2018). Aplicación del modelo de Rasch en un cuestionario de autorregulación en el estudio (Trabajo fin de grado). Universidad de Murcia, Murcia.
- Agencia Nacional de Evaluación de la Calidad y Acreditación (2013). Guía de apoyo para la redacción, puesta en práctica y evaluación de los resultados del aprendizaje. Madrid: ANECA.
- Anderson, L.W., Krathwohl, D.R., Airasian, P.W., Cruikshank, K.A., Mayer, R.E., Pintrich, P.R.,… Wittrock, M.C. (2001). A Taxonomy for Learning, Teaching, and Assessing: A Revision of Bloom’s Taxonomy of Educational Objectives. New York: Longman.
- Biggs, J.B., y Collis, K. F. (1982). Evaluating de quality of learning. The SOLO taxonomy (Structure of the Observed Learning Outcome). New York: Academic Press.
- Bloom, B., Englehart, M., Furst, E., Hill, W., y Krathwohl, D. (1956). A taxonomy of educational objectives, Handbook I: Cognitive domain. New York: David McKay Company.
- Cárdenas, J.A., Blanco, L.J., y Cáceres, M.J. (2016). La evaluación de las matemáticas: análisis de las pruebas escritas que se realizan en la Secundaria. Revista Iberoamericana de Educación Matemática, 48, 59-78.
- Doval, E., y Renom, J. (2010). Desarrollo y verificación de la calidad de pruebas tipo test. Barcelona: Institut de Formació Continua (Universitat de Barcelona).
- Hidalgo, M.D., Romero, A., González, F., García-Sevilla, J., Pérez, M.A., Carrillo,… Peñaranda, M. (2009). Herramientas de evaluación de los estilos de aprendizaje en universitarios: Traducción y adaptación del cuestionario ASSIST. Comunicación presentada a las IV Jornadas sobre el Espacio Europeo de Educación Superior: "El Espacio Europeo de Educación Superior en el horizonte del 2010”. Murcia, 22, 23 y 24 de septiembre de 2009.
- Hubbard, R. (1997). Assessment and the Process of Learning Statistics. Journal of Statistics Education, 5(1), 1-9.
- Kattan, E., Pérez, G., Le Roy, C., Sirhan, M., González, A., Rybertt, T.,… Riquelme, A. (2014). Proceso de mejoría de pruebas de conocimiento con preguntas de selección múltiple en un curso teórico de pregrado de medicina. Revista de Educación en Ciencias de la Salud, 11(2), 116‐123.
- Kelley, T.L. (1939). The selection of upper and lower groups for the validation of test items. Journal of Educational Psychology, 30(1), 17.
- Kominski, C.A. (2012). Designing multiple choice tests to measure higher order thinking. Test Item Writing, 10, 1-33.
- Pérez, M.L., Carretero, M.R., Palma, M., y Rafel, E. (2000). La evaluación de la calidad del aprendizaje en la universidad. Infancia y Aprendizaje, 91, 5-30.
- Prieto, A. (2016). Taxonomía de Bloom. Usos para los profesores y para los alumnos. En https://es.slideshare.net/alfredo.prietomartin/001-taxonoma-de-bloom
- Scouller, K. (1998). The influence of assessment method on students’ learning approaches: Multiple choice question examination versus assignment essay. Higher Education, 35, 453–472.
- Scully, D. (2017). Constructing multiple-choice items to measure higher-order thinking. Practical Assessment, Research y Evaluation, 22(4), 1-13.
- Stanger-Hall, K.F. (2012). Multiple-Choice Exams: an obstacle for higher-level thinking in introductory science classes. CBE—Life Sciences Education, 11, 294–306.
- Su, W.M., Osisek, P.J., Montgomery, C., y Pellar, S. (2009). Designing multiple-choice test items at higher cognitive levels. Nurse Education, 34(5), 223-227. doi:10.1097/NNE.0b013e3181b2b546
- Tait, H., Entwistle, N.J., y McCune, V. (1998). ASSIST. A reconceptualization of the Approaches to Studying Inventory. En C. Rust (Ed.), Improving students as learners (pp. 262-271). Oxford: Oxford Bookes University.
- Yonker, J.E. (2011). The relationship of deep and surface study approaches on factual and applied test‐bank multiple‐choice question performance. Assessment y Evaluation in Higher Education, 36, 673-686.