Cuadernos Universitarios. Publicaciones AcadC)micas de la Universidad CatC3lica de Salta (Argentina), nC:m. 13, 2020
e-ISSN 2250-7132
CC
Esta obra estC! bajo licencia internacional Creative Commons
Reconocimiento-NoComercial-CompartirIgual 4.0.

Abstract

EspaC1ol

Con el fin de repensar las prC!cticas evaluativas de los docentes de una carrera de IngenierC-a de la Universidad CatC3lica de Salta (UCASAL), a mediados del mes de julio de 2020 se realizC3 un taller de evaluaciC3n. Luego de realizadas las actividades propuestas y de transcurrido el siguiente turno de exC!menes, se encuestC3 a los docentes involucrados. Este documento presenta el anC!lisis de las respuestas de los docentes a la encuesta y sus prC!cticas concretas durante una instancia de evaluaciC3n final. Las consideraciones giran en torno a los instrumentos y las metodologC-as de evaluaciC3n utilizadas, las competencias profesionales y el propC3sito de la evaluaciC3n final.

Palabras clave: prC!cticas de evaluaciC3n - evaluaciC3n de los aprendizajes - evaluaciC3n en la universidad - evaluaciones en ingenierC-a

English

In order to rethink the evaluative practices of the Catholic University of Salta (UCASAL) engineering professors, an evaluation workshop was held in mid-July 2020. After carrying out the proposed activities and after the next examination session, the teachers involved were surveyed. This document presents the analysis of the teachersb answers to the survey and their concrete practices during a final evaluation instance. The considerations revolve around the instruments and evaluation methodologies used, the professional competencies and the purpose of the final evaluation.

Keywords: evaluation practices - assessment of learning - evaluation at the university - evaluations in engineering

Ensayo cientC-fico

Citar: Breslin, R. D. y Capaldo, M. E. (2020). Repensando las evaluaciones finales en el C!mbito de las ingenierC-as. El caso en la Universidad CatC3lica de Salta. Cuadernos Universitarios, 13, pp. 89-98.

IntroducciC3n

La educaciC3n universitaria ha iniciado hace tiempo procesos de revisiC3n de sus prC!cticas educativas, donde la evaluaciC3n ha sido el detonante de importantes contradicciones vinculadas con otros aspectos del proceso formativo.

El campo de las ingenierC-as no es ajeno a esta situaciC3n, y se suma a ello la irrupciC3n de modalidades evaluativas mediadas por la tecnologC-a, que sin lugar a dudas se presentan con ventajas cualitativas relevantes para el proceso formativo de los ingenieros. Pero, por otro lado, tambiC)n nos encontramos con rechazo y desconfianza que se generan en ciertos grupos de docentes, siendo algunos de ellos responsables de materias que incluyen contenidos y herramientas tecnolC3gicas del campo de la informC!tica y las telecomunicaciones. Por ejemplo, los avances en las tecnologC-as de la informaciC3n y la comunicaciC3n son retomadas, utilizadas, valoradas y puestas en juego cuando se trata de la enseC1anza, del trabajo, del hacer y experimentar con ellas en los procesos formativos de los estudiantes; pero son sometidas a duros juicios de valor negativos cuando se trata de su uso en procesos evaluativos.

En este actual contexto de pandemia, la UCASAL mudC3 todo el sistema de educaciC3n presencial a su plataforma virtual, y los procesos de enseC1anza fueron garantizados para todas las carreras. En este sentido, las instancias de exC!menes finales tambiC)n fueron transformadas para sostener esta lC3gica, en algunos turnos los exC!menes finales fueron 100B % virtuales y en otros turnos se alternC3 el sistema presencial con el virtual, para garantizar a todos los estudiantes el derecho de rendir finales, asC- como la conformaciC3n de tribunales evaluadores con los docentes correspondientes.

Las evaluaciones de los aprendizajes mediadas por el uso de la tecnologC-a pasaron al centro del anC!lisis, del debate, y en algunos casos al centro de la hoguera. ResultC3 evidente que nos encontramos con dos sectores, los docentes a favor y los docentes en contra; estos C:ltimos rechazan de plano este tipo de modalidad en la evaluaciC3n. Poder identificar algunos supuestos que caracterizan a estos sectores es el objetivo de este estudio, realizado en una carrera en particular de la Facultad de IngenierC-a.

El avance hacia procesos formativos mediados por las tecnologC-as es una realidad que llegC3 hoy a las universidades, a las carreras, espacios curriculares y sectores que estaban seguros en la modalidad presencial. Ya no se trata solamente de ajustar la formaciC3n a las demandas del mundo del trabajo, a las particularidades de los nuevos jC3venes estudiantes, a la era digital o a la sociedad del conocimiento; se trata de redefinir las instituciones educativas desde sus fundamentos medulares. Somos los docentes, con nuestras prC!cticas de enseC1anza y de evaluaciC3n cotidiana, quienes recreamos las respuestas a esta educaciC3n en y post pandemia.

En este contexto, otro aspecto que impacta fuertemente en las ingenierC-as estC! relacionado con las competencias especC-ficas y genC)ricas que se establecieron como estC!ndares de acreditaciC3n de las carreras (CONFEDI, 2018). Las entidades receptoras de los profesionales, generadoras de fuentes laborales, tienen la responsabilidad social y legal por muchas de las actividades involucradas en esta profesiC3n, denominadas actividades reservadas. Varias de ellas son catalogadas de interC)s pC:blico, y es en este sentido que el sistema educativo debe garantizar el desarrollo adecuado y eficaz de esas actividades reservadas desde el desarrollo de competencias profesionales de las ingenierC-as. Estas competencias estC!n explC-citamente planteadas en los planes de estudio y deben ser fuertemente desarrolladas en los diferentes espacios curriculares y, en este sentido, deben ser claramente evaluadas (Giordano, 2016).

El desempeC1o profesional de estas actividades reservadas no solo estC! regulado por normativas especC-ficas a nivel nacional, sino que es la propia sociedad la que deposita en el sistema educativo (las universidades) la potestad de asegurar los conocimientos y las competencias efectivamente logradas por los profesionales (Ministerio de EducaciC3n de la NaciC3n Argentina, 2006).

El taller de evaluaciC3n

Con el fin de repensar nuestras prC!cticas evaluativas, y ante la necesidad de ajustarlas a las nuevas caracterC-sticas y condiciones de trabajo, como la virtualidad, se decidiC3 realizar un encuentro de taller con docentes de la carrera durante el mes de julio de 2020. El primer elemento a considerar tuvo que ver con la modalidad de las evaluaciones que efectivamente se desarrollan, y que apuntan a considerar solamente conocimientos memorC-sticos por parte de los estudiantes y a generar un clima de estrC)s alto.

Los conceptos de memoria y de estrC)s en los exC!menes han sido desde hace tiempo objeto de estudios; como afirman GarcC-a Ramos y Zurita AimacaC1a (2020), existe una correspondencia significativamente negativa entre los valores utilizados en el estudio que confirman la hipC3tesis de investigaciC3n acerca de la existencia de correlaciC3n entre la memoria de trabajo y el estrC)s acadC)mico.

Las ciencias cognitivas han denominado memoria de trabajo (MT), o working memory (WM), al mantenimiento activo y al procesamiento ejecutivo de la informaciC3n disponible en el sistema cognitivo. Una extensa literatura muestra que la MT es un constructo muy importante en diversas C!reas, y varios estudios han demostrado su rol clave en un amplio rango de procesos cognitivos, tales como la comprensiC3n, el razonamiento y la resoluciC3n de problemas (Engle, 2002). La MT es una variable predictiva importante en la habilidad intelectual y del desempeC1o acadC)mico, consistente a travC)s del tiempo (Adams y Hitch, 1997), lo que lleva a interpretar que esta memoria estC! directamente relacionada con las competencias especC-ficas que se deben adquirir en la formaciC3n de un ingeniero.

Tal como afirman Musso, Costa Lieste y Duarte (2012) en un estudio realizado en la Argentina, B+las principales dificultades de los estudiantes respecto a sus estrategias de aprendizaje se encuentran en la selecciC3n y expresiC3n de ideas principales y en las estrategias de manejo del tiempo y de la ansiedad frente a los exC!menesB; (p. 7). Las dificultades en la selecciC3n y expresiC3n de ideas principales implican problemas a la hora de comprender el texto, y son estrategias que demandan procesos cognitivos de memoria de trabajo y focalizaciC3n de la atenciC3n sobre lo mC!s relevante del texto. En tanto, las dificultades en el manejo del tiempo estarC-an planteando problemas a la hora de planificar y organizar secuencias de metas, factibles de ser logradas en funciC3n del tiempo disponible. En este sentido podemos entender por quC) una instancia de examen constituye una situaciC3n altamente B+traumC!ticaB;, en aspectos fundamentales como el manejo del tiempo y la memoria de trabajo.

Por otra parte, el trabajo de Palacios Navarro (2002), vinculado a los efectos de la evaluaciC3n formativa virtual en el rendimiento acadC)mico, expresa que desde una perspectiva psicodidC!ctica las nuevas tecnologC-as siguen ofreciendo la posibilidad de aproximarse al ideal constructivista del proceso de enseC1anza y aprendizaje, entendiC)ndolo como un proceso de construcciC3n y atribuciC3n de significados. Claro que esta situaciC3n no estC! exenta de dificultades, dado que al momento de plantear exC!menes basados en nuevas tecnologC-as se requiere de logC-stica y conocimientos particulares de los docentes universitarios, ademC!s de consumir un tiempo extra de trabajo y planificaciC3n, que no siempre estC! suficientemente reconocido.

Sobre la base de los elementos desarrollados hasta aquC-, desde la jefatura de carrera de una ingenierC-a, se convocC3 a la participaciC3n de un taller de evaluaciC3n, con el objetivo primordial de repensar los modelos de evaluaciC3n y las modalidades que se utilizan. Todo esto en el contexto de sostener evaluaciones no presenciales, avanzar hacia la evaluaciC3n de las competencias profesionales y con intenciones de bajar los niveles de ansiedad de estudiantes y docentes, quienes ponen sobre el tapete las dudas en relaciC3n con las evaluaciones virtuales. Participaron 46 docentes de los 71 convocados de la carrera, lo que equivale al 65B % de asistencia, y 42 de ellos eran jefes de cC!tedra.

La tarea central del taller consistiC3 en repensar al menos dos C-tems o preguntas concretas de su instrumento de evaluaciC3n, para que pudieran apuntar a evaluar algunas de las competencias profesionales presentadas y que no dieran importancia a la posibilidad de consulta externa por parte de los estudiantes. En este punto conviene realizar un parC)ntesis explicativo, dado que constituye una de las mC!s fuertes dudas y cuestionamientos que se realizan desde los equipos docentes a las evaluaciones mediadas por tecnologC-as.

La posibilidad de consultas externas de los estudiantes ba textos, bibliografC-as, sitios web, apuntes de cC!tedras, compaC1eros, etc.b durante el momento del examen se presenta como uno de los principales cuestionamientos, por parte de los docentes, a las evaluaciones virtuales. En este sentido, desde la jefatura de carrera, en el marco del taller, se desestimC3 este argumento cuando se propuso evaluar competencias profesionales, como por ejemplo la resoluciC3n de problemas o el trabajo en equipo, cuestiones centrales en la formaciC3n de un ingeniero. No resulta relevante si el estudiante consulta un sitio web o un software especC-fico para dar una respuesta, dado que esta no refiere a un dato o contenido lineal y memorC-stico, sino a la puesta en juego de un B+saber hacerB; con ese dato o conocimiento.

Las respuestas del equipo docente

Posteriormente a la realizaciC3n del taller, se concretC3 una encuesta a todos los docentes de una carrera de IngenierC-a. De los 35 que respondieron la encuesta, el 94B % habC-a participado en el taller de evaluaciC3n del mes de julio. Es necesario aclarar que ademC!s de la asistencia se planteC3 la realizaciC3n de una actividad vinculada con revisar, analizar y modificar algunas consignas de un instrumento de evaluaciC3n y la metodologC-a empleada en los exC!menes finales.

Dado que dentro de los objetivos del taller se encontraba la posibilidad de repensar los modos e instrumentos de evaluaciC3n en relaciC3n con focalizar las competencias profesionales, resultC3 necesario consultar acerca del nivel de conocimientos de estas por parte de los docentes. Resulta interesante observar que el 29B % de los docentes no conocC-a las competencias profesionales especC-ficas de ingenierC-a, en tanto que el 71B % restante manifestC3 que ya las conocC-a o que se habC-a actualizado en el encuentro. En relaciC3n con las competencias genC)ricas vinculadas con la formaciC3n universitaria, solo el 23B % de los docentes no las conocC-a, y el resto b77B % del plantel docenteb, sC-. Es necesario puntualizar la importancia de esta situaciC3n dado que, como fue seC1alado anteriormente, una actividad reservada como las ingenierC-as debe contar con formadores que conozcan al 100B % las particularidades del perfil profesional.

La tarea concreta que se debC-a realizar luego del taller de evaluaciC3n consistC-a en repensar y reelaborar algunas de las consignas del instrumento de evaluaciC3n final de la materia en la cual se desempeC1aba cada uno como docente, reelaboraciC3n que debC-a estar enmarcada en el planteo de competencias profesionales.

El 68B % de los docentes que respondieron la encuesta realizaron efectivamente la reelaboraciC3n de una, dos o mC!s preguntas de sus exC!menes. Este porcentaje pone de manifiesto el interC)s por revisar las prC!cticas evaluativas que se llevan a cabo en la carrera. En tanto que el 23B % manifestC3 que las consignas de sus instrumentos de evaluaciC3n ya estaban orientadas a las competencias, desde antes del taller de evaluaciC3n. El 9B % restante manifestC3 que no habC-a tenido tiempo suficiente para concretar la tarea, o que las caracterC-sticas de su materia no permitC-an incorporar las competencias profesionales especC-ficas de la ingenierC-a. En este punto nos encontramos con espacios curriculares comunes a las diversas ingenierC-as que se dictan en la unidad acadC)mica, en los cuales no siempre se retoman las competencias especC-ficas, pero sC- debieran incluirse las competencias genC)ricas definidas en la normativa vigente.

En este punto es importante preguntarse, entonces, B?por quC) si mC!s del 70B % de estos docentes ya conoce las competencias especC-ficas de ingenierC-a, solo unB 23 % las toma en consideraciC3n para elaborar sus instrumentos de evaluaciC3n? Puede pensarse que esto tiene que ver con la histC3rica grieta que separa la enseC1anza de la evaluaciC3n, o que tiene que ver con las concepciones de evaluaciC3n que sostienen los docentes, o con el bajo grado de centralidad que se otorga a la evaluaciC3n en relaciC3n con otras actividades de la prC!ctica docente. Estas cuestiones presentan temas para el constante anC!lisis y evaluaciC3n de las prC!cticas docentes.

La actividad propuesta en el taller tambiC)n tenC-a como objetivo lograr algunos cambios en los exC!menes finales que se desarrollarC-an en el cuarto turno ordinario, ya sea en relaciC3n con la metodologC-a o en relaciC3n con los instrumentos. Esto se vincula directamente con la necesidad de instalar momentos y espacios para el anC!lisis de las prC!cticas docentes, de manera sistemC!tica y regular, como un accionar constitutivo de la vida universitaria. Una de las preguntas de la encuesta fue pensada para recabar informaciC3n al respecto, solicitando explicitar lo que habC-a ocurrido en el citado turno. En este sentido, el 54B % de los docentes manifestC3 que habC-a cambiado preguntas o consignas de sus instrumentos de evaluaciC3n y, el 11B %, que habC-a cambiado la metodologC-a de evaluaciC3n y las consignas, en tanto que solo el 6B % habC-a cambiado la metodologC-a sin modificar los instrumentos. MC!s allC! del anC!lisis pormenorizado que queda por realizar, lo importante es mencionar que el 71B % de los docentes que respondieron la encuesta realizaron alguna modificaciC3n en sus prC!cticas evaluativas en el turno de exC!menes finales con posterioridad a la realizaciC3n del taller. Esta caracterC-stica de proactividad en los docentes es fundamental para avanzar en la mejora de las prC!cticas y en la investigaciC3n formativa que se pretende llevar adelante (GonzC!lez Agudelo; 2006).

Resulta interesante someter las respuestas obtenidas a un anC!lisis de coherencia entre las vinculadas a la actividad de repensar las consignas de un instrumento de evaluaciC3n (ARC) y las vinculadas a la modificaciC3n real de instrumentos o modalidades durante el cuarto turno de exC!menes (M4T). Para ello se utilizC3 el criterio de coherencia segmentado en:

  • Coherencia positiva: sC- realizaron ARC y tambiC)n realizaron M4T b 54B %

  • Coherencia negativa: no realizaron ARC y no realizaron M4T b 20B %

  • Incoherencia positiva: no realizaron ARC y sC- realizan M4T b 11B %

  • Incoherencia negativa: sC- realizaron ARC y no realizan M4T b 14B %

Volveremos sobre estos porcentajes un poco mC!s adelante, con otro anC!lisis de coherencia vinculado con este.

La modalidad del examen y el formato elegido por los docentes son, sin lugar a dudas, los elementos mC!s controversiales de esta situaciC3n. Tal como fue planteado mC!s arriba, la virtualidad genera desconfianza en el cuerpo docente. Entre aquellos que manifestaron haber cambiado la metodologC-a de examen en el cuarto turno, el 83B % de los encuestados, se observa que las herramientas tecnolC3gicas mC!s utilizadas fueron:

  • 1B: Videoconferencia y cuestionario on line; cuestionario Moodle, 31B %

  • 2B: Videoconferencia y tarea a entregar (por cualquier medio), 28B %

  • 3B: Videoconferencia C:nicamente; videoconferencia y cuestionario en pantalla; cuestionario en otra plataforma (fuera de la institucional), 11B %

  • 4B: Tarea a entregar por cualquier medio, 9B %

La elecciC3n de una herramienta que permite recrear la presencialidad con un encuentro sincrC3nico mediado por dispositivos tecnolC3gicos (la videoconferencia) es un aspecto que pone de manifiesto, una vez mC!s, la desconfianza que pesa en la virtualidad al momento de una evaluaciC3n de aprendizajes. Asimismo, el uso de la videoconferencia asociada a un cuestionario o a una tarea adicional intentan simular un examen presencial, en el cual el docente entrega un cuestionario o consignas de trabajo en formato papel, el estudiante las desarrolla y las devuelve al docente para su revisiC3n. MC!s del 70B % de los docentes, habiendo modificado las metodologC-as de evaluaciC3n en el cuarto turno de exC!menes, sostienen un formato que recrea la presencialidad.

Al realizar el mismo anC!lisis de coherencia entre las respuestas vinculadas con repensar consignas de su instrumento de evaluaciC3n (ARC) y las respuestas vinculadas a la elecciC3n de las herramientas tecnolC3gicas seC1aladas en el pC!rrafo anterior, se encuentran los siguientes porcentajes:

  • Coherencia positiva: sC- realizaron ARC y cambiaron metodologC-a, 43B %

  • Coherencia negativa: no realizaron ARC y no cambiaron metodologC-a, 26B %

  • Incoherencia positiva: no realizaron ARC y sC- cambiaron metodologC-a, 3B %

  • Incoherencia negativa: sC- realizaron ARC y no cambiaron metodologC-a, 29B %

En este punto es cuando se vuelve al primer anC!lisis de coherencia, y se puede evidenciar la disminuciC3n de la coherencia positiva y el incremento de la incoherencia negativa. Lo que efectivamente ocurre en una instancia real de evaluaciC3n final, en un examen concreto, no se vincula directamente con la tarea realizada para el taller de evaluaciC3n en relaciC3n con repensar las prC!cticas evaluativas. La negatividad aumenta en el orden del 20B % en este C:ltimo anC!lisis.

Cuando se consulta el nivel de satisfacciC3n o insatisfacciC3n de lo acontecido en el cuarto turno de exC!menes finales a aquellos docentes que sC- cambiaron la metodologC-a de evaluaciC3n, nos encontramos con las siguientes respuestas:

  • EstC! satisfecho con el cambio, el 40B %

  • EstC! insatisfecho con el cambio, el 14B %

  • Tiene una impresiC3n mixta de satisfacciC3n e insatisfacciC3n, el 20B %

  • Manifiesta no haber realizado cambios en la metodologC-a de evaluaciC3n, el 26B %. En este punto aparece un dato contrario al recogido anteriormente.

La satisfacciC3n estC! dada por elementos tales como la facilidad en el desarrollo del examen, la correcciC3n automC!tica del instrumento, el presentar un diseC1o mC!s amigable para el estudiante, la sensaciC3n de tranquilidad durante el examen. En tanto, la insatisfacciC3n estC! dada por elementos como los resultados en las notas, los resultados en relaciC3n con los conocimientos evaluados, las dudas respecto al desempeC1o de los estudiantes y el tiempo de desarrollo del examen.

Cabe poner atenciC3n en el elevado grado de satisfacciC3n de los docentes en relaciC3n con las herramientas utilizadas, del 40B % concretamente, considerando que las descritas anteriormente constituyen una simulaciC3n de la presencialidad. En este sentido se puede avanzar en preguntarnos si la satisfacciC3n estC! dada por esa simulaciC3n o por las posibilidades reales del uso de la virtualidad para evaluar.

Entre los docentes que no cambiaron su metodologC-a de evaluaciC3n, se pueden identificar los siguientes motivos:

  • Considero necesario ver el rostro del estudiante en un examen, 34B %

  • Tengo la impresiC3n que de otro modo el estudiante puede tomar algC:n tipo de atajo, 9B %

  • La tarea es la C:nica forma de evaluar mi materia, 0B %

  • No estoy seguro de estar evaluando correctamente, 0B %

  • No estoy seguro de estar evaluando en forma integral, 0B %

Parece que el hecho de haber cambiado la metodologC-a o no en el turno de examen analizado no interfiere con la alta valoraciC3n y el uso que se da a la videoconferencia, al B+mirarB; a los estudiantes en tiempo real.

Hacia el final de la encuesta se encuentran dos preguntas abiertas. La primera estC! orientada a identificar los objetivos de una instancia de evaluaciC3n final, en tanto que la segunda se vincula con poner de manifiesto las metodologC-as mC!s adecuadas para este tipo de evaluaciC3n.

Cuando centramos la mirada en el momento en el cual se llevan a cabo las evaluaciones, nos encontramos con tres opciones: evaluaciC3n inicial, evaluaciC3n procesual y evaluaciC3n final. Cada una de ellas tiene objetivos especC-ficos, tanto para el proceso de enseC1anza como para el proceso de aprendizaje que lleva adelante el estudiante. Esta tipologC-a no es excluyente de la evaluaciC3n formativa y sumativa, dado que desde cualquiera de estos posicionamientos vamos a encontrar evaluaciones que se llevan a cabo antes, durante o al finalizar un proceso, tarea o proyecto, entre otros.

En este sentido encontramos que solamente el 29B % de las respuestas se vinculan directamente con los propC3sitos de una evaluaciC3n final, con expresiones tales como B+verificar lo aprendidoB;, B+acreditar algunas competenciasB;, B+comprobar si lo enseC1ado fue adquirido por el alumnoB;. En tanto, el 31B % de los docentes sostiene que el objetivo del examen final es B+evaluarB;: evaluar conocimientos, procedimientos, razonamiento, competencias, conceptos, lo aprendido por los alumnos. El tC)rmino B+evaluarB; es tan multifacC)tico como teorC-as y corrientes pedagC3gicas conocemos, por lo cual no es posible otorgarle un significado unC-voco para cada uno de los encuestados.

Resulta muy significativo que el 40B % de las respuestas obtenidas no identifiquen una finalidad concreta para el examen final, sino que hagan alusiC3n a objetivos de aprendizaje de los estudiantes. Aparecen expresiones tales como B+que el alumno conozca los fundamentos y conceptos bC!sicosb&B;, B+que el alumno salga con los conceptos aprehendidosb&B;, B+... que el alumno tenga compresiC3n de los pilares de la materiab&B;, B+que el estudiante demuestre que estudiC3b&B;.

La pregunta de para quC) se evalC:a remite a las finalidades de la evaluaciC3n, cuestiC3n que constituye uno de los ejes centrales para poder tomar las decisiones adecuadas. En tC)rminos generales podemos identificar algunas finalidades principales de todo proceso evaluativo: diagnC3stico, pronC3stico, selecciC3n y acreditaciC3n. Estas finalidades no necesariamente se plantean como excluyentes, pero sC- definen opciones metodolC3gicas diferenciadas (Elola y Toranzos, 2009).

La acreditaciC3n es un requisito formal que suele descansar en valoraciones cuantitativas, con escalas de valoraciC3n definidas, que tiene como finalidad asegurar que el sujeto alcance determinados objetivos establecidos a priori, en una materia, en una carrera, en una instituciC3n. Las instancias de exC!menes finales universitarios tienen esta finalidad, la B+acreditaciC3nB; de las competencias, capacidades, saberes de una materia. Esta finalidad no puede visualizarse claramente entre los docentes que respondieron la encuesta dado que solo tres escritos mencionan la B+acreditaciC3nB; como propC3sito de un examen final.

Como ya se dijo, la clara explicitaciC3n de las finalidades de la evaluaciC3n permiten tomar decisiones ajustadas en relaciC3n al cC3mo evaluar, al aspecto metodolC3gico. Es aquC- donde la oralidad y la presencialidad se presentan como las opciones mC!s valoradas, elegidas y ponderadas por los docentes. Se construyeron las siguientes categorC-as a partir de las respuestas obtenidas:

MetodologC-a mC!s adecuada para los exC!menes finales:

  • 1B: Oral, 34B %

  • 2B: Presencial y oral, 28B %

  • 3B: Mixta, 20B % (combinaciC3n de presencialidad y virtualidad)

  • 4B: Cuestionario virtual, 14B %

  • 5B: Oral virtual, 8B %

  • 6B: Presencial, 6B %

  • 6B: Oral y escrito, 6B %

Lo enunciado aquC- guarda una estrecha vinculaciC3n con las opciones metodolC3gicas que efectivamente tomaron los docentes para el cuarto turno de exC!menes, tanto los que cambiaron como los que sostuvieron sus metodologC-as de evaluaciC3n. Queda claro que, mC!s allC! de los propC3sitos de un examen final, en el aspecto metodolC3gico los docentes utilizan las herramientas metodolC3gicas que consideran como las mC!s adecuadas, ya sea en la presencialidad o intentando recrearlas en la virtualidad.

Para concluir

En los formatos evaluativos se ponen de manifiesto las concepciones de enseC1anza y de aprendizaje que subyacen en las prC!cticas docentes. Estas concepciones no suelen ser analizadas, revisadas y redefinidas durante la formaciC3n pedagC3gica de aquellos profesionales que sC- las tienen, ni suelen ser revisadas en aquellos que trabajan de docentes sin esa formaciC3n. El trabajo que se pretendiC3 impulsar desde el taller de evaluaciC3n en la carrera de IngenierC-a estuvo centrado en revisar y mejorar los instrumentos y el formato de las evaluaciones que se concretaron en el cuarto turno ordinario de exC!menes finales, tomando las competencias profesionales como objetivos formativos centrales.

Las acciones que efectivamente se concretaron en este sentido pusieron de relieve actitudes, creencias y prC!cticas en relaciC3n con la evaluaciC3n, que inician un camino de anC!lisis de la propia prC!ctica, un camino de investigaciC3n formativa en el equipo docente de la carrera. El anC!lisis de coherencia-incoherencia presentado permite focalizar la mirada en los elementos que urge que sean puestos en discusiC3n, como tambiC)n la dificultad de contar con finalidades claras y pertinentes de los diferentes tipos de evaluaciC3n que se ponen en juego en el proceso formativo. Nuevamente, es necesario remarcar la importancia de ajustar las prC!cticas de enseC1anza y de evaluaciC3n a las competencias profesionales especC-ficas de la ingenierC-a.

El actual contexto de emergencia sociosanitaria, causada por la pandemia de covid-19, obligC3 a todas las instituciones educativas a concretar profundos y radicales cambios para sostener los procesos formativos de los estudiantes. Los docentes, profesionales que transitaron su formaciC3n y su experiencia laboral en sistemas presenciales, debieron asumir un nuevo contexto de trabajo: el aula virtual. En mayor o menor medida se modificaron prC!cticas, actividades, tiempos, relaciones; pero casi en ningC:n caso se modificaron creencias y supuestos bC!sicos del campo pedagC3gico.

Los cambios y la mejora que se concretaron en el cuarto turno de exC!menes, la proactividad puesta en evidencia por el cuerpo docente, requieren continuar con acciones de formaciC3n, para que no queden solamente en pinceladas superficiales y como respuestas rC!pidas y eficientes, es cierto, pero no suficientes, a las exigencias de la jefatura de carrera. El incremento de la incoherencia negativa seC1alada anteriormente obliga a continuar profundizando las prC!cticas evaluativas, no solo en las instancias de exC!menes finales, sino durante todo el proceso de cursado de las materias.

La mejora de las prC!cticas docentes continC:a siendo el horizonte hacia el cual nos dirigimos: la formaciC3n por competencias de los ingenieros, pensada como un fin y, a la vez, como un medio para la mejora de la formaciC3n profesional.

Referencias bibliogrC!ficas

Adams, J. W.; Hitch, G. J. (1997). B+Working Memory and Childrenbs Mental AdditionB;. Journal of Experimental Child Psychology, 67, 21-38.

CONFEDI (2018, octubre). B+Propuesta de estC!ndares de segunda generaciC3n para la acreditaciC3n de carreras de ingenierC-a en la RepC:blica ArgentinaB;. Libro rojo de CONFEDI. Universidad FASTA Ediciones, primera ediciC3n.

Engle, R.W. (2002). B+Working Memory Capacity as Executive AttentionB;. Current Directions in Psychological Science, 11, 19-23.

Elola, N. y Toranzos, L. (2009). B+EvaluaciC3n educativa: una aproximaciC3n conceptualB;. En Hacia una cultura de la evaluaciC3n. ONE 2009. Buenos Aires: DiNIECE. Ministerio de EducaciC3n de la NaciC3n.

GarcC-a Ramos, D. C.; Zurita AimacaC1a, L. E. (2020). B+EstrC)s acadC)mico y su relaciC3n con la memoria de trabajo en estudiantes universitariosB; Revista CientC-fica de UCES, vol. XVI n.B: 2. Disponible en: http://repositorio.uta.edu.ec/handle/123456789/31119 Consulta: 10 de septiembre de 2020.

Giordano R. (2016). B+Competencias y perfil del ingeniero iberoamericano, formaciC3n de profesores y desarrollo tecnolC3gico e innovaciC3nB;. En Documentos Plan EstratC)gico Asibei. ASIBEI, 15-37.

GonzC!lez Agudelo, E. M. (2006). B+La investigaciC3n formativa como una posibilidad para articular las funciones universitarias de la investigaciC3n, la extensiC3n y la docenciaB;. Revista EducaciC3n y PedagogC-a, MedellC-n, Universidad de Antioquia, Facultad de EducaciC3n, vol. XVIII, n.o 46 (septiembre-diciembre), pp. 101-109.

Ministerio de EducaciC3n de la NaciC3n Argentina (2006). ResoluciC3n n.o 1456/2006. B+EducaciC3n Superior TC-tulo de Ingeniero en TelecomunicacionesB;. BoletC-n Nacional 10/11/2006.

Musso, M. F.; Costa Lieste, E. y Duarte, C. (2012). B+Procesos cognitivos, estrategias de aprendizaje y competencias: un estudio descriptivo en estudiantes universitariosB;. Revista CientC-fica de UCES, 16(2), 127-144. Disponible en: http://dspace.uces.edu.ar:8180/xmlui/handle/123456789/1908

Consulta: 10 de septiembre de 2020.

Palacios Navarro, S. (2006). B+Efectos de la evaluaciC3n formativa virtual en el rendimiento acadC)micoB;. Revista InnovaciC3n Educativa n.o 16, ISSN 1130-8656, 2006, 47-57.


  1. Facultad de IngenierC-a, Universidad CatC3lica de Salta (UCASAL), Argentina. Ingeniero Electricista con OrientaciC3n en ElectrC3nica por la Universidad Nacional de TucumC!n. Master en DirecciC3n EstratC)gica en Telecomunicaciones por Grupo IOE (Iniciativas Organizativas de Empresa) y Universidad Americana de Europa (UNADE). Especialista Docente de Nivel Superior en EducaciC3n y TICs por Ministerio de EducaciC3n Ciencia y TecnologC-a. Investigador del Instituto de Estudios Interdisciplinarios de IngenierC-a (I.Es.I.Ing.) de la UCASAL. Docente Adjunto de Sistemas de ConmutaciC3n y Docente Auxiliar de Antenas en la Carrera IngenierC-a en Telecomunicaciones de UCASAL. Jefe de la Carrera de IngenierC-a en Telecomunicaciones de UCASAL. rbreslin@ucasal.edu.ar b)

  2. Escuela de EducaciC3n y Perfeccionamiento Docente, Universidad CatC3lica de Salta (UCASAL), Argentina. Profesora en Ciencias de la EducaciC3n por la Universidad Nacional de Salta. Magister en Nuevas tecnologC-as aplicadas a la educaciC3n por el IUP (Instituto Universitario de Postgrado: Universidad de Alicante, Universidad AutC3noma de Barcelona y Universidad Carlos III de Madrid). Investigadora del Consejo de Investigaciones de la UCASAL. Docente a cargo de MetodologC-a de la InvestigaciC3n y Seminario de Tesis en la Licenciatura en GestiC3n Educativa. Directora de la Escuela de EducaciC3n y Perfeccionamiento Docente de la UCASAL. mecapaldo@ucasal.edu.ar Usuario ORCID: marielacapaldob)

volver