Cuadernos de Educación y Desarrollo

Vol 3, Nº 27 (mayo 2011)

PROCEDIMIENTO PARA LA EVALUACIÓN DE LA CALIDAD UNIVERSITARIA EN LA ENSEÑANZA DE PREGRADO
 

Yosleidy Betancourt Agüero
Prof. Asistente. Universidad de Las Tunas
yolybet@ult.edu.cu
Juan Carlos Mayo Alegre
Prof. Auxiliar. Universidad de Las Tunas
jcarlos@ult.edu.cu

 


INTRODUCCIÓN

El movimiento hacia la calidad es un fenómeno mundial que adquiere cada vez mayor relevancia dada su influencia en, prácticamente, todas las esferas de la actividad humana; por ello, una universidad de excelencia, como a la que se aspira, tiene que centrar su atención en la constante elevación de la calidad de los procesos fundamentales que desarrolla: docencia, investigación y extensión; debido a la notoria trascendencia que alcanza el fenómeno educativo, como herramienta básica para la formación de la nueva ciudadanía. Ante esta realidad, cobra fuerza la instrumentación de sistemas de evaluación de la calidad educativa (Trujillo, 2008).

La evaluación es un proceso importante dentro de la gestión de la calidad universitaria , en tanto, además de ofrecer información objetiva y confiable del nivel de calidad alcanzado, permite identificar una problemática, analizarla y explicarla mediante información relevante, y con ello valorar avances e identificar obstáculos, así como promover acciones correctivas para el mejoramiento institucional; de allí que se constituye en una herramienta de transformación de la universidad y de la práctica educativa (Tünnermann, s.a,2003).

Uno de los retos que enfrentan hoy las instituciones universitarias es ser pertinentes en relación con las necesidades de sus clientes (estudiantes, profesores, personal no docente, empleadores y egresados), lo que implica adoptar un criterio de calidad donde la idea subyacente esté orientada a cuestionarse si han recibido el servicio que esperaban. Satisfacer las necesidades y expectativas de los clientes ajustándolas a los objetivos institucionales puede contribuir a incrementar los niveles de retención, el sentido de pertenencia, la calidad del estudiantado y la enseñanza, así como cumplir con la responsabilidad social de formar profesionales competentes.

De esta manera, la evaluación de la calidad debe estar orientada a la satisfacción de las expectativas de estudiantes, profesores, personal no docente, empleadores y egresados. En este artículo se describe un procedimiento para evaluar la calidad universitaria en la enseñanza de pregrado, partiendo del reconocimiento de esas expectativas.

Procedimiento para la evaluación de la calidad universitaria en la enseñanza de pregrado

Un procedimiento es la secuencia de acciones concatenadas entre sí, que ordenadas en forma lógica permiten cumplir un fin u objetivo predeterminado (Directiva Nº002-77-INAP/DNR; en Blanco G., 2007). Se trata de una serie común de pasos definidos, que permiten realizar un trabajo de forma correcta (http://definicion.de/procedimiento/).

El procedimiento que se propone se enmarca en el proceso de autoevaluación de carreras y toma como referencia las tres fases del mismo indicadas por De Miguel et al. (2003), a saber: 1) Preparación del proceso de evaluación, 2) Recogida y procesamiento de información, 3) Evaluación y Plan de mejoras. Toma además como referente teórico el modelo de evaluación de la calidad SERVPERF, complementándolo con el Método de los Incidentes Críticos y el Análisis Importancia-Desempeño. En la Tabla 1 se ilustran los pasos para desarrollar cada una de las tres fases mencionadas, las cuales serán descritas posteriormente.

La primera fase del procedimiento: preparación del proceso de evaluación, tiene como objetivo establecer las condiciones y premisas necesarias para el desarrollo del proceso de evaluación. Supone la realización de tres pasos: la selección de la comisión de evaluación, la capacitación de los miembros de la comisión y la organización y planificación del trabajo.

En el primero se seleccionan los miembros de la Comisión de Evaluación que tendrán la responsabilidad de desarrollar el proceso. Para ello es importante que se conjuguen criterios de representatividad y operatividad (De Miguel et al., 2003). En cuanto a la representatividad, el equipo de trabajo debe incluir profesores, personal no docente, administrativos y estudiantes, todos reconocidos como personas adecuadas y competentes para el desarrollo de esta tarea.

La operatividad está directamente relacionada con la cantidad de personas que debe conformar la comisión, cuidando que no sea esta muy numerosa, ya que pudieran generarse dificultades a la hora de reunirse o tomar decisiones. Una vez efectuada la selección de los miembros de la comisión, se notifica su composición a los órganos competentes.

El próximo paso es capacitar a los miembros de la comisión en relación al proceso a desarrollar. Esta capacitación debe dirigirse a estudiar los presupuestos teóricos en los cuales se apoyan las actividades a realizar y propiciar el intercambio de experiencias acerca de las vivencias y dificultades encontradas en otras evaluaciones. Es importante también motivar en el seno del grupo un ambiente de trabajo en equipo donde se potencien valores y actitudes como la responsabilidad, compromiso y espíritu crítico.

Capacitados los miembros de la comisión se procede a la organización y planificación del trabajo de la misma. Aquí deben acometerse diversas acciones, tales como: el reparto de tareas, la determinación del tiempo de duración de las diversas actividades, las necesidades de recursos (humanos, materiales, financieros, de información, etc.), el diseño de mecanismos para difundir el proceso en aras de propiciar la participación consciente de la comunidad universitaria y crear un clima favorable para la evaluación, y el sistema de rendición de cuentas a los superiores acerca de la marcha del trabajo.

Según De Miguel et al. (2003), el proceso global, desde la selección de la comisión hasta la presentación del Informe de evaluación y Plan de mejora, debería realizarse en un plazo de cuatro a seis meses; la distribución por fases podría ser: un mes para la fase de preparación, de dos a tres meses para la recogida y procesamiento de la información, y de uno a dos meses para la evaluación y plan de mejora.

En cuanto al reparto de tareas se podrá dividir la comisión en subcomisiones para realizar las pesquisas y valoraciones a cada grupo de interés, designándose un responsable por cada una. Esto permitirá la elaboración del Plan de trabajo de la comisión, el cual explicitará los responsables de la realización de cada tarea, y el momento en que rendirán cuentas de su quehacer ante la comisión.

La difusión del proceso se puede realizar a través de plegables, página web y comunicación verbal.

Creadas las condiciones de partida y establecidas las premisas básicas se pasa a la segunda fase del procedimiento: Recogida y procesamiento de información. El objetivo de esta segunda fase es obtener información relevante y confiable proveniente de los clientes de la carrera (estudiantes, profesores, personal de apoyo, egresados y empleadores), acerca de la calidad esperada y percibida del servicio educativo. Para ello es necesario dividir a los clientes en grupos, ya que su participación en el servicio no es homogénea, por lo que sus expectativas y percepciones tienen perspectivas diferentes. La heterogeneidad está dada, precisamente, por el papel que cada uno desempeña en el servicio, así: el estudiante, además de beneficiario directo, es co-gestor de su propio aprendizaje; el profesor ejecuta los procesos de formación y a la vez es formado; el personal no docente es quien realiza las actividades de apoyo a la docencia; los egresados son ex-estudiantes que están utilizando las competencias y habilidades adquiridas en las empresas; los empleadores son los que hacen uso de las competencias del capital humano formado.

En esta fase se propone el desarrollo de seis pasos para cada grupo de clientes. El primer paso se corresponde con la determinación de las dimensiones de la calidad de servicio a partir de la identificación de las expectativas de los clientes. Es válido aclarar que este paso no necesariamente debe realizarse cada vez que se proceda a desarrollar el proceso de evaluación, ya que se puede inferir que en el corto plazo las personas no varíen sustancialmente su criterio acerca de los aspectos más significativos del servicio.

Para la determinar las dimensiones de la calidad se propone utilizar el método de los Incidentes Críticos. Según Zeithaml (2003; citado por Schroeder e Iatchac, 2008), los incidentes críticos son fundamentales para el esclarecimiento de las expectativas de los clientes, principalmente cuando la investigación se concentra en dimensiones del comportamiento y desempeño humano. Schroeder e Iatchac (2008) afirmaron que la realización de este análisis revela situaciones que los clientes desearían que fueran atendidas, lo que propicia una oportunidad para identificar qué tipo de incidentes, durante la entrega del servicio, tiende a ser significativo para la satisfacción o no de los clientes con el servicio ofrecido por la organización; además, demuestra a los clientes que la organización se preocupa por ellos en la medida que esta utilice la información para perfeccionar los procesos.

El método de los Incidentes Críticos propuesto por Hayes (1999; en Pérez y Parra, 2007), se desarrolla en cuatro etapas:

1a Etapa: “Capturar” incidentes críticos generados por los clientes. Este primer momento permite identificar las características que desde la visión de los clientes debe tener el servicio educativo. Consiste en preguntar a los clientes entre cinco y diez elementos del servicio que le hayan generado satisfacción e insatisfacción. Cada una de las opiniones se constituye en un incidente crítico.

Un incidente crítico es un ejemplo del desempeño organizacional desde la perspectiva de los clientes (Pérez y Parra, 2007): un desempeño positivo es una característica del servicio o producto que al cliente le gustaría observar cada vez que recibe el servicio o producto; un desempeño negativo es una característica del servicio o producto que haría dudar al cliente de la calidad de la organización.

Un buen incidente crítico, para definir las necesidades de los clientes, posee dos características: es específico, y describe al proveedor del servicio en términos de comportamiento, o describe el servicio mediante adjetivos específicos. Un incidente crítico es específico si describe un comportamiento o una característica individual del servicio. Estas características deben explicarse a los clientes responsables de generar los incidentes críticos.

Según Hayes (1999; en Blanco G., 2007) esta etapa se realiza a través de entrevistas a no más de 20 personas. La razón por la cual se escoge esta pequeña muestra estriba en que si a un cliente se le pide que enuncie aspectos positivos y negativos del servicio, instantáneamente hará énfasis en los mayores problemas que ha detectado y, por otra parte, resaltará sus mejores experiencias con el servicio. Ningún cliente es igual, pero lo cierto es que, de una forma u otra, sus criterios coincidirán en las principales bondades y deficiencias del servicio. Esta entrevista personal busca motivaciones profundas, de las cuales hay menor diversidad de tipos en el universo sometido a exploración y, en consecuencia, se alcanza una representatividad suficiente con muestras más pequeñas (Malnotra, [s.a]; en Blanco G., 2007).

A cada cliente entrevistado se le solicita que describa diez aspectos positivos y diez negativos sobre la carrera. En aras de contribuir a la articulación de las respuestas de los entrevistados se les puede indicar los siguientes aspectos obtenidos a partir de la revisión de la literatura (SEA-CU, 2002; Capelleras, 2001; Montilla, 2003; Gento y Vivas, 2003; Sánchez, 2008):

• Plan de estudio

• Planificación docente

• Actividad docente

• Actividad investigativa

• Infraestructura

• Orientación y atención

• Proyecto educativo colectivo e individual

• Servicios prestados por la biblioteca, el laboratorio de computación y la secretaría docente

• Opciones culturales y deportivas

• Otros

• Características del puesto de trabajo

• Relaciones interpersonales

• Comunicación

• Espacios y recursos

• Formación y capacitación

• Planificación y desarrollo de la enseñanza

• Desempeño de los estudiantes

• Otros

• Características del puesto de trabajo

• Relaciones interpersonales

• Comunicación

• Espacios y recursos

• Formación y capacitación

• Implicación en la mejora

• Otros

• Adecuación de los conocimientos adquiridos y habilidades desarrolladas a las funciones que demanda el mundo laboral

• Actuación de los profesores y personal de apoyo

• Implicación en la mejora

• Otros

• Competencias en los egresados

• Actitud ante el trabajo de los egresados

• Implicación en la mejora

• Otros

Todos los incidentes aportados por las entrevistas se recogen en una lista eliminando aquellos que se repiten.

2a Etapa: Clasificar los incidentes críticos por grupos. Tras haber elaborado la lista de incidentes críticos se realiza un proceso de categorización, en virtud del cual se clasificarán los incidentes similares en grupos. La clave para clasificar estos incidentes es agruparlos en un adjetivo o verbo que compartan.

3a Etapa: Redactar elementos de satisfacción para cada grupo de incidentes críticos. Formados los grupos, se redacta una frase para cada uno de ellos que refleje el contenido de su incidente, denominada artículo de satisfacción.

4a Etapa: Determinar la estructura de las dimensiones de calidad. Esta etapa consiste en conformar conglomerados de elementos de satisfacción estrechamente relacionados entre sí, cada uno de los cuales define una dimensión de calidad.

Este proceso de clasificación es realizado por una persona a quien se denomina primer juez, y que está familiarizado con el trabajo que en la carrera se realiza. Después, se entrega a un segundo juez que clasifica los incidentes críticos directamente en las dimensiones de calidad señaladas por el primero, o sea, omitiendo los artículos de satisfacción; con lo anterior se busca determinar el grado de acuerdo entre los jueces de manera que se logre una correcta identificación de las dimensiones en las que debe desarrollarse el cuestionario. Este grado de acuerdo es el porcentaje de incidentes críticos que los dos jueces ubican en la misma dimensión. Según las consideraciones de Ronan y Lathman (1974; en De la Varga y Galindo, [s.a]) el grado de acuerdo debe ser igual o superior a 0.8 (en una escala de 0-1); si no se llegara a un consenso debe procederse a una revisión del trabajo realizado y posteriormente consultar a contra-expertos.

La descripción anterior se corresponde con la técnica de Acuerdos Interjueces (De la Varga y Galindo, [s.a]; Cámara et al., [s.a]; Pérez y Parra, 2007), utilizada para constatar la validez de las dimensiones de calidad.

En la figura II. 1 se muestra la relación jerárquica entre la calidad global, las dimensiones de calidad y los elementos de satisfacción que las definen. De ella puede observarse que la satisfacción global de las necesidades de los usuarios, depende del grado en que se satisfacen cada una de las dimensiones de calidad del servicio, el cual a su vez, obedece a la satisfacción percibida por el usuario en cada uno de los elementos o artículos de satisfacción (Pérez y Parra, 2007).

Identificadas las dimensiones y atributos a evaluar se realiza el tercer paso de esta fase, o sea, determinar los instrumentos a aplicar y proceder a su diseño. En la literatura el instrumento que más se utiliza es la encuesta, ya que permite recabar datos u opiniones de grandes grupos proporcionando información más fiable dado su carácter anónimo (Cámara et al., s.a). De esta manera, debe diseñarse para cada estrato una encuesta estructurada en tres partes: 1) características de los individuos; 2) valoración de la calidad de servicio a partir de los atributos de satisfacción identificados; y 3) valoración de la importancia de cada atributo de satisfacción en la evaluación de la calidad.

El método de los incidentes críticos, desarrollado en el paso anterior, permitirá elaborar un cuestionario basado en las necesidades y expectativas reales de los clientes, y proporcionar la información necesaria para la elaboración de una herramienta que esté más familiarizada con el lenguaje del cliente (Blanco G., 2007).

Entre las variables que se recomiendan seleccionar para definir las características de los clientes están:

ESTUDIANTES

- Carrera

- Año que cursa

- Modalidad de estudio

- Rendimiento académico

- Horas que dedica al estudio

- Sede de procedencia PERSONAL DE APOYO

- Edad

- Años de experiencia

- Área donde trabaja

PROFESORES

- Edad

- Grado científico

- Título académico

- Categoría docente

- Años de experiencia

- Si es a tiempo parcial o propio

- Sede de procedencia EGRESADOS

- Carrera estudiada

- Años de graduado

- Área del conocimiento donde labora

EMPLEADORES

- Cargo que ocupa

- Organismo al que pertenece

La inclusión de estas variables resulta significativa en tanto permite realizar estudios sobre la influencia de las características de los individuos en sus percepciones y la importancia que le atribuyen a los diversos atributos, lo que orientaría la toma de decisiones hacia subgrupos específicos.

El formato de respuesta a utilizar para la valoración de la calidad de servicio puede ser una escala Likert con cuatro posiciones (tabla 2), mediante la cual se pide al encuestado que exprese su grado de acuerdo o desacuerdo con cada atributo de satisfacción.

De igual manera, se le solicita al encuestado que indique la importancia de los atributos en una escala de 1 a 5, donde: 1 significa muy baja importancia, 2 baja, 3 media, 4 alta y 5 muy alta. Esto resulta útil a la hora de establecer un orden de prioridad de las acciones de mejora, orientando la toma de decisiones hacia aquellos elementos que son altamente valorados por los clientes y cuya percepción del desempeño es desfavorable.

Diseñados los instrumentos de recolección de información se procede a determinar el tamaño de la muestra. Teniendo en cuenta las características de la evaluación resulta conveniente la utilización del muestreo estratificado por asignación proporcional, de manera que se asegure la representatividad de cada estrato en la muestra. Partiendo de que se conoce el tamaño de la población a investigar (N), que es el total de clientes de la facultad, se calculará el tamaño de la muestra para datos cualitativos a través de la siguiente fórmula:

n=

n: tamaño de muestra

Z: distribución normal estándar para un nivel de significación de 0.05

p: probabilidad del éxito (=0.5)

q: probabilidad de fracaso (=0.5)

N: tamaño de la población

E: error (=0.05)

Obtenido el tamaño de la muestra total se determina la cantidad de clientes a encuestar por cada estrato, para ello se calcula la fracción de los estratos (Fe) que resulta de dividir el tamaño de muestra entre el tamaño de la población, o sea: Fe= ; y se multiplica el valor obtenido por el tamaño de cada estrato.

Para determinar qué clientes encuestar se utiliza el muestreo aleatorio simple en el caso de los estratos Estudiantes, Profesores, Personal de apoyo, y egresados, según el cual todos los miembros de la población tienen la misma probabilidad de ser encuestados. Se introducirá en el paquete estadístico SPSS una lista enumerada de todos los clientes por estratos y se seleccionarán, al azar, los clientes a encuestar.

En el caso del estrato Directivos de empresas empleadoras, se recomienda que la selección de los directivos a encuestar no se realice al azar, sino que sea intencional, o sea, que la comisión seleccione las principales entidades laborales del territorio, priorizando las Unidades docentes y empresas en perfeccionamiento empresarial. Esto contribuirá a una mayor objetividad de los análisis y proponer acciones de mejora que den cumplimiento a las demandas del sector productivo.

Antes de aplicar el cuestionario a la muestra calculada conviene proceder a su validación, o sea, probarlo entre una muestra pequeña. Este paso es necesario en la medida que contribuye a verificar la correcta interpretación de las preguntas, detectar posibles problemas en la redacción y la fluidez, y si tiene una longitud y duración adecuadas (Capelleras, 2001; Blanco G., 2007), para en función de ello hacer los ajustes pertinentes.

Posteriormente, se procede a la aplicación del cuestionario. En el caso de los estudiantes es importante tener en cuenta el momento del curso en que se aplica (De Miguel et al., 2003), por dos razones fundamentales: primero, recién iniciado el curso los estudiantes no tienen aún todos los elementos para emitir un juicio sobre la calidad; segundo, en los períodos de exámenes finales y prácticas laborales los estudiantes no se encuentran en el centro.

Es importante destacar que, para garantizar el éxito de este paso, es conveniente que la comisión mantenga comunicación sistemática con los clientes, a fin de lograr la comprensión de la importancia del proceso y con ello propiciar una actitud colaborativa hacia el mismo.

El último paso de esta fase es el procesamiento de la información obtenida con la aplicación de las encuestas. Para cada uno de los estratos se debe habilitar una plantilla en una Hoja de Cálculo de Microsoft Excel donde se introduzcan los datos obtenidos en las encuestas, con los cuales se procede a calcular el desempeño y la importancia de cada atributo, así como la calidad de servicio percibida de cada dimensión y global.

Para el cálculo del desempeño de cada atributo se elabora una tabla de frecuencias absolutas que registre la cantidad de aseveraciones expresadas en cada segmento de respuesta, este valor se multiplicará por el valor numérico correspondiente de la escala Likert, se suman los puntos obtenidos en cada segmento y se dividen entre la cantidad de encuestados. De esta manera el desempeño de cada atributo de calidad resulta ser el valor promedio de las puntuaciones emitidas por los encuestados, lo que se expresa en la siguiente fórmula:

Donde:

Dj: desempeño del atributo j

ETDj: cantidad de encuestados que estuvieron totalmente en desacuerdo con el atributo j

EDj: cantidad de encuestados que estuvieron en desacuerdo con el atributo j

EAj: cantidad de encuestados que estuvieron de acuerdo con el atributo j

ETAj: cantidad de encuestados que estuvieron totalmente de acuerdo con el atributo j

E: cantidad total de encuestados

El cálculo de la importancia de cada atributo se realiza de forma semejante; ambos resultados se utilizan para la elaboración de la Matriz Importancia-Desempeño.

La calidad percibida por cada dimensión y la calidad global del servicio ofrecido se calculan como el cociente de la sumatoria de todas las valoraciones emitidas para cada ítem entre el número de encuestados. Los resultados obtenidos se interpretan a partir de la adaptación de una escala de valoración propuesta y validada por Gento y Vivas (2003), la cual se muestra en la tabla 3, y donde ¨j¨ es la cantidad de artículos de satisfacción que se utilizan para medir cada dimensión. Así, suponiendo que la encuesta contenga 10 ítems (artículos de satisfacción) para medir la Dimensión 1, la escala de valoración será:

Una vez procesada la información se prosigue con la tercera fase del procedimiento: Evaluación y Plan de mejora. Esta tercera fase se realiza con la finalidad de evaluar la calidad de servicio percibida por los clientes y proponer las acciones para la mejora de la calidad. Se desarrolla en seis pasos: construcción de la Matriz Importancia-Desempeño, valoración del desempeño del servicio respecto a cada dimensión de calidad y global, elaboración y difusión de la primera versión de informe de evaluación, elaboración del Plan de mejora, valoración del desarrollo del proceso de evaluación y elaboración de la versión final del informe de evaluación.

La Matriz Importancia-Desempeño relaciona dos dimensiones: la importancia de los atributos y la evaluación del desempeño del servicio en relación con esos atributos. Los valores de la importancia y el desempeño de los atributos, obtenidos en el paso anterior, serán empleados como coordenadas para ubicar cada atributo en un cuadro de doble entrada, dividido en cuatro cuadrantes (fig. 2). Según Martilla y James (1977) el posicionamiento de los ejes divisorios en la matriz es cuestión de juicio y frecuentemente la posición media de la escala utilizada constituye una división útil. Se recomienda que el corte a adoptar sea 4, ya que en las escalas de medida utilizadas a partir de este valor tanto la importancia como el desempeño son altos.

Esta matriz se utiliza para priorizar los atributos que deben ser mejorados (Slack, 1991; en Blanco G., 2007) y, a partir de la identificación de fortalezas y debilidades, puede proveer una guía para la formulación de estrategias (Burns, 1986; en Blanco G., 2007), así como el conjunto de acciones que se deriven de estas. Lo anterior estará en dependencia del cuadrante en que se ubique cada atributo; la tabla 4 muestra la interpretación que sugiere cada uno, así como la estrategia a seguir.

Se recomienda la construcción de una matriz para cada grupo de clientes, de manera que propicie realizar un análisis más particularizado y, por ende desarrollar acciones correctivas diferenciadas.

Con la información aportada por los dos pasos precedentes se procede a la valoración del desempeño del servicio respecto a cada dimensión de calidad y global. En este punto es importante la participación de todos los miembros de la comisión de manera que se obtengan las valoraciones por consenso (De Miguel et al., 2003). Deben quedar identificadas las fortalezas y debilidades en cada dimensión y las que de manera global tiene mayor incidencia en la calidad del servicio, así como las prioridades y propuestas para la mejora. Pueden emitirse juicios acerca de cómo influyen las características de los individuos en sus percepciones y cuáles son las características o atributos que más valoran a la hora de evaluar la calidad.

Es necesario señalar que independientemente de las prioridades derivadas de la Matriz Importancia-Desempeño, la comisión debe poner énfasis en aquellas propuestas cuya implantación dependa fundamentalmente del ámbito o responsabilidad de la carrera y facultad en cuestión, frente a aquellas que requieren cambios en ámbitos de decisión externos; lo que no implica que se desentienda de tales prioridades.

Con estas apreciaciones se elabora una primera versión del Informe de evaluación que debe ser difundido entre los diferentes grupos de clientes. Esta primera versión del informe debe contener un resumen de las valoraciones realizadas de cada dimensión en particular y global, así como los puntos fuertes y débiles detectados y las propuestas de mejora en orden de importancia.

La difusión tiene como objetivos la validación de los análisis y juicios formulados por la comisión, la implicación de la comunidad con los resultados del proceso y la obtención de sugerencias para la elaboración del Plan de mejora. Se deben prever los mecanismos para la recogida de aportaciones y sugerencias estableciendo plazos de entrega para su presentación.

A partir de las propuestas de mejora reseñadas en cada una de las dimensiones y sometidas a consulta se elabora el Plan de mejora. En este paso es conveniente que se incorporen otros miembros del equipo directivo de la facultad con el objetivo de conseguir una mayor implicación de esta instancia con el plan y la responsabilidad de su puesta en marcha.

Las acciones indicadas en el plan deben reunir las siguientes características (De Miguel et al., 2003): ser viables, por lo que deben analizarse los obstáculos previsibles en su ejecución; ser coherentes con las fortalezas y debilidades señaladas; especificar fecha de cumplimiento, responsables con la ejecución y con el control; ser aceptadas por el mayor número de personas implicadas como garantía de compromiso con su ejecución; con efectos a corto plazo que permitan ver los resultados positivos del proceso de evaluación.

Posteriormente, la comisión debe realizar una valoración del desarrollo del proceso de evaluación en cuanto a: la adecuación de la selección y formación de los miembros para desempeñar el trabajo, la utilidad y disponibilidad de los recursos utilizados, la colaboración de los clientes en el proceso, las principales incidencias y obstáculos encontrados, el propio trabajo desarrollado por la comisión y la utilidad del informe para promover la mejora. También debe aportar sugerencias en función de mejorar procesos de evaluación futuros (De Miguel et al., 2003), de manera que se constituya en un elemento importante de retroalimentación del desarrollo de dichos procesos.

Finalmente, la comisión debe elaborar la versión final del informe de evaluación. El mismo debe contener los siguientes elementos:

 Identificación de la carrera y principales datos del proceso efectuado;

 resumen de las valoraciones realizadas de cada dimensión en particular, así como sus puntos fuertes y débiles, y las propuestas de mejora en orden de importancia;

 valoración global sobre la calidad, para lo que se debe hacer una síntesis de las fortalezas y debilidades más importantes;

 el Plan de mejoras para contrarrestar las debilidades señaladas y potenciar los puntos fuertes; y,

 la valoración del desarrollo del proceso realizado.

De esta manera, el procedimiento para evaluar la calidad percibida por los clientes del servicio educativo de pregrado, se orienta a medir, valorar y tomar decisiones para la mejora continua.

CONCLUSIONES

Debido a la notoria trascendencia que alcanza el fenómeno educativo, como herramienta básica para la formación de la nueva ciudadanía, cobra fuerza la instrumentación de sistemas de evaluación de la calidad educativa.

La evaluación de la calidad debe estar orientada a la satisfacción de las expectativas de estudiantes, profesores, personal no docente, empleadores y egresados.

El procedimiento para la evaluación de la calidad universitaria desde la perspectiva de los clientes que se describe se presenta en tres fases: preparación del proceso de evaluación, recogida y procesamiento de información, Evaluación y Plan de mejoras.

BIBLIOGRAFÍA

1. Sistema de Evaluación y Acreditación de Carreras Universitarias. (2002). Comisión Nacional del SEA-CU. Ciudad de la Habana: MES.

2. Blanco Gómez, E. (2007). Evaluación de la calidad del servicio del Centro Comercial “Las Antillas”. Trabajo de Diploma en opción al Título de Lic. en Economía. Departamento docente de Economía: Centro Universitario de Las Tunas, Cuba.

3. Cámara Cortés, A. C. R., Celia María; Luna Montes De Oca, Silvia Yamily. (s.a). Nivel de satisfacción de los alumnos de la ENEP con la formación recibida: construcción del cuestionario. [Electronic Version]. Retrieved 17-01-09 from http://www.comie.org.mx/congreso/memoria/v9/ponencias/at16/PRE1178207626.pdf.

4. Capelleras i Segura, J.-L. (2001). Factores condicionantes de la calidad de la enseñanza universitaria: un análisis empírico. Tesis en opción al Grado de Doctor. Departamento de Economía de la Empresa, Universidad Autónoma de Barcelona, Ballaterra. [Electronic Version]. Retrieved 17-01-09 from http://www.tdx.cesca.es/TDX-0125102-101659/

5. Coelho Coutinho, F. C. (2007). Avaliação da qualidade dos serviços de uma Instituição de Ensino Superior. Tesis en opción al Título de Master. Núcleo de Pós-Graduação em Administração – Npga, Universidade Federal da Bahia Escola de Administração Salvador. [Electronic Version]. Retrieved 17-03-09 from http://www.bibliotecadigital.ufba.br/tdebusca/arquivo.php?codArquivo=1217

6. De la Varga Salto, J. M. G. R., Fuentesanta C. (s.a). La técnica de incidente crítico como método de validación de las dimensiones de la calidad en el sector hotelero [Electronic Version]. Retrieved 25-02-09 from dialnet.unirioja.es/servlet/fichero_articulo?codigo=2524055&orden=0.

7. De Miguel Díaz, M. e. a. (2003). Evaluación de la calidad de las titulaciones universitarias. Guía Metodológica. Madrid, España: Solana e Hijos, A.G., S.A.

8. Gento Palacios, S. V. G., Mireya. (2003). El SEUE: un instrumento para conocer la satisfacción de los estudiantes universitarios con su educación [Electronic Version]. Acción Pedagógica, 12. Retrieved 5-02-09 from http://ecotropicos.saber.ula.ve/db/ssaber/Edocs/pubelectronicas/accionpedagogica/vol12num2/articulo_2.pdf.

9. Montilla Barreto, I. (2003). La calidad de la enseñanza universitaria. Tesis en opción al Grado de Doctor en Ciencias. Departamento de pedagogía, Universidad de los Andes, Trujillo, Venezuela. [Electronic Version]. Retrieved 3/12/2008 from http://www.tdx.cesca.es/TDX-0401104-093703/

10. Pérez Rave, J; P. M., Carlos. (2007). Evaluación y análisis de la calidad de de un servicio de apoyo desde la perspectiva del usuario: primer paso hacia la confiabilidad. [Electronic Version]. Industrial Data, 10. Retrieved 3-12-08 from http://www.scielo.org.pe/scielo.php?pid=S1810-99932007000100011&script=sci_arttext.

11. Sánchez Andujar, S. (2008). Procedimiento: satisfacción de los grupos de interés. [Electronic Version]. Universidad de Jaén. Retrieved 27-01-09 from http://www.ujaen.es/centros/facsoc/SGIC/PROC.%20DE%20APOYO/PA03sgi.pdf.

12. Schroeder, J. B. I., Maraísa. (2008). Análise de incidentes críticos: uso prático desta metodologia numa pesquisa de satisfação no atendimento dos serviços oferecidos na Viacredi. [Electronic Version]. Revista Interdisciplinar Científica Aplicada, 2, 1-20. Retrieved 13-03-09 from http://unimestre.com.br/rica/index.php/rica/article/view/97/92.

13. Trujillo Barreto, N. A. (2008). La evaluación de la calidad del desempeño investigativo de los docentes de las universidades pedagógicas. Tesis en opción al grado científico de Doctora en Ciencias Pedagógicas. Departamento de formación Pedagógica General, Instituto Superior Pedagógico ¨Félix Varela y Morales¨ Villa Clara, Sancti – Spíritus. [Electronic Version]. Retrieved 17-1-09 from http://revistas.mes.edu.cu/elibro/tesis/educacion-superior/9789591607454.pdf/view

14. Tünnermann Bernheim, C. (2003). Calidad, Evaluación Institucional, Acreditación y Sistemas Nacionales de Acreditación [Electronic Version]. Retrieved 3/11/2008 from www.ilaedes.org/documentos/artículos/evaluacionyacreditación.pdf.


 

 
Cuadernos de Educacin y Desarrollo es una revista acadmica de formato electrnico y de aparicin trimestral, editada y mantenida por el Grupo de Investigacin eumednet de la Universidad de Mlaga.

Los autores interesados deben enviar sus textos en formato DOC a: lisette@eumed.net junto a un resumen actualizado de su CV.

Director
Gerardo J. Gmez Velzquez (CV)

Editor Ejecutivo:
Juan Carlos M. Coll (CV)
ISSN: 1989-4155
EUMEDNET

Logo CED
CUADERNOS DE EDUCACIN Y DESARROLLO
revista acadmica semestral