Evaluación de un Programa de Capacitación Profesional de una Institución de Educación Superior de Puerto Rico

By:  Dra. Lisbel M. Correa Suárez — Universidad Interamericana de Puerto Rico –Ponce Campus

Resumen

El propósito del estudio fue evaluar el programa de capacitación profesional para la instrucción en línea de una institución de educación superior ubicada en el área sur de Puerto Rico. Para alcanzar el objetivo de la investigación, se utilizó como base el modelo de evaluación de programas de Kirkpatrick, específicamente, el nivel de reacción y comportamiento. Ambos niveles sentaron la base para la formulación de tres preguntas de investigación. Para responder las preguntas bajo estudio, se diseñó un cuestionario que permitió recopilar las opiniones de la facultad en cuanto a la formación recibida sobre el diseño instruccional y docencia en Blackboard Learning System VISTA. La población que se consideró en el estudio fueron 106 instructores certificados de la universidad bajo investigación.

La investigación se enmarcó en un enfoque cuantitativo no experimental y el diseño fue por encuesta. La implantación del diseño por encuesta tuvo una muestra por conveniencia representada por 49 participantes. Los participantes respondieron las 59 preguntas que conformaron el cuestionario. Los datos recopilados como resultado de la implementación de las dos etapas, se analizaron a través de un programa de análisis estadístico computadorizado. En términos del nivel de reacción, se destacó que el 81% de los participantes estuvieron satisfechos con la capacitación recibida. En cuanto a la evaluación del comportamiento, el 75% aplicó las destrezas adquiridas en la creación de la instrucción en línea, mientras que el 77% experimentó cambios en la conducta como producto de la formación.

Los hallazgos demostraron que se cumplió favorablemente con la etapa de reacción y comportamiento del modelo de evaluación de Kirkpartick. No obstante, se notaron algunas discrepancias en las respuestas de los participantes, por lo que se pudiera considerar el rediseño del programa de formación identificando aspectos, tales como: (a) el rol actual del docente en línea, (b) las competencias técnicas, (c) pedagógicas y de liderazgo en el instructor en línea, (d) la teoría del aprendizaje adulto como marco teórico, y finalmente, (e) la relevancia del concepto de interacción y diseño instruccional como punto importante de la docencia en línea.

Identificadores

Educación a distancia, capacitación docente a distancia, modelo Kirkpatrick, plataformas educativas, evaluación de programas a distancia.

Introducción

La educación a distancia se ha convertido en una estrategia a largo plazo para el 65.5% de las instituciones de educación superior (Allen & Seaman, 2011). En un informe publicado por Sloan Consortium, se reportó un aumento en la matrícula de estudiantes en línea de 1.6 a 6.1 millones en los últimos cinco años. Esto refleja un crecimiento anual de 18.3% en dicho  periodo (Allen & Seaman, 2011). En términos de la oferta académica, hubo un aumento de 62.5% de instituciones públicas y privadas post secundarias que ofrecieron cursos en línea durante el 2004 (Allen & Seaman, 2006; citados por McGee-Swope, 2010).  La demanda acelerada de la educación a distancia ha traído un aumento de instituciones que ofrecen programas a distancia, y a su vez, ha generado la necesidad de crear programas de capacitación profesional. Mayormente, para cualificar a la facultad tanto en los conocimientos y las competencias necesarias para poder enseñar en línea (McGee-Swope, 2010).

La capacitación en línea dirigida a enseñar a los profesores universitarios a desarrollar e impartir clases virtuales se ha proliferado rápidamente (Johnson, Las Palmas-Rojas & Suriya, 1999; Yang, 2005). Convirtiéndose en una práctica común para la mayoría de las instituciones de educación superior (Mosley, 2007).  Tal y como reporta el Sloan Consortium, para el año 2011, el 72% de las instituciones de educación superior ofrecieron diferentes tipos de programas de desarrollo profesional. Esto se evidencia cuando se observa, universidades tales como la Universidad Central de Florida, la Universidad del Estado de Pensilvania y la Universidad de Illinois han desarrollado planes comprensivos para la capacitación de la facultad (Kang, 2011).

Al igual que en otro países, en Puerto Rico una institución de educación superior  a distancia ubicada en la región sur de Puerto Rico, la cual inició en el año 1990, también creó un programa de capacitación virtual utilizando la plataforma Blackboard Learning System VISTA. El propósito de este programa es capacitar a los instructores que diseñan o imparten cursos virtuales a través de la plataforma Blackboard Learning Sytem VISTA para desarrollar mejores prácticas de diseño, técnicas pedagógicas y estrategias de avalúo ajustadas a la instrucción en línea.

La Junta de Síndicos de la Institución ha aprobado políticas institucionales las cuales establecen que cada unidad debe “desarrollar un proceso continuo de avaluación de los resultados y validación de la calidad académica de las actividades de aprendizaje desarrolladas. Sin embargo, la certificación se ha ofrecido por más de cinco años y no ha sido evaluada aún. Royse, Thyer y Padgett (2009) afirmaron lo antes expuesto cuando señalaron que a pesar de que las organizaciones reconocen la importancia de la evaluación de programas, se efectúa con muy poca frecuencia. En este sentido, es necesaria la evaluación del programa de formación para justificar la existencia e inversión de la capacitación, decidir si el mismo ha contribuido  a los objetivos y metas institucionales, considerar si se debe continuar o descontinuar, y finalmente, obtener información que mejore futuros programas de formación profesional (Kirkpatrick & Kirpatrick, 2006).

Preguntas de Investigación

 Tomando en cuenta el propósito del estudio el cual pretende evaluar el programa de capacitación profesional para la instrucción en línea de la universidad bajo estudio, se plantean las siguientes preguntas de investigación:

  1. 1.      ¿Cuál es el nivel de satisfacción de la facultad en cuanto a la  formación profesional recibida para la instrucción en línea?
  2. 2.      ¿En qué medida fueron aplicadas las destrezas adquiridas de la facultad a través del programa de formación profesional para la creación de instrucción en línea?
  3. 3.      ¿Qué cambios hubo en el comportamiento de la facultad como consecuencia de lo aprendido en el programa de formación sobre el diseño y docencia en línea?

Definición de Términos

Los términos que se mencionan a continuación sirvieron de base para orientar el análisis y resultados de la investigación.

 

Capacitación. Gilliam (2000) la definió como la adquisición sistemática de habilidades, normas, conceptos o actitudes que resultan en un mejor desempeño y ambiente de trabajo. Esta se derriba de un diseño sistemático de ambientes de aprendizaje basados en una cuidadosa evaluación de los requerimientos del trabajo y las capacidades del adiestrado (Russ-Eft & Preskill, 2005). Silcedo (2006 p. 27) señaló que “debe concebirse por todos los miembros de la organización como un apoyo indispensable para lograr un mejoramiento constante de los resultados, así como facilitador del cambio y del crecimiento individual y por ende del desarrollo sólido de la empresa”.

 Educación a distancia. Según las investigaciones, se refiere a la separación física entre el instructor y el estudiante (Simonson, Smaldino, Albright & Zvacek, 2006). Mientras que para Del Mastro (2005 p.8) es una alternativa válida que “ofrece condiciones favorables para atender eficazmente las demandas de los estudiantes que presentan dificultades de tiempo y/o espacio para acceder a un sistema presencial”.

Evaluación. Se considera como la “identificación, clarificación y aplicación de un criterio defendible para determinar el valor de la evaluación en relación a ese criterio” (Caraballo, 2010 p. 27). Stufflebeam y Schinkfield (2007 p. 5) la definieron como “aquello de juzgar el valor o el mérito de algo”.  Mientras que Mokate (2003) la concibió como el juicio que permite la toma de decisiones e implica ponderar diversos criterios considerando diferentes estándares e interpretaciones.    

Modelo de Kirkpatrick. Jiménez y Barchino (2010) lo definieron como un modelo que parte de cuatro componentes los cuales permiten determinar  la satisfacción del participante, los conocimientos adquiridos, la aplicación de destrezas y la valoración de los objetivos propuesto. Por su parte, Madision (2005) lo describió como la base de orientación para la formulación de preguntas y criterios precisos para conducir una evaluación asertiva. Mientras que Guerra-López (2007) lo definió como el marco que simplifica el proceso de evaluación de programas de formación.

Plataformas Educativas.Dondi, Sangrà y Guardia (2005) definieron las plataformas como el medio para la creación de espacios virtuales que permite a los usuarios informar, relacionar, comunicar y gestionar datos y procesos administrativos. Lo que significa para los autores, un entorno institucional donde convivan diferentes perfiles de usuarios. Por otro lado, Boneu (2007) señaló que las plataformas se utilizan tanto para orientar el aprendizaje como diseñar planes de trabajo.

Satisfacción. Para Gosso (2008) la satisfacción es un estado de ánimo que estriba entre las expectativas versus el servicio ofrecido.

Evaluación de programa. Capacho (2011) lo definió como el proceso de determinar o fijar el valor de examinar y juzgar de los componentes del programa. Por otro lado, Díaz-Maroto (2009) lo consideró como el proceso de identificación de los pros y contras que viabilizarán la toma de decisiones y mejora del mismo.

Revisión de literatura

 La evaluación se considera como la identificación, clarificación y aplicación de criterios, incluyendo la determinación de estándares para juzgar la calidad de una entidad. La misma incluye la recopilación de información relevante y la aplicación de estándares para determinar el valor, la calidad, la utilidad, la eficacia o el significado (Fitzpatrick, Sanders, & Worthen, 2004). Por otro lado, según Hawkes (2000), la evaluación se debe llevar a cabo para describir, explicar y validar una acción. Sin embargo, a través de los años, esta se ha definido desde múltiples perspectivas en su evolución histórica (Ruiz, 2011). Por ejemplo, la Real Academia de la Lengua Española (2012) define la palabra evaluar como señalar, estimar, apreciar y calcular el valor de algo. En el contexto educativo, la valoración implica un proceso en el cual se logre obtener un juicio de valor de la realidad educativa (Capacho, 2011). Para Ruiz (2003), el valor envuelve la toma de decisiones en función de unos criterios previamente establecidos.

Particularmente,  en el contexto educativo, Fitzpatrick et al. (2004) plantearon que la evaluación de un programa determina o fija el valor de examinar y juzgar. La valoración concebida como juicio implica según Capacho (2011) el valor sistemático o mérito asociado a los componentes del programa. Para Díaz-Maroto (2009), el evaluar la calidad del programa no se trata solamente de medir la satisfacción de los participantes, sino que también implica un balance de los pros y los contras del mismo. Lo que significa de acuerdo al autor, que viabiliza su mejora para poder tomar decisiones acertadas en cuanto a sus posibles modificaciones, y en definitiva, poder ofertar una formación más efectiva. De acuerdo con Fitzpatrick et al. (2004), para determinar los lineamientos para juzgar la calidad del programa, la evaluación debe utilizar métodos de investigación y juicio para decidir si en efecto el estándar debe ser relativo o absoluto, y a su vez, colectar información relevante. Para conducir metodologías para una evaluación apropiada, los autores señalaron que es necesario contar con evaluadores que tengan un rol de expertos científicos capaces de conducir los métodos propuestos. De manera que, el fundamento principal de la evaluación sea el entender e interpretar sus observaciones (Rallis & Rossman, 2000).

Proceso de evaluación. Para iniciar un proceso de adecuado de evaluación, Fitzpatrick et al. (2004) señalaron que es preciso entender lo que impulsa una evaluación. Al respecto, conviene decir, que losautores reconocen que el determinar el propósito de la evaluación es el proceso más importante al momento de evaluar. Para ayudar a establecer la finalidad de la valoración, los autores sugieren considerar algunas preguntas guías. Por ejemplo, ¿porqué es necesaria la evaluación?, ¿cuál es su propósito?, ¿qué preguntas contestará?, ¿cuál será el uso de los resultados?, ¿quién los utilizará?, ¿quiénes necesitan conocer los hallazgos?, ¿qué es lo que se pretende evaluar?, ¿que incluye o excluye?, ¿en qué tiempo se evaluará?, ¿quiénes serán los implicados?, ¿cuáles son  los objetivos y metas del programa?, qué necesidades se pretenden atender?, entre otras. Este análisis según Fitzpatrick y demás autores, llevará al autor a comprender el objetivo principal de la evaluación e identificar los procedimientos o métodos a ser considerados. Según Bohlander y Snell (2008) existe una amplia variedad de métodos para determinar los propósitos de la evaluación y hasta qué grado esto cumplirá con los objetivos del programa. Lo que lleva a los autores concluir, que la evaluación también puede determinar hasta qué punto los programas de capacitación mejoran el aprendizaje, influyen en el comportamiento en el trabajo y repercuten en el desempeño final de la organización.

Criterios de evaluación. Para Muchinsky (2002), al momento de medir la formación, es preciso considerar algunos criterios tales como la relevancia, la confiabilidad y la libertad de sesgo. Lo que lleva a Reza (2007) a destacar dos categorías de la evaluación en materia de capacitación, estas serían, la macro y la micro. La evaluación macro según el autor pretende evaluar aspectos generales del funcionamiento del programa de formación que existe en la organización. Lo que implica según el autor el diagnóstico organizacional y de necesidades, el cálculo de la productividad, el costo beneficio global y la auditoria de capacitación. La categoría macro de acuerdo al autor, se encarga de revisar los procesos de enseñanza y aprendizaje del contexto de la capacitación. Por ejemplo, el análisis de comportamiento de los participantes, los facilitadores o instructores, las condiciones ambientales, las instalaciones y equipos necesarios, el alcance de objetivos instruccionales, el aprovechamiento del aprendizaje, el seguimiento de los procesos formativos, y finalmente, la aplicación al puesto de trabajo.

Precisamente para llevar a cabo una evaluación efectiva de un programa de formación, es necesario tomar en cuenta un modelo de evaluación adecuado para la recopilación de información precisa sobre elprograma (Zinovieff, 2008).

Modelos de evaluación. Existen varios modelos para la evaluación de programas, entre ellos tenemos el modelo de Tyler orientado a los objetivos, el de discrepancia de Provus, Bigman y Suchman, el de Scriven enfocado en el consumidor; el de Stufflebeam dirigido a la gerencia y el  Kirpatrick con sus cuatro niveles (Fitzpatrick et al., 2004). Según el autor, los modelos de evaluación orientados a los objetivos se caracterizan por especificar objetivos medibles, utilizar instrumentos para la recolección de información, y buscar discrepancias entre el desempeño y los objetivos. Por otra parte, el modelo de evaluación orientado al consumidor que hace mención el autor, utiliza una lista de criterios para analizar los productos, es decir, pruebas de producción e información del consumidos.

En términos de la evaluación de acciones formativas, Belanger y Jordan (2000) identificaron tres modelos principales, estos son el modelo Sistémico de Van, Kittner y Belanger, los cinco niveles de Marshall y Shriver y de los cuatro niveles de Kirkpatrick (Belanger & Jordan, 2000). Para Rubio (2003) el modelo Sistémico de Van, Kittner y Belanger provee un conjunto de variables que interactúan como factores que predicen el éxito de la acción formativa. De la misma manera, Pérez (2007) describió el modelo de Marshall y Shriver como uno que muestra especial interés en evaluar la calidad docente y la efectividad de los aprendizajes logrados, situando al docente en un nuevo espacio formativo, como guía y acompañante del estudiante. En cuanto al modelo propuesto por  Donald Kirkpatrick, según Galindo (2008) es el más utilizado para la evaluación de programas de formación. Debido a que cada vez más las organizaciones reconocen la necesidad y el valor de evaluar acciones formativas.

Para Madison (2005), el diseño del modelo de Kirkpatrick ha servido de base para la evaluación de programas en las organizaciones por más de 30 años. Lo que para el autor significa que ha generado gran popularidad a causa de su utilidad tanto para visualizar de forma sistemática el proceso de evaluación como para simplificar el proceso complejo de evaluar las iniciativas de formación. En esta misma línea, Mosley y Dessinger (2010) argumentaron que rápidamente se convirtió en el modelo que más ampliamente ha sido utilizado por evaluadores en sectores con fines y sin fines de lucro, y por agencias gubernamentales. Lo que evidencia que la aplicación del modelo de Kirkpatrick es vital para la continuidad de los procesos formativos, dado a que permite analizar adecuadamente los resultados de la capacitación para el desarrollo sostenido de las inversiones formativas en las organizaciones (López, 2005).

 

El Modelo de Kirlpatrick

 El modelo de Kirkpatrick parte de cuatro etapas que son la reacción, el aprendizaje, el comportamiento y los resultados. Estos cuatro componentes permiten determinar  la satisfacción del participante con la formación que recibió, medir los conocimientos adquiridos, evaluar la aplicación de las destrezas desarrolladas y valorar si los objetivos planteados se cumplieron (Jiménez & Barchino, 2010). Estas etapas han constituido un marco de trabajo ampliamente aceptado para la evaluación (Guerra-López, 2007). Precisamente, por su potencial de simplificar la complejidad del proceso de valoración de los programas de formación. Madision (2005) lo caracterizó como una guía sencilla que orienta el establecimiento de preguntas y criterios adecuados para conducir una evaluación apropiada. Mientras que Rivas (2008) señaló que los cuatro niveles proporcionan una base para determinar qué datos deben ser recolectados.

De acuerdo con Ribas (2008), los niveles del modelo están dispuestos en una jerarquía, de modo tal que la evaluación comienza siempre por el nivel uno y termina en el nivel cuatro. Esto implica que la información obtenida en cada etapa servirá para informar a las siguientes. La superación de cada nivel representará una medición de éxito más precisa del programa de capacitación, promoviendo un enfoque más riguroso (Guerra-López, 2007). Según dicho autor no existen datos o ninguna otra forma de evidencia que sugiera claramente que existe correlación entre los niveles, bien sea de forma positiva o negativa, o que uno de ellos cause al otro. No obstante, es necesario explicar más ampliamente los niveles del modelo de Kirkpatrick. A continuación se describen las cuatro etapas del modelo de Kirkpatrick.

Reacción. Este nivel tiene como propósito  medir las reacciones del aprendiz sobre el evento de formación, incluyendo la evaluación de la metodología de la formación, su contenido y cumplimiento de las necesidades individuales de la capacitación (Clements & Jones, 2006). Según Kirkpatrick y Kirkpatrick (2007a) en esta etapa es necesario delimitar qué se quiere evaluar recopilando actitudes de elementos específicos del programa. Por ejemplo, las reacciones sobre el instructor, el tópico, el estilo de la presentación, la organización y los recursos. Esto incluye también, según Jiménez (2011), la adaptación del contenido, el dominio del instructor, el manejo del tiempo, la claridad de la exposición, los aspectos teóricos y prácticos, el nivel de integración, la puntualidad, la idoneidad del calendario propuesto y los medios puestos a disposición.

Aprendizaje. El aprendizaje es la segunda etapa del modelo y según Mantyla (2000), este etapa tiene como propósito comprobar el nivel de conocimientos y habilidades adquiridos por el participantes a través de una prueba de rendimiento.  Para fines del nivel de aprendizaje, Jiménez (2011) señaló que es preciso evaluar aquellos principios, hechos y técnicas que fueron comprendidas y obtenidas por los participantes. Lo que significa, que el nivel determinará la asimilación de la capacitación, y a su vez, destacará la manera en que algunos factores incidieron en el aprendizaje, tales como contenido del curso, las actividades de aprendizaje, la estructura del curso, los materiales y las herramientas empleadas (Jiménez & Barchino, 2010).

Comportamiento. Para Kirkpatrick y Kirkpatrick (2006), este nivel mide el grado de cambio en la conducta producida en el participante, como consecuencia del programa de formación. También intenta evaluar si los conocimientos y destrezas adquiridas están siendo implementados en el área de trabajo (Zinovieff, 2008).  Según  dicho autor,  es imposible predecir los efectos de la capacitación si no se tiene la oportunidad de aplicarlo. De acuerdo con Rubio (2003), evaluar el nivel de comportamiento permite demostrar el impacto de la formación en la mejora de los participantes y los beneficios que este pueda aportar a la organización para determinar más tarde su impacto y rentabilidad. Según López (2005) esta etapa el clave para conocer cómo logra la formación transformar y mejorar la organización.

Resultados. Esta etapa evalúa los efectos de la formación en la organización (Clements & Jones, 2006; Zinovieff, 2008). Para Jiménez y  Barchino (2010 p.3) es una forma de medir “si los objetivos planteados en la acción formativa se utilizan en la organización de forma efectiva y eficiente”. Steensma y Groeneveld (2010) resaltaron que el nivel de resultado más bien busca valorar el cumplimiento de objetivos de la organización a largo plazo. Según Patricio (2011) busca impacto real de la organización desde la perspectiva de los resultados obtenidos. En esta misma línea, el autor planteó que para evaluar los resultados, se utilizan informes de gestión, niveles de producción, calidad, costos, niveles de absentismo, rotación y bajas voluntarias. Lo que para el autor significa el validar que el programa de formación no implica un simple costo, sino que la efectividad de los resultados justifica su implementación.

Aplicación del Modelo de Kirkpatrick

 Según la American Society of Training and Development (ASTD) más del 60% de las organizaciones que evalúan sus programas de capacitación utilizan el modelo de Kirkpatrick (Coulthard, 2005). Esto se debe a que, según Setaro (2001),  los cuatro niveles propuestos proporcionan un marco lógico que permite examinar los resultados del impacto tanto del individuo (instructor) y la organización (institución). En esta misma línea, Kirkpatrick y Kirkpatrick (2007a p. 41) señalaron que las etapas del modelo  han sido ampliamente utilizadas para “mejorar los programas formativos futuros, tomar decisiones sobre el mantenimiento o no de un curso o programa de capacitación y justificar la existencia del departamento de formación”. Lo que significa que el modelo se ha aplicado  en diversos sectores de la sociedad. Por ejemplo, el sector público y privado para el personal administrativo (Rutty, 2003); y en el educativo para los instructores (Naugle, Naugle & Naugle, 2000).

 

Específicamente, en el sector público Sears, Cohen y Drope (2008) utilizaron el modelo de Kirkpatrick para evaluar el curso sobre Tobacco and Public Health: From Theory to Practice cuyo objetivo fue capacitar a los profesionales de la salud Canadienses para la planificación, implementación y creación de estrategias de control de tabaco. Mientras que Jameson (2008) en el sector privado evalúo la efectividad del curso de la CNE sobre Using CINAHL for Evidence Based Nursing Practice de la University of Toledo’s Mulford Health Science Library. Según el autor,  la finalidad del curso era promover el fortalecimiento de destrezas para la toma de decisiones enfocadas en el bienestar del paciente. En términos del uso de los niveles de Kirkpatrick para la evaluación de instructores, Monroe (2005) utilizó el modelo para evaluar un programa de capacitación en línea para la facultad a tiempo parcial de Ivy Tech Community College. De acuerdo con el autor, el programa pretendió fortalecer los conocimientos de la facultad sobre el aprendizaje en el adulto, preparación instruccional, técnicas para la realización de presentaciones para la sala de clases, estrategias para el desarrollo del aprendizaje activo, manejo del adulto en la sala de clases, como enseñarle al estudiante a aprender, tecnología instruccional y aprendizaje a distancia. La creciente integración del modelo de Kirkpatrick, afirma el continuo crecimiento de la aplicación de los niveles de evaluación tanto en sectores públicos como privados para mostrar pruebas concretas de que la capacitación está logrando sus objetivos (Zinovieff, 2008).

Aplicación del Modelo Kirkpatrick en Instituciones de Educación Superior

 Steensma y Groeneveld (2010) señalaron que el modelo propuesto por Kirkpatrick ha sido de beneficio no tan solo para mejorar la calidad programas de formación, sino que también ha sido consistentemente utilizado para la evaluación de programas. Por ejemplo, la Pontificia Universidad Católica de Chile utilizó los cuatro niveles del modelo de evaluación de Kirkpatrick para la evaluación de su programa de formación para la facultad en la educación médica. Los resultados de dicha evaluación demostraron que hubo cambios de actitudes y la percepción sobre sus prácticas; y a su vez, se aplicaron de los nuevos conocimientos adquiridos  (Steensma & Groeneveld, 2009). Otro caso de evaluación tuvo lugar en Estados Unidos, dicha evaluación demostró que  reflejó algunas debilidades del programa, tales como el tiempo, adiestradores y planificación (Frey & Overfield, 2000). También universidades como Vanguard University y la US American, ambas aplicaron el modelo de cuatro niveles de Kirkpatrick y obtuvieron insumos necesarios para mejorar sus programas (Praslova, 2010).

En términos de la aplicación del modelo de Kirkpatrick en Puerto Rico, se identificó su uso en la Universidad de Puerto Rico, Recinto de Utuado. Cartagena (2011) integró las etapas de evaluación de Kirkpatrick para analizar los recursos utilizados en la educación a distancia. Específicamente, el recurso evaluado por el autor fue la plataforma [educativa] virtual Moodle en la modalidad de cursos asistidos por las tecnologías de la información y las comunicaciones. Partiendo del análisis de los resultados mencionados por el autor, la reacción de los estudiantes en cuanto a la utilización de Moodle en sus cursos fue favorable, el aprendizaje aumentó debido a que su desempeño académico fue más eficiente gracias a Moodle, el comportamiento de los estudiantes fue el afirmar que les gustaría iniciarse en algún curso en línea tan pronto estuvieran disponible y los resultados arrojaron que a partir del uso de la plataforma Moodle se crearon un total de 73 cursos para su ofrecimientos en línea.

Metodología

 Diseño de la investigación

Este estudio se enmarcó en un enfoque cuantitativo no experimental cuyo diseño fue uno tipo encuesta aplicado por correo electrónico, según sugiere Hernández et al. 2010. El alcance investigativo se caracterizó por no manipular las condiciones del mismo, y por consiguiente, permitió describir las actitudes, las opiniones, las conductas y las características de la población (Creswell, 2008).

Para recopilar los datos, se diseñó un cuestionario utilizando como base las preguntas guías para evaluar el nivel de reacción y comportamiento, según propuestas por Kirkpatrick y Kirkpatrick (2007). Particularmente, el nivel de reacción midió la satisfacción de los participantes en cuanto a elementos específicos del programa. Mientras que el de comportamiento evaluó el impacto de la capacitación en términos de la integración de conocimientos en la organización y los cambios en la conducta (Kirkpatrick & Kirkpatrick, 2007). En este caso, se tomó en consideración el nivel de reacción y comportamiento para propósitos de la investigación ya que son los más utilizados para evaluar la formación (Salanova, Grau & Peiró, 2001).

Para evaluar ambos niveles, el cuestionario se dividió en cuatro secciones. La primera examinó la reacción en cuanto al diseño y contenido del curso de Certificación de Diseño y Docencia en Blackboard Learning System VISTA; la segunda identificó el grado de aplicación de las herramientas de la plataforma en el quehacer docente en línea; la tercera investigó los cambios en el comportamiento del docente en línea como consecuencia de la participación en la certificación; y finalmente, la cuarta recopiló información demográfica del participante. La Figura 1 muestra los indicadores que pretenderán recopilar información para medir tanto el nivel de reacción y comportamiento, como los objetivos de estos y la cantidad de reactivos alineados a los indicadores en cuestión. De esta forma, se pretendió recolectar información necesaria para responder las preguntas bajo estudio.

Descripción del Programa en Estudio

 Al igual que otras universidades en el mundo, la institución bajo estudio tiene un programa de capacitación profesional. Esto para los instructores que “imparten cursos en línea y presenciales, con utilización de la plataforma tecnológica de Blackboard VISTA y otras aplicaciones complementarias variadas” (Echevarría, 2011 p. 10). Dicho programa tiene como objetivo el desarrollar destrezas para el manejo efectivo cursos en línea mediante el uso de las distintas herramientas deBlackboard Learning System VISTA; y a su vez, aplicar los conceptos básicos de diseño instruccional y las mejores prácticas de enseñanza a través del desarrollo de un módulo de aprendizaje. De acuerdo a la política para la implantación del aprendizaje a distancia de la institución bajo estudio, la universidad se mueve hacia la transformación de los procesos de enseñanza y aprendizaje al desarrollar nuevos enfoques educativos a través de la tecnología.

En esta línea, el programa introduce su formación a través de un módulo de aprendizaje que explora las herramientas básicas de comunicación, evaluación y manejo de cursos en Blackboard Learning System VISTA. Según el programa de Certificación de Fundamentos de Diseño y Docencia en Línea al finalizar el curso el instructor logrará navegar y modificar la página de my blackboard, modificar la página principal de un curso, utilizar las distintas funciones disponibles mediante action links, las herramientas de correo electrónico y la de Who’s Online para la comunicación inmediata e instantánea (sincrónica) con los estudiantes de un curso, crear una actividad de interacción sincrónica mediante el uso de herramienta de chat y asincrónica mediante el uso de la herramienta de foro de debate. Mientras que también podrá crear un prontuario en Blackboard Learning System VISTA, realizar entradas en el calendario del curso, diseñar y corregir exámenes y asignaciones, identificar las características básicas de un buen diseño instruccional, la mejores práctica de enseñanza,  incorporar distintos elementos de contenido, interacción, evaluación y avalúo en el diseño de un módulo de aprendizaje; y finalmente, exportar un módulo de aprendizaje. Lo que significa que los participantes del programa de capacitación, podrán desempeñar su papel fundamental en el aprendizaje a distancia y fortalecer su preparación pedagógica y tecnológica para fines de la educación no presencial.

Considerando el propósito del programa, se utilizará el modelo de Kirkpatrick para ayudar a la institución bajo a estudio determinar los beneficios de la formación. De tal forma, que se pueda evaluar la efectividad de la iniciativa demostrando el nivel de satisfacción con el funcionamiento del programa de la facultad que participó, y de la misma forma, demostrar el nivel de costo efectividad dentro de los parámetros aceptables por la institución promoviendo la salud fiscal para su continuo funcionamiento y desarrollo. Esto se fundamenta en que un proceso de cambio no finaliza con la mera implantación de un programa, sino que consiste en la evaluación de los objetivos  propuestos y los valores esenciales de la academia (Bates, 2000). Lo que confirma, que se debe garantizar la integridad del programa y la autoevaluación continúa que permita recopilar información que demuestre su efectividad de carácter programático en el cumplimiento de los objetivos trazados para el desarrollo continuo del aprendizaje a distancia.

(TABLA)

 

Figura 1. Descripción del instrumento

 

Para responder el cuestionario, los participantes utilizaron una escala Likert que iba desde Totalmente de acuerdo a Totalmente en desacuerdo. Mientras que en otros casos, esta variaba desde Mucho a Pobre. Además, se incluyó la opción de No aplica en ambos casos. Los rangos de puntuación utilizados para medir las categorías de la escala de medición van desde 1.00 a 4.00 puntos para una escala que va desde Totalmente de acuerdo a Totalmente en desacuerdo, mientras que en otras ocasiones la escala de medición fluctúa desde Mucho a Pobre.

 

Validez y confiabilidad del instrumento

 

            Validez. La validez del cuestionario, se midió tomando en cuenta lo sugerido por Hernández et al. (2012), realizando un face validity o validación por expertos. Además, se llevó a cabo un análisis lógico a través de un instrumento de validación, según lo propuesto por Alvira (2012). Como resultado del proceso de validación, se identificaron algunas debilidades, por ejemplo en la escala de medición, los reactivos versus el constructo y el lenguaje utilizado. Para atemperar la escala de medición a los objetivos de la sección dos y tres, se cambió la escala de medición a mucho (5), bastante (4), regular (3), pobre (2) y no aplica (1). El vocabulario de las instrucciones de la parte uno y tres, más la de algunos reactivos fue corregido. Mientras que las preguntas contempladas en la sección dos y tres, se convirtieron en opciones congruentes al constructo y al material cubierto en los temas de la certificación profesional.

 

Confiabilidad del cuestionario. Para determinar la confiabilidad del, se midió la consistencia de las respuesta de los 54 reactivos que componían el instrumento. Como resultado, se obtuvo un valor de alfa de Cronbach de 0.96 (véase Apéndice E), representando un máximo nivel de confiabilidad. Lo que significa para el autor, que el instrumentos es sumamente confiable, es decir, fiable total o perfecto.

 

Participantes, procedimientos y limitaciones

 

Participantes. Los participantes de esta investigación son profesores que imparten cursos en línea y presencial en una institución de educación superior del área sur de Puerto Rico. En este caso, la población fue representada por 315 instructores, de los cuales 100 trabajan a tiempo completo y 215 a tiempo parcial. Mientras que la muestra de participantes en este estudio fueron 106 profesores, quienes aprobaron el programa de capacitación profesional y de los cuales, 49 de ellos son profesores a jornada completa y el resto a jornada parcial. Esta muestra fue una no probabilística con una tipología de diseño muestral por conveniencia.

 

Representación demográfica de los participantes

Para describir el perfil de los participantes, se presenta en la Figura 2 una descripción de los datos demográficos recopilados.

 

Figura 2. Perfil demográfico de los participantes

 

Procedimientos

Para propósitos de la investigación, se consideraron cinco etapas, las cuales se describen a la Figura 3 que se muestra a continuación:

 

Figura 3. Cinco etapas del procedimiento

 

Limitaciones

Algunas limitaciones que se confrontaron en el estudio, fueron la selección de la muestra por conveniencia. Lo que significa, que la cantidad de participantes en el estudio dependió de la disponibilidad de estos. Mientras que solamente se utilizaron dos niveles del modelo de Kirkpatrick, esto implica que únicamente se evaluaron algunos aspectos del programa. En este caso, la reacción y comportamiento de los participantes bajo estudio.  Por otro lado con respecto al cuestionario, el mismo es de preguntas cerradas solamente, lo que pudiera limitar las respuestas de la muestra.

Resultados

 

            Este estudio de enfoque cuantitativo no experimental pretendió contestar las preguntas bajo estudio, y a su vez, medir el nivel de reacción y de comportamiento del modelo de evaluación de Kirkpatrick utilizado para propósitos de la investigación. Para esto, se utilizaron unos rangos de puntuación para medir las categorías de la escala de medición. Según la tabla 1, los rangos de puntuación van desde 1.00 a 4.00 puntos. Para una escala que va desde Totalmente de acuerdo a Totalmente en desacuerdo. Mientras que en otras ocasiones la escala de medición fluctúa desde Mucho a Pobre.

 

Tabla 1

Rango de puntuación de la escala de medición

 

Rango de puntuación

Escala

3.51 a 4.00

Totalmente de acuerdo/Mucho

2.51 a 3.50

De acuerdo/Bastante

1.51 a 2.50

En desacuerdo/Regular

1.00 a 1.50

Totalmente en desacuerdo/Pobre

Basado en el rango de puntuación descrito, se realizaron varios análisis estadísticos descriptivos que incluyen la frecuencia, los porcentajes, la media y la deviación estándar. Nivel de Reacción

 

            Aplicando el nivel de reacción del modelo de evaluación de programa de Kirkpatrick, se estableció la siguiente pregunta de investigación, ¿Cuál es el nivel de satisfacción de la facultad en cuanto a la formación profesional recibida para la instrucción en línea? En respuesta a esta pregunta, se analizaron los resultados de las 13 preguntas de la primera parte del cuestionario administrado. El objetivo de esta parte, era examinar la reacción en cuanto al diseño y contenido del programa de formación bajo estudio. Tomando en cuenta las respuestas de los participantes, en la Figura 4 se presenta el porciento ponderado de los resultados de las preguntas que conformaron la primera sección del instrumento, cuyo objetivo fue medir el nivel de reacción de los participantes. En esta se evidencia que la mayoría de los participantes, (81%, aproximadamente 40 participantes) estuvieron Totalmente de acuerdo y De acuerdo.  Mientras que la minoría (6%, aproximadamente 3 participantes) estaban En Desacuerdo, más ningún participante indicó estar Totalmente en desacuerdo.

 

Figura 4. Representación gráfica del porciento ponderado de los resultados de la primera parte del instrumento sobre la reacción en cuanto al diseño y contenido del curso de Certificación de Diseño y Docencia en Blackboard Learning System VISTA.

Nivel de Comportamiento

             Implantando el nivel de comportamiento del modelo de evaluación de Kirkpatrick, se formularon las siguientes preguntas de investigación, ¿En qué medida fueron aplicadas las destrezas adquiridas de la facultad a través del programa de formación profesional para la creación de instrucción en línea? y ¿Qué cambios hubo en el comportamiento de la facultad como consecuencia de lo aprendido en el programa de formación sobre el diseño y docencia en línea?. En respuesta, se evaluaron los datos como resultados de 41 reactivos del instrumento administrado. Específicamente, 32 reactivos de la segunda parte del cuestionario y 9 reactivos de la tercera Los reactivos permitieron responder a las preguntas bajo estudio, y a su vez, evaluar el nivel de integración de conocimientos al quehacer docente en línea, más valorar los cambios en el comportamiento del profesor.

La Figura 6 describe el porciento ponderado de las respuestas de los reactivos de la segunda y tercer parte del instrumento administrado (total de 41 opciones o preguntas, del 14 al 54) lo cual pretendió medir el nivel de comportamiento según el modelo de evaluación de Kirkpatrick. De acuerdo a los hallazgos, el 68% indicó que hubo Mucho cambio en el comportamiento. Mientras que el 47% señaló Bastante transformación como consecuencia de la capacitación recibida. En cambio, el 30% expresó los cambios fueron Regular y el 15 porciento indicó que fueron Pobre.

Figura 7. Representación del porciento ponderado de los resultados de los reactivos de la segunda y tercer parte sobre el uso de las opciones de la plataforma educativa y los cambios en el comportamiento del docente en línea luego de su participación en la certificación de Fundamentos de Diseño y Docencia en Blackboard Learning System VISTA.

  

Discusión

El propósito de este  estudio fue evaluar el programa de capacitación profesional para la instrucción en línea de una institución de educación superior ubicada en el área sur de Puerto Rico. La evaluación del programa bajo investigación, se realizó utilizando como base el modelo de evaluación propuesto por Kirkpatrick. El estudio, específicamente, resaltó lo relacionado al nivel de  reacción y conocimiento del modelo de evaluación de programa de Kirkpatrick utilizado como base de la investigación. La valoración de ambos niveles permitió contestar las preguntas bajo estudio. La Figura 8 describe los datos más sobresalientes con respecto según los niveles y las preguntas de investigación que fundamentaron el estudio.

 

Figura 8. Hallazgos sobresalientes

Implicaciones de los resultados

La investigación sobre la evaluación del programa de capacitación profesional de una institución de educación superior de Puerto Rico, permitió por primera vez, valorar la efectividad de la formación de profesores en cuanto a la instrucción en línea. Adaptando, un modelo de evaluación de programa, cuyos elementos permitieron crear un instrumento para la recopilación de información. De igual manera, el estudio evidencia la necesidad de establecer una cultura de evaluación en los que gestionan la formación. Posibilitando las claves conceptuales y procedimentales de las prácticas evaluativas. Esto para cumplir con las políticas propuesta por la Junta de Síndicos de la universidad bajo estudio, la cual exige un proceso de evaluación a largo plazo. Considerando el proceso de evaluación, como un elemento clave para la identificación del grado del impacto de la formación y la magnitud de los beneficios para la institución.

El resultado de esta investigación, ha permitido crear la necesidad de estudiar los enfoques de la formación en línea. Tomando en cuenta, los nuevos paradigmas del rol de docente y estudiante como protagonistas de la educación a distancia.  Mientras que ayudó a visualizar los conocimientos de las herramientas tecnológicas como una actividad vital que mejora los procesos pedagógicos en la instrucción en línea.  Así mismo, demuestra la importancia de continuar fortaleciendo las competencias pedagógicas, sociales, investigativas y de liderazgo, en el personal docente en línea. Finalmente, ha logrado considerar un marco teórico favorable que promueve un aprendizaje activo y efectivo en el instructor en línea.

 

Conclusiones

            Los hallazgos encontrados como producto de la investigación permiten llegar a las siguientes conclusiones:

  1. 1.      La evaluación de programas se debe mirar como un proceso continuo que provocará mejores condiciones para un resultado óptimo que añada valor a la institución. En esta misma línea, Rodríguez (2005) planteaba que la evaluación debe ser un proceso periódico para la toma de medidas correctivas apropiadas para el programa de formación.
  2. 2.      Los programas de formación para los instructores en línea, debe ir más allá de la mera preparación en cuanto a las destrezas técnicas. Según  Campos, Brenes y Solano (2010), el desarrollo de competencias docentes para la instrucción en línea, además de enfocarse en el ámbito tecnológico, debe incluir el enfoque pedagógico, social, investigativo y de liderazgo.
  3. 3.      La teoría del aprendizaje adulto puede utilizarse como un modelo teórico como base para el diseño del curso de capacitación para la facultad en línea. Según Mosley (2007) el aprendizaje adulto sugiere que el individuo aprende más cuando la instrucción considera las experiencias, es estructurada y organizada, y a su vez, promueve la exploración permitiendo ir más allá de la información provista.
  4. 4.       La satisfacción del participante, en cuanto al programa de formación, debe evaluarse inmediatamente culmine la intervención. Tomando en cuenta, que las reacciones se podrían ver influenciadas por las actitudes del participante o eventos relacionados o ajenos a la formación (Ferreyra & Marsilli, 2010). Por lo que, según los autores, es necesario tomar prontamente las reacciones de los participantes para obtener respuestas honestas.
  5. 5.      La valoración de un programa de formación debe considerar factores fuera del ámbito del programa. De acuerdo con McLean y Moss (2003), la falta de cambios en el comportamiento del participante pueden ser influenciados por la falta de deseos, oportunidades, apoyo o recompensas para el cambio de conducta. Para esto, según los autores, debe considerarse la evaluación del entorno de trabajo.
  6. 6.       Un programa de formación debe tomar en cuenta el nuevo rol del docente en línea. Hardy & Bower (2004) señalaron que la capacitación profesional debe prestar atención en la búsqueda de roles más interactivos del instructor.
  7. 7.      Las gestiones del programa de formación benefician más que nada al instructor en línea, lo que redunda en una ganancia para la instrucción en línea, y por ende, la institución. Ferreyra & Marsilli (2010) señalaron que los resultados que los participantes generan, no son de quién gestionó la capacitación, sino que son el producto del desarrollo de una buena capacitación.
  8. 8.      La capacitación en cuanto al uso de la tecnología debe ser continua y no limitarse a una sola herramienta tecnológica. Januszewski & Molenda (2008)plantearon la posibilidad de seleccionar e incorporar las nuevas vertientes tecnológicas para potenciar procesos educativos mediante la interacción del estudiante y docente.
  9. 9.      Es necesario que los programas de formación promuevan la investigación en cuanto al conocimiento sobre las mejores prácticas en la educación a distancia. Según Campos y Castro (2010) el trabajo investigativo permite que el cuerpo docente mejore constantemente su práctica, y a su vez, construya nuevos saberes, sobre y a partir, de su propia práctica pedagógica.
  10. 10.  La formación en cuanto a la pedagogía en línea debe considerar los nuevos paradigmas sobre los cambios en la estructura de pensamiento y formas de aprender de las nuevas generaciones estudiantiles.  Considerando que el rol del estudiantado supone cambios hacia un papel protagónico en el aprendizaje a distancia (Campos, Brenes & Solano, 2010).
  11. 11.  El tema de la interacción en los cursos en línea debe ser integrado como aspecto importante para el desarrollo de competencias sociales en el instructor en línea. Según Moore (2007), es el tema más investigado en la educación a distancia. Por lo que, Berge (2005) sugirió que la interacción esté presente en la instrucción. Para esto, Moore (2005) argumentó sobre la importancia de crear experiencias fomenten niveles de interacción multidimensional en la educación a distancia.
  12. 12.  Considerando la diferente concepción de la educación y del quehacer educativo, es necesario el desarrollo de competencias para el diseño instruccional de cursos en línea. Concibiendo, según Faryaid (2007), el diseño instruccional como método para la conceptualización de la instrucción, la creación de materiales y la implantación de la instrucción. También, se debe visualizar como la forma de organizar el conocimiento y aprendizaje del estudiante a través de la elaboración de los materiales instruccionales (Avilés & Avilés, 2005).

Recomendaciones

Considerando los resultados recopilados en el estudio, se presentan algunas recomendaciones:

  1. 1.      Realizar otro estudio donde se considere la evaluación del nivel de aprendizaje y resultado del modelo de evaluación de programas de Kirkpatrick.
  2. 2.      Considerar la evaluación del comportamiento del participante, antes y despues de la formación. De tal forma que se pueda identificar el nivel de ganancias en cuanto a los cambios en la conducta del profesor como consecuencia de la capacitación recibida.

Fortalecer el diseño del programa de capacitación para la facultad en línea. Considerando la matriz presentada en la figura 8, la cual describe tres componentes para la formación. Por ejemplo, el el enfoque de la pedagogía en línea, la tecnología instruccional, liderazgo y gerencia, y finalmente, la investigación de la educativa.

  1. 1.      Representación de la matriz para la capacitación del docente en la instrucción en línea.
  2. 2.      Incluir mentorías como estrategia de apoyo del programa de formación para el docente en línea.
  3. 3.      Repetir la evaluación periódicamente para obtener respuestas inmediatas de los participantes y realizar acciones correctivas al programa de capacitación.
  4. 4.      Promover la congruencia del enfoque de la formación con el rol actual del instructor en línea.
  5. 5.      Evaluar el programa de formación utilizando otro modelo similar, para comparar los hallazgos.
  6. 6.      Realizar el mismo estudio en otras unidades académicas de la misma institución, para determinar el impacto del programa de formación en la facultad en línea.

 

 

Referencias

 Allen, I. E., & Seaman, J. (2011). Going the distance: Online education in the United States, 2011[Yendo a distancia: la educación a distancia en los Estados Unidos]. Recuperado de http://www.onlinelearningsurvey.com/reports /goingthedistance.pdf

Alvira Martin, F. (1997). Metodología de la evaluación de programas: Un enfoque práctico. Argentina: Lumen Humanitas.

Alvira Martin, F. (2012). La encuesta: Una perspectiva general metodológica. España: Consejo Editorial de la Colección Cuadernos Metodológicos.

Anderson, T., & Elloumi, F. (2004). Theory and practice of online learning. Recuperado de http://cde.athabascau.ca/online_book/

Avilés, M., & Avilés, J. (2005). Fundamentos teóricos de la educación a distancia. Diseño Instruccional para el aprendizaje significativo. Trabajo presentado en Virtual EDUCA, México.

Badia, A. (2004). Del docente presencial al docente virtual. Barcelona: UOC

Bates, A. W. (2000). Cómo gestionar el cambio tecnológico: Estrategias para los responsables de centros universitarios (2da ed.). México: Manual Moderno.

Bates, R. (2004). A critical analysis of evaluation practice: The Kirkpatrick model and the principle of beneficence [Un análisis crítico de las prácticas de evaluación: El modelo de Kirkpatrick y el principio de beneficencia]. Recuperado de http://www.elsevier.com/locate/evalprogplan

Belanger, F., & Jordan, D.H. (2000). Evaluation and implementation of distance learning: Technologies, tools and techniques [Evaluación y aplicación de aprendizaje a distancia: Tecnologías, herramientas y técnicas]. London: Idea Group Publishing.

Bennett, S., Matton, K., & Kevin, L. (2008). The digital native debate: A critical review of the evidencie [El debate sobre los nativos digitales: Un análisis crítico sobre la evidencia]. Bristh Journal of Educational Tecnhology, 39(5), 775-786.

Berger, J. B., & Lyons, S. C. (2005). Past to present: A historical look at retention [Pasado al presente: Una mirada histórica a la retención]. A. Seidman (Ed.),Colleges student retention: Formula for student success (pp.1-30).Westport, CT: American Council on Education and Praeger.

BjekiĆ, D., Krneta, R., & Milosevic, D. (2010). Teacher education from e-learner to e-teacher: Master curriculum [Educación del maestro desde e-aprendizaje y e-maestro para un curriculo maestro]. Recuperado de http://www.eric.ed.gov:80 /ERICDocs/ data/ericdocs2sql/content_storage_01/0000019b/80/46/ f9/22.pdf

Bocchi, J., Eastman, J. K., & Swift, C. O(2004). Retaining the online learner. Profiles of students in an online MBA program and implications for teaching them [Retención del estudiante en línea. Perfiles de los estudiantes en un programa MBA en línea y las consecuencias para la enseñanza]. Journal of Education for Business, 79, 245-253.

Bohlander, G., & Snell, S. (2008). Administración de Recursos Humanos (14th ed.). Mexico: Cengage Learning.

Cabero, J., & Román, P. (2006). E-actividades un referente básico para la formación en Internet. Madrid: Eduforma.

Cagigas, J., & Mazo, I. (2012). Los Mitos de Silvia. España: LID Editorial Empresarial, S.L.

Campos Cespedes, J., Brenes Matarrita, O.L., & Solano Castro, A. (2010). Competencias del docente de educación superior en línea. Recuperado de http://www.latindex. ucr.ac.cr/aie013-09.php

Capacho Portilla, J. R. (2011). Evaluación del aprendizaje en espacios virtuales – TIC. Colombia: ECOE Ediciones.

Caraballo Pagán, O. (2010). Evaluación del nivel de satisfacción de la gestión de un programa de aprendizaje a distancia aplicando el modelo CIPP: caso del programa de administración de sistemas de oficina de una Universidad Privada de Puerto Rico (Tesis doctoral). Recuperada de http://ponce.inter.edu /cai/ tesis/ocaraballo/index.pdf

Cartagena, P. L. (2011). Análisis de recursos para la educación a distancia en la Universidad de Puerto Rico en Utuado: Utilización de la plataforma virtual Moodle(Tesis doctoral). Recuperado de http://enlinea.uprutuado.edu/file.php /1/ Estudio_Moodle_UPRU4.pdf

Clay, M. (1999). Development of training and support programs for distance education faculty [Desarrollo de programas de capacitación y apoyo para el profesorado de educación a distancia]. Recuperado de http://www.westga.edu/~distance/ clay23.html

Clements, P., & Jones, J. (2008). Diversity training handbook: A practical guide to understanding & changing attitudes [Manual entrenamiento diverso: una guía práctica para la comprensión y cambio de actitudes] (3ra ed.). Philadelphia: Library of Congress Cataloging in Publication Data.

Cole, R. A. (2000). Issues in Web-based pedagogy: A critical primer [Problemas de la pedagogía basada en la Web: una introducción crítica]. Connecticut: Library of Congress Cataloging in Publication Data.

Coulthard, G. J. (2005). Critique of Kirkpatrick’s four level of evaluation [Crítica de los cuatro niveles de evaluación de Kirkpatrick]. Recuperado de http://www.coulthard.com/files/KirkpatrickCritique.swf4-06-2009

Craig, R. L. (1996). The ASTD training and development handbook: A guide to human resource development [El de formación y desarrollo de ASTD: una guía para el desarrollo de recursos humanos] (4ta ed.). New York: McGraw-Hill.

Creswell, J. W. (2008). Educational research: Planning, conducting, and evaluating quantitative and qualitative research [Investigación educative: Planificación, desarrollo y evaluación de investigaciones cuantitativas y cualitativas] (3ra ed.). New Jersey: Pearson Education, Inc.

De las Casas, A. (comunicación personal, 13 de marzo, 2012). [Convocatoria a comisiones institucionales].

Del Mastro, C. (2005). El aprendizaje estratégico en la educación a distancia. Lima: Fondo Editorial de la Pontificia Universidad Católica del Perú.

Díaz-Maroto, T. (2009). Formación a través de Internet: Evaluación de la calidad. (1ra ed.) Barcelona: Editorial UOC.

Faryaid, Q. (2007). Instructional design models. What a Revolution [Modelos de diseño instruccional. Qué revolución]. (No. de servicio de reproducción de documento ERIC ED495711). Recuperado de la base de datos ERIC.

Ferreira, D. I., & Marsilli, M. A. (2012). Uso de indicadores de impacto de las acciones de capacitación y desarrollo. Recuperado de http://www.adca.org.ar/Content.aspx ?Id=868

Fitzpatrick, J., Sanders, J., & Worthen, B. (2004). Program evaluation: Alternative approaches and practical guidelines [Evaluación de programa: enfoques alternos y directrices prácticas] (3ra ed.). Boston: Allyn & Bacon.

Frey, B. A., & Overfield, K. (2000). Faculty development: Assessing learner achievement [Desarrollo de facultad: Evaluación del aprovechamiento del aprendiz]. Recuperado de http://www.eric.ed.gov/ERICWebPortal/search/ detailmini.jsp?_nfpb=true&_&ERICExtSearch_SearchValue_0=ED443886&ERICExtSearch_SearchType_0=no&accno=ED443886

Gabr, M. (2000). Program evaluation: A missing critical link in translator training [Evaluación de programa: Un eslabón crítico perdido en la formación de traductores]. Recuperado de http://accurapid.com/journal/15training.htm

Galindo Martin, M. A. (2008). Diccionario de economía aplicada: Política económica, economía mundial y estructura económica. España: Editorial del Economista.

Gil Pascual, J. A. (2011). Técnicas e instrumentos para la recogida de información (1ra ed.). España: Impresos España.

Gilliam, M. A. (2000). The perception of value [La percepción del valor]. Retail Merchandiser, 40(5), 36-38.

Guerra-López, I. (2007). Evaluación y mejora continua: Conceptos y herramientas para la medición y mejora de desempeño. Indiana: AuthorHouse.

Guskey, T. R. (2000). Evaluating professional development [La evaluación del desarrollo profesional]. Thousand Oaks, CA: Corwin.

Hardy, K.P., & Bower, B.L. (2004). Instructional and work life issues for distance learning faculty [Situaciones laborales e instruccionales de la facultad en línea].New Directions for Community Colleges, 128, 47-54.

Haupt, G., & Blignaut, S. (2008). Uncovering learning outcomes: Explicating obscurity in learning of aesthetics in design and technology education [Descubriendo los resultados del aprendizaje: Explicación de la oscuridad en el aprendizaje de la estética en el diseño y la tecnología educativa]. International Journal of Technology & Design Education, 18(4), 361-374.

Hawkes, M. (2000). Evaluating school-based distance education programs: Some thoughts about methods [La evaluación de los programas escolares a distancia: Algunos pensamientos acerca de los métodos]. Recuperado de http://www.ncrel.org/tandl/eval5.htm

Jameson, J. (2008). Application of Kirkpatrick’s four levels of evaluation in assessing nurses’: Learning outcomes of a literature search training intervention [La aplicación de los cuatro niveles de Kirkpatrick para la evaluación de enfermeras: Los resultados del aprendizaje de una búsqueda de literatura de intervenciones de capacitación]. Recuperado de http://midwestmla.org /conference2009/posters/ Jameson%20 CINAHLposterMidwestMLA5.pdf

Jason, M. H. (2008). Perspectives on program evaluation: Evaluating programs to increase student achievement [Perspectivas de la evaluación de programas: La evaluación de programas para aumentar el aprovechamiento de los estudiantes]. (2da ed., pp. 1-10). California: Corwin Press, Inc.

Jiménez, D. P. (2011). Manual de Recursos Humanos. (2da ed.). Madrid: ESIC Editorial.

Jiménez, L., & Barchino, R. (2010). Evaluación e implantación de un modelo de evaluación de acciones formativas. Recuperado de http://spdece.uah.es/papers/Jimenez_ Final.pdf

Jiménez Frías, R., Lancho Prudenciano, J., Sanz Bachiller, J.C., & Sanz Fernández, F. (2010). Educación de personas adultas marco del aprendizaje a lo largo de la vida. Madrid: Universidad Nacional de Educación a Distancia.

Johnson, S. D., Palmas-Rojas, N., Suriya, C., & Downey, S. (1999). Examination of critical issues for development and implementation of online instruction[Examiniación de situaciones críticas para el desarrollo e implementación de la instrucción en línea]. Recuperado de http://hre.ed.uiuc.edu/online/issues.pdf

Kang, H. (2011). Training online faculty: A phenomenology study [Capacitando la facultad en línea: Un estudio de la fenomenología]. Recuperado de http://krex.k-state.edu/dspace/bitstream/2097/13085/1/KangIJEL2012.pdf

Kirkpatrick, D. L. (2007). The four levels of evaluation: Tips, tools and intelligence for trainers [Los cuatro niveles de evaluación: Consejos, herramientas e inteligencia para capacitadores]. Wiskonsin: American Society for Training and Development.

Kirkpatrick, D. L., & Kirkpatrick, J. D. (2006). Evaluating training programs: The four levels [Evaluando programas de capacitación: Los cuatro niveles]. California: Berrett-Koehler Publishers, Inc.

Kirkpatrick, D. L., & Kirkpatrick, J. D. (2007a). Evaluaciones de acciones formativas: Los cuatro niveles. España: Gestión 2000.

Kirkpatrick, D. L., & Kirkpatrick, J. D. (2007b). Implementing the four levels: A practical guide for effective evaluation of training programs [Implantando los cuatro niveles: Una guía práctica para la evaluación efectiva de programas de capacitación]. California: Berrett-Koehler Publishers.

Lazzati, S. (2008). El cambio del comportamiento en el trabajo. México: Ediciones Granica, S. A.

Lee, J. (2001). Instructional support for distance education and faculty motivation, commitment, satisfaction [Apoyo instruccional para la educación a distancia y la motivación, compromiso y satisfacción de la facultad]. British Journal of Educational Technology, 32, 153-160.

Lockee, B., Moore, M., & Burton, J. (2002). Measuring success: Evaluation strategies for distance education [Midiendo el éxito: estrategias de evaluación para la educación a distancia]. Recuperado de http://net.educause.edu/ir/library /pdf/ eqm0213.pdf

López Camps, J. (2005). Planificar la formación con calidad. Madrid: Colección Gestión de Calidad.

Madison, S. (2005). Encyclopedia of Evaluation [Enciclopedia de Evaluación]. California: Sage Publications, Inc.

McGee-Swope, K. (2010). An evaluation of a training program to prepare faculty for online instruction [La evaluación de un programa de formación para la preparación de facultad que enseña en línea]. (Tesis Doctoral). Recuperado de http://search.proquest.com/docview/815621206

McLean, S., & Moss, G. (2003). They’re happy, but did they make a difference?: Applying Kirkpatrick’s framework to the evaluation of a national leadership program[Están felices, pero ¿realmente hacen una diferencia?: aplicando el marco de evaluación de Kirkpatrick para la evaluación de un programa de liderazgo nacional]. Recuperado de http://conted.ucalgary.ca/resources/pdf /CJPE_2003.pdf

Mokate, K. (2003). Convirtiendo el ‘monstruo’ en aliado: La evaluación como herramienta de la gerencia social. Washington DC: Banco Interamericano de Desarrollo.

Monroe, K. N. (2005). An action-based implementation and evaluation of an online system of professional development for part-time faculty at Ivy Tech Community College of Indiana Region 9 [Una acción basada en la implantación y evaluación de un sistema en línea para el desarrollo profesional de facultad a tiempo parcial de la Región 9 de Ivy Tech Community College of Indiana]. (Tesis doctoral). Recuperado de base de datos de ProQuest.

Montero Rojas, E. (2004). Marco conceptual para la evaluación de programas de salud. Recuperado de http://ccp.ucr.ac.cr/reVISTA/volumenes/1/1-2/1-2-6/1-2-6.pdf

Moore, M. (2007). Handbook of distance education [Manual de educación a distancia]. (2da ed.). New Jersey: Erlbaum.

Moore, M. G., & Kearsley, G. (2005). Distance education: A systems view [Educación a distancia: Una visión sistemática]. (2da ed.) California: Wadsworth Publishing.

Mosley, A. L. (2007). An evaluation of a training program to prepare community college faculty for online teaching [La evaluación de un programa de capacitación para preparar la facultad de un colegio universitario para la instrucción en línea]. (Tesis Doctoral). Recuperado de ERIC base de datos (UMI 3427865).

Mosley, J. L., & Dessinger, J. C. (2010). Handbook of improving performance in the workplace: Measurement and evaluation [Manual para mejorar el rendimiento en el trabajo: Medición y evaluación]. California: International Society for Performance Improvement.

Muchinsky, P. M. (2002). Psicología Aplicada al Trabajo: Una Introducción a la Psicología Industrial y Organizacional. México: Desclee de Brouwer.

Muñoz, P., & González, M. (2010). Análisis del grado de formación del profesorado de la universidad de A Coruña en el área de programación y bases de datos bajo sistemas de e-learning. Revista de Medios y Educación, 36, 101-114. Recuperado de http://www.sav.us.es/pixelbit/pixelbit/articulos/n36/8.pdf.

Naugle, K. A., Naugle, L. B., & Naugle, R. J. (2000). Kirkpatrick’s evaluation model as a means of evaluating teacher performance [El modelo de evaluación de Kirkpatrick como un medio de evaluar el desempeño docente]. Education, 121 (1), 135-144.

Nickols, F. (2010). Leveraging the Kirkpatrick Model: Validoation vs Evaluation [Aprovechando el modelo de Kirkpatrick: Validación versus evaluación]. Recuperado de http://www.nickols.us/LeveragingKirkpatrick.pdf

Palacios Plaza, J. (2008). Medición del impacto y la rentabilidad de la formación: Cómo llegar al ROI de la formación. España: Ediciones Díaz de Santos.

Patricio Jiménez, D. (2011). Manual de Recursos Humanos (2da ed.). España: ESIC Editorial.

Pérez, A. (2007). La evaluación en un entorno virtual. Recuperado de http://www.saber.ula.ve/bitstream/123456789/27718/1/articulo4.pdf

Praslova, L. (2010). Adaptation of Kirkpatrick’s four level model of training criteria to assessment of learning outcomes and program evaluation in Higher Education[La adaptación de los cuatro niveles del modelo de Kirkpatrick a los criterios de formación para valorar los resultados del aprendizaje y evaluar un programa en educación superior]. Recuperado de la base de datos de ProQuest (doi: 10.1007/s11092-010-9098-7).

Rallis, S. F., & Rossman, G. B. (2000). Dialogue for learning: Evaluator as critical friend [Diálogo para el aprendizaje: Evaluador como un amigo crítico]. San Francisco: Jossey-Bass.

Real Academia Española (2012). Diccionario de la lengua española. (22da ed). Recuperado de http://lema.rae.es/drae/

Reza Trosino, J. C. (2007). Evaluación de la capacitación en las organizaciones. México: Panorama Editorial.

Rich, R. (2011). A Framework for synchronous web-based professional development: measuring the impact of webinar instruction [Un marco para el desarrollo profesional basado en la web sincrónica: La medición del impacto de la instrucción en línea]. (Tesis doctoral). Recuperada de la base de datos de ProQuest. (UMI 3455220).

Rivas Borja, G. A. (2008). El a, b, c y…d del entrenamiento en los adultos. Libro en Red.

Rodríguez, J. (2005). El modelo de Kirkpatrick para la evaluación de la formación. Recuperado de http://www.uhu.es/yolanda.pelayo/docencia/Virtualizacion/2-contenidos/parte%204/MODELO%20DE%20KIRCKPATRICK.pdf

Royse, D., Thyer, B., & Padgett, D. (2009). Program evaluation: An introduction [Evaluación de programas: Una introducción]. (5ta ed). Wadsworth: Cengage Learning.

Rubio, M. A. (2003). Enfoques y modelos de evaluación del e-learning. Revista Electrónica de Investigación y Evaluación Educativa, 9(2), 101-120. Recuperado de http://redalyc.uaemex.mx/pdf/916/91609201.pdf

Ruiz, C. (2007). Evaluación de la formación: formación de formadores. Madrid: Thomson Editores.

Ruiz Gutiérrez, M. (2011). La evaluación de la capacitación como proceso de aprendizaje en el marco del e-learning. Recuperado de http://www.itmadrid.com/blog/la-evaluacion-de-la-capacitacion-como-proceso-de-aprendizaje-en-el-marco-del-e-learning/

Ruiz Olabuénaga, J. I. (2012). Teoría y práctica de la investigación cualitativa. España: Publicaciones de la Universidad de Deusto.

Russ-Eft, D., & Preskill, H. (2005). In Search of the Holy Grail: Return on investment evaluation in human resources development [En búsqueda del Santo Grial: retorno de la inversión evaluación en el desarrollo de recursos humanos]. Advances in Developing Human Resources, 7(1), 71-88.

Safar, A. H. (2012). The Students’ Perspectives of Online Training at Kuwait University [La percepción de los estudiantes de la Universidad de Kuwait sobre la capacitación en línea]. College Student Journal, 46(2), 436-458.

Salanova, M., Grau, R., & Peiró, J. M. (2001). Nuevas tecnologías y formación continua en la empresa: un estudio psicosocial. España: Publicaciones Universitat Jaume I.

Sears, K. E., Cohen, J. E., & Drope, J. (2008). Comprehensive Evaluation of an Online Tobacco Control Continuing Education Course in Canada [Evaluación integral de un curso de educación continua en línea para el control de tabaco en Canadá]. Journal Of Continuing Education In The Health Professions, 28(4), 235-240.

Serrano, J. M., Moreno T., Pons, R. M., & Lara, R. S. (2008). Evaluación de programas de formación de profesores en métodos de aprendizaje cooperativo, basada en análisis de ecuaciones estructurales. Revista Electrónica de Investigación Educativa, 10(2). Recuperado de http://redie.uabc.mx/vol10no2 /contenido-serranomoreno.html

Silcedo Aguilar, A. (2006). Capacitación y desarrollo del personal. México: Grupo Noriegas Editores

Sloan Consortium (2011). Going the Distance: Online Education in the United States, 2011 [Trasladándonos a Distancia: la educación en línea en los Estados Unidos 2011]. Recuperado de http://www.onlinelearningsurvey.com/reports /goingthedistance.pdf

Souto Moure, A., & Alonso Doval, R. (2009). Formador de Teleformadores: claves para diseñar, elaborar y aplicar un programa de e-learning con éxito. España: Ideaspropias Editorial.

Steensma, H., & Groeneveld, K. (2010). Evaluating a training using the “four levels model” [Evaluando la capacitación utilizando el modelo de cuatro niveles]. Recuperado de la base de datos ProQuest (doi: 10.1108/13665621011053226).

Steinert, Y. (2000). Faculty development in the new millennium: Key challenges and future directions [La capacitación de la facultad en el nuevo milenio: desafíos claves y las direcciones futuros]. Medical Teacher, 22 (1), 44-50.

Stufflebeam, D. L., & Shinkfield, A. J. (2007). Evaluation, theory, models, & applications [Evaluación, teoría, modelos y aplicación]. San Francisco, CA: Jossey-Bass.

Tennill, M. M. (2011). Five year follow-up evaluation of a faculty development program: a qualitative study [La evaluación de un programa de formación del profesorado en cinco años de seguimiento: un estudio cualitativo] (Tesis Doctoral). Recuperado de la base de datos ProQuest. (UMI: 3505025).

Thompson, M. M. (2004). Engagement or “encagement”? Faculty workload in the online environment [¿Compromiso o “enjaulamiento”? Sobrecarga de trabajo para la facultad en entornos en línea]. Recuperado de http://www.wisc.edu /depd/series/ thompson.pdf

Urdaneta, M., Aguirre, R., & Guanipa, M. (2010). Perfil de competencias del docente como tutor en línea para la educación a distancia. Recuperado de http://servicio.cid.uc.edu.ve/educacion/eduweb/vol2n2/art6.pdf

Van Slyke, C., Kittner, M., & Belanger, F. (1998). Identifying Candidates for Distance education: A telecommuting perspective [Identificando candidatos para la educación a distancia: una perspectiva de teletrabajo]. Proceedings of the America’s Conference on In-formation Systems, pp. 666-668.

Vera, L. (2005). Assessment [avalúo] medición y evaluación del aprendizaje (4ta ed.). Puerto Rico: Publicaciones Puertorriqueñas.

Verduin, J. R., & Clark, T. A. (1991). Distance education: The foundations of effective practice [Educación a distancia: los fundamentos de prácticas efectivas]. California: Jossey-Bass.

Volery T., & Lord, D. (2000). Critical success factors in online education [Factores críticos de éxito en la educación a distancia]. International Journal of Education Management, 14(5), 216-223. Recuperado de la base datos Emerald. (doi: 10.1108/09513540010344731).

Worthen, R. D., Sanders, J. R., & Fitzpatrick, J. L. (1997). Program evaluation: Alternative approaches and practical guidelines [Evaluación de programas: aproximaciones alternas y guías prácticas] (2da ed.). New York: Longman.

Yang Y., & Cornelius L. F. (2005). Preparing instructors for quality online instruction [Preparando instructores para instrucción en línea de calidad]. Online Journal of Distance Learning Administration, 8(1). Recuperado de http://www.westga.edu/ ~distance/ojdla/spring81/yang81.htm

Zinovieff, M. A. (2008). Review and analysis of training impact evaluation methods, and proposed measures to support a United Nations System Fellowships Evaluation Framework [Revisión y análisis del impacto de los métodos de evaluación de la capacitación y los marcos propuestos para apoyar el Marco de Sistema de Becas de las Naciones Unidas]. Recuperado de http://esa.un.org /techcoop /fellowships/SFOMeeting/ParticipantArea/ BackgroundDocuments /6_REVIEW%20report%20FINAL%20.pdf

 

Trackback from your site.

Leave a comment