MIME-Version: 1.0 Content-Type: multipart/related; boundary="----=_NextPart_01D6E5B8.C4573100" Este documento es una página web de un solo archivo, también conocido como archivo de almacenamiento web. Si está viendo este mensaje, su explorador o editor no admite archivos de almacenamiento web. Descargue un explorador que admita este tipo de archivos, como Windows® Internet Explorer®. ------=_NextPart_01D6E5B8.C4573100 Content-Location: file:///C:/24F3CDD5/04okMarianaLeonQLU.htm Content-Transfer-Encoding: quoted-printable Content-Type: text/html; charset="us-ascii"

1,10, *, Aura López de R= amos3,10, Sebastián Reyes4,105,10 6, 107,108,109,10

(1) Quality Leadership University (QLU)

(2)<= span lang=3DES style=3D'font-size:12.0pt;mso-bidi-font-size:11.0pt;font-family:"= Garamond",serif; mso-ansi-language:ES'> Universidad Internacional de Ciencia y Tecnolog&iacu= te;a (UNICyT)

(3)<= span lang=3DES style=3D'font-size:12.0pt;mso-bidi-font-size:11.0pt;font-family:"= Garamond",serif; mso-ansi-language:ES'> ISAE Universidad

(4)<= span lang=3DES style=3D'font-size:12.0pt;mso-bidi-font-size:11.0pt;font-family:"= Garamond",serif; mso-ansi-language:ES'> Universidad Santander

(5)<= span lang=3DES style=3D'font-size:12.0pt;mso-bidi-font-size:11.0pt;font-family:"= Garamond",serif; mso-ansi-language:ES'> Universidad Tecnológica OTEIMA (UTO)

(6) Universidad del Istmo (UDI)

(7) Universidad Cristiana de Panamá (UCP)

8) Universidad Metropolitana de Educación Cie= ncia y Tecnología (UMECIT)

(9) Universidad Euroamericana (UEA)=

(10) Red de Investigación de la Asociació= ;n de Universidades Particulares de Panamá (REDIA)

 =

 

*Autor para correspondencia. E-mail: = mariana.leon@qlu.pa

=  

    Recibido: 19 de octubr= e de 2020 

Aceptado: 15 de noviembre de 2020

_________________= _____________________________________________________________

Resumen

Luego que el Gobierno panameño decretara la cuarentena absoluta y obligatoria para reducir la propagación del vi= rus COVID-19, las universidades panameñas tuvieron que migrar todos sus programas académicos a la modalidad virtual, utilizando plataformas = para facilitar el proceso de enseñanza-aprendizaje.  La investigación tuvo como objetivo identificar las diferentes plataformas de aprendizaje que usan las universidades en Panamá, así como evaluar éstas tomand= o en cuenta los indicadores de calidad desarrollados por Berrocal y Megías (2015) agrupados en los siguientes aspectos: diseño, herramientas de comunicación y aspectos académicos. Se adaptó y validó por expertos el instrumento de recolección de datos, q= ue fue autoadministrado a través de la herramienta Google Forms. La muestra de estudio estuvo constituida por profesores universitarios que han utilizado plataformas de aprendizaje virt= ual. El total de muestras válidas (n =3D 460) identificó las sigui= entes plataformas: Moodle (23%), Educativa (16%), Google Classroom (15%), Microso= ft Teams (14%), Canvas (14%), Chamilo (13%) y Schoology (5%). La media de evaluación de las plataformas virtuales fue de 4.41 en una escala Li= kert de 5 puntos. Se encontraron diferencias significativas en las medias de eva= luación y las 7 plataformas virtuales de principal uso en educación superior. Adicionalmente, se encontró una correlación positiva entre la media de evaluación de las plataformas virtuales y el tiempo de uso = y el nivel de dominio de las mismas. Se observaron diferencias entre las medias = de evaluación por aspectos, con una tendencia de evaluación mayor para herramientas disponibles y evaluación menor para aspectos académicos. No se encontraron diferencias en las medias de evaluación y el sexo del participante, con una media casi idéntica entre hombres y mujeres.

Palabras clave: plataforma virtual, educación superior, COVID= -19, evaluación, Panamá. 

 

 

Abstract

After the Panamanian government decreed complete and mandatory quarantine to redu= ce the spread of the COVID-19 virus, universities in Panamá had to migr= ate their academic programs to a virtual format, using platforms to facilitate = the learning process. The objective of this study was to identify the different learning platforms used by universities in Panamá, and to evaluate t= hese platforms taking into account the quality indicators developed by Berrocal = and Megías (2015), that are grouped into the following aspects: design, tools, and academic aspects. The data collection instrument was adapted and validated by experts and then self-administered through Google Forms. The s= tudy sample were university faculty that had previously used virtual learning platforms. The total valid sample (n =3D 460) identified the following plat= forms: Moodle (23%), Educativa (16%), Google Classroom (15%), Microsoft Teams (14%= ), Canvas (14%), Chamilo (13%), and Schoology (5%). The evaluation mean of the virtual platforms was 4.41 in a 5-point Lickert scale. Significant differen= ces were found among the evaluation means and the 7 main virtual platforms being used in higher education. We also found a positive correlation between the evaluation means, time of use, and level of expertise of these platforms. Differences between the evaluation means by aspects were observed, with a tendency of greater evaluation for available tools, and a lower evaluation = for academic aspects. No differences were found in the evaluation means and participant sex, with an almost identical mean between men and women.<= /o:p>

Keywords: virtual platform, higher education, COVID-19, evaluation, Panamá.

 

 

1.   Introducción

Desde marzo de 2020, millones de estudiantes y profesores se han vis= to afectados por la suspensión de clases en todo el mundo. Muchas instituciones educativas decidieron continuar con su período académico y tuvieron que adoptar estrategias de acceso remoto y virtualización para no detener los procesos de formación de s= us estudiantes.

En Panamá la situación no fue diferente. Luego que el Gobierno panameño decretara la cuarentena absoluta y obligatoria para reducir la propagación del virus COVID-19, las universidades panameñas tuvieron que migrar toda su oferta académica a la modalidad virtual. Algunas universidades ofrecían carreras y program= as solamente en la modalidad presencial, mientras que otras, ya venían usando la semipresencial y la virtual.

Para la virtualización del proceso educativo es indispensable contar con plataformas digitales y equipo técnico necesario para su correcto funcionamiento. Según el Observatorio de Innovación Educativo del Tecnológico de Monterrey, es importante que las instituciones educativas adquieran y/o actualicen sus plataformas de enseñanza virtual para que puedan responder eficazmente en caso de u= na crisis, tal y como lo ha sido la del COVID-19 (Delgado, 2020).

Aunque para que se lleve a cabo el aprendizaje en la modalidad virtu= al se requiere de una plataforma tecnológica, también es importa= nte resaltar que el profesorado tiene un importante rol, tal y como lo afirma Bautista (2011); ya que una de las funciones de los docentes es la de “diseñar las actividades y espacios en los que éstas de= ben desarrollarse” (p.53). También es importante el rol asesor que tienen los profesores para motivar y estimular a los estudiantes en el proc= eso de educación virtual (Manrique Maldonado & Sánchez-L&oacu= te;pez, 2019).

Según UNESCO (IESALC, 2020) las principales dificultades de l= os estudiantes de educación superior durante la pandemia son la conexión a internet, el mantenimiento de un horario regular y las preocupaciones económicas. Este contexto permite entender la situación actual del estudiante, pues en el diseño de las sesiones de clases se debe garantizar el desarrollo de los procesos educati= vos a todos los estudiantes, a través de la flexibilidad curricular, la combinación de actividades síncronas y asíncronas, así como digitales y análogas. Para llevar a cabo estas actividades es imprescindible el uso de plataformas de aprendizaje como med= io para el desarrollo de los procesos de enseñanza-aprendizaje.

Este trabajo de investigación tuvo como objetivo identificar = las diferentes plataformas de aprendizaje que usan las universidades particular= es en Panamá, así como evaluar éstas, tomando en cuenta l= os indicadores de calidad desarrollados por Berrocal & Megías (2015) agrupados en los siguientes bloques: diseño, herramientas de comunicación y aspectos académicos.

 

Las hipótesis = que se exploraron en este estudio fueron las siguientes:<= /p>

Hipótesis 1: No hay diferencias significativas entre las medias de evaluación y l= as diferentes plataformas virtuales.

En el contexto universitario en Panamá, hay una diversidad de plataformas virtuales que están siendo utilizadas en las institucion= es de educación superior. Esta hipótesis pretende explorar si existen diferencias significativas por plataforma según las evaluaci= ones de los participantes. En cierta medida, esta información ayudar&aacu= te; a establecer la calidad o preferencia de algunas plataformas por encima de otras.

Hipótesis 2: No hay diferencias significativas en las medias de evaluación y los = tres aspectos de evaluación de las plataformas virtuales (aspectos de diseño, herramientas disponibles, aspectos académicos). =

Berrocal y Megías (2015) proponen= tres aspectos principales que inciden en la calidad de una plataforma virtual, p= or lo que se agrupan los ítems pertenecientes a cada aspecto, para tene= r un mejor entendimiento del desempeño de cada plataforma por aspecto.

Hipótesis 3: No hay diferencias significativas en las medias de evaluación y el s= exo del participante.

Se busca entender si existen diferencias en la evaluación que otorga el participante, dependiendo de su sexo. De existir estas diferencia= s, tomadores de decisión de educación superior y tecnologí= ;as de aprendizaje, deben establecer apoyos dirigidos a la población que así lo requiera.

Hipótesis 4: No hay diferencias significativas entre la media de evaluación del docente y la cantidad de tiempo que lleva usando la plataforma.

Hipótesis 5: No hay diferencias significativas entre la media= de evaluación del docente y el nivel de dominio que tiene de la platafo= rma.

 

2.   Antecedentes

En la educación virtual es indispensable disponer de un espac= io donde estudiantes y profesores puedan compartir contenidos, hacer consultas para aclarar dudas, intercambiar experiencias y hacer evaluaciones entre ot= ros. Estos espacios permiten usualmente intercambios asíncronos y son denominadas aulas virtuales (AV). En la literatura especializada se encuent= ran descritas muchas experiencias de diseño de estas aulas; tal es el ca= so del trabajo de González-Hernández (2019) quien reporta una experiencia en el diseño de una AV para aumentar el grado de satisfacción en el aprendizaje de las matemáticas en estudian= tes del tercer grado en la Institución Educativa Neira (Colombia). La investigadora afirma que el AV diseñada “mejoró la percepción y aumentó el grado de satisfacción frente al estudio de las matemáticas” (González-Hernández, 2019, p. 211).

En la literatura especializada se encuentran estudios puntuales para evaluar plataformas virtuales específicas. Tal es el caso de la inve= stigación realizada por Guel et al. (2016) para la plataforma Blackboar= d que usa el Tecnológico de Monterrey para impartir los cursos de maestría en línea. Ellos usaron seis (6) indicadores para eva= luar la usabilidad, metodología, calidad y organización del conten= ido, capacidad de motivación e interacción de aulas virtuales del primer año de programas de maestría. Diseñaron un cuestionario con el objeto de conocer las impresiones y nivel de satisfacción de = los estudiantes. Los investigadores aseguran que los principales hallazgos en la investigación fueron que los alumnos consideran muy importante, al momento de cursar una maestría en línea, la metodología usada por el docente, la relevancia práctica del curso y la motivación y de menor importancia a la facilidad de uso de la plataf= orma de aprendizaje.

Estrada & Boude (2015) diseña= ron un instrumento para evaluar un ambiente virtual de aprendizaje (AVA) para la Maestría en Informática Educativa de la Universidad de La Sab= ana en Colombia. Los autores usaron siete (7) criterios que incluyeron aspectos pedagógicos y tecnológicos, tales como objetivos de ense&ntil= de;anza y competencias para el siglo XXI, enfoque pedagógico, actores y comunicación, estrategia y contenidos, actividades estratégic= as y evaluación, integración de las TIC y calidad y pertinencia. C= ada criterio tenía cinco (5) parámetros dando un total de 35 items.

Un estudio previo (Fernández-Pascual et al, 2013) tuvo como objetivos “evaluar el grado de satisfacción de la formaci&oacu= te;n recibida en un entorno virtual y analizar su capacidad predictiva sobre la satisfacción” (p. 167). Para ello utilizaron el cuestionario <= span class=3DSpellE>Distance Education Learning Enviroment Survey (Sp-DELES). Las dimensiones que incluye el referido cuestionario son: apoyo al profesorado, interacción y colaboración entre estudiantes, relevancia personal, aprendizaje real, aprendizaje activo y autonomía (Falta ci= ta directa de DELES). Una de las conclusiones de este estudio fue que la mayor parte de los estudiantes encuestados se sienten notablemente satisfechos co= n la metodología de enseñanza aprendizaje.

Navarro Rodríguez et = al. (2018) propusieron rúbricas para evaluar ambientes virtuales de aprendizaje (AVA). Su objetivo era lograr una evaluación integral ba= sada en las variables satisfacción de los usuarios y la calidad del ambie= nte virtual.

Hay pocos estudios actuales que evalúen propiamente a las plataformas de aprendizaje per se. Uno de ellos es el realizado por Berrocal & Megías (2015). La estructura del cuestionario propuesto por Berrocal & Megía= s (2015) es la mostrada en la Tabla 1. Los autores recomiendan el uso de una escala de Likert.

Tabla 1: Bloques e ítems del cuestionario propuesto por Berrocal & Megías (2015).

Bloque=

Items

Diseño<= /p>

•<= span style=3D'font:7.0pt "Times New Roman"'>     &nbs= p;  Menús y botones de navegación accesibles.

•<= span style=3D'font:7.0pt "Times New Roman"'>     &nbs= p;  Notificaciones de sucesos y eve= ntos desde la última conexión.

•<= span style=3D'font:7.0pt "Times New Roman"'>     &nbs= p;  Múltiples opciones de personalización de los menús, el escritorio, agenda...etc. =

        Herramienta flexib= le.

        Facilidad de uso.

        Ayuda para el uso.

•<= span style=3D'font:7.0pt "Times New Roman"'>     &nbs= p;  Tasas de abandono y visitas por parte del alumnado de mi/s asignatura/s

•<= span style=3D'font:7.0pt "Times New Roman"'>     &nbs= p;  Visitas del alumnado con búsquedas para consultar material y documentación de la plataforma

•<= span style=3D'font:7.0pt "Times New Roman"'>     &nbs= p;  Facilita la navegación mediante pestañas.

Herramientas

= •<= span style=3D'font:7.0pt "Times New Roman"'>     &nbs= p;  Herramientas de comunicaci&oacu= te;n síncronas (foros de debate, pizarra y chats)

= •<= span style=3D'font:7.0pt "Times New Roman"'>     &nbs= p;  Herramientas de comunicaci&oacu= te;n asíncronas (correo y mensaje internos, charlas).

= •<= span style=3D'font:7.0pt "Times New Roman"'>     &nbs= p;  Existe aplicación de la plataforma (app)

= •<= span style=3D'font:7.0pt "Times New Roman"'>     &nbs= p;  Los recursos multimedia facilit= an el aprendizaje y el estudio

        La calidad de los recursos multimedia es adecuada

Aspectos académicos

        Difusión de materiales de estudio

•<= span style=3D'font:7.0pt "Times New Roman"'>     &nbs= p;  Creación de espacios de trabajo compartidos

        Tutorizació= ;n:<= /o:p>

o   La comunicación con el alumnado

o<= span style=3D'font:7.0pt "Times New Roman"'>   = La multidisciplinariedad, es decir, la conexi&oa= cute;n con compañeros de asignatura o departamento relacionados con el alumnado

o<= span style=3D'font:7.0pt "Times New Roman"'>   = Visitas del alumnado con realización de actividades

o<= span style=3D'font:7.0pt "Times New Roman"'>   = Tasas de abandono y visitas por parte del alumnado de mi/s asignatura/s

o<= span style=3D'font:7.0pt "Times New Roman"'>   = Visitas del alumnado con búsquedas para consultar material y documentación de la plataforma&nb= sp;

        Evaluación= :<= /o:p>

o<= span style=3D'font:7.0pt "Times New Roman"'>   = La plataforma permite evaluar los trabajos entregados por el alumnado <= /o:p>

o<= span style=3D'font:7.0pt "Times New Roman"'>   = La plataforma me permite publicar las calificaciones de las actividades del = alumnado

o<= span style=3D'font:7.0pt "Times New Roman"'>   = La plataforma facilita la entrega de calificaciones

•<= span style=3D'font:7.0pt "Times New Roman"'>     &nbs= p;  Modalidad de enseñanza: = b-learning o e-learning:<= o:p>

o<= span style=3D'font:7.0pt "Times New Roman"'>   = En el desarrollo del curso, la plataforma me permite proponer tanto activida= des online como presenciales

o<= span style=3D'font:7.0pt "Times New Roman"'>   = La plataforma se usa como una herramienta de aprendizaje a distancia: solo h= ay actividades y trabajos autónomos desde casa

o<= span style=3D'font:7.0pt "Times New Roman"'>   = Las actividades y documentos de la plataforma son un con complemento del trab= ajo que se hace en clase presencial

•<= span style=3D'font:7.0pt "Times New Roman"'>     &nbs= p;  Asignaturas (crear y editar material de estudio para compartir):

o<= span style=3D'font:7.0pt "Times New Roman"'>   = Facilita el diseño de materiales de estudio para ser utilizados en las asignaturas

Fuente: Berrocal & Megías (20= 15).

 

Contexto de la Educación Superior en Panamá

Según Gómez et al. (2019) en Panamá existen 5 universidades oficiales y 31 universidades particulares con planes de estud= ios aprobados por la Comisión Técnica de Desarrollo Académ= ico (CTDA). Adicionalmente, operan 6 universidades establecidas en la Ciudad del Saber que funcionan bajo un Decreto de Ley Especial (Ley 6 de 10 de febrero= de 1998).

En Panamá, con la Ley 30 de 20 de julio de 2006, se cre&oacut= e; el Sistema Nacional de Evaluación y Acreditación para el Mejoramiento de la Calidad de la Educación Superior Universitaria y = dos organismos con funciones para la acreditación de instituciones de educación superior: el Consejo Nacional de Evaluación y Acreditación Universitaria de Panamá (CONEAUPA) y la antigua Comisión Técnica de Fiscalización (CTF), hoy Comisión Técnica de Desarrollo Académico (CTDA). Actualmente, la Ley 52 es la que regula todos los procesos de acreditación institucional y de carreras que son obligatorios para t= odas las universidades que operan en territorio panameño.

Plataformas educativa= s en Panamá

El instrumento permitió la identificación de un total = de 11 plataformas utilizadas por docentes que laboran en instituciones de educación superior en Panamá: Blackboard= , Canvas, Chamilo, Go= ogle Classroom, Cloud Campus Pro, Edm= odo, Educativa, Microsoft Teams, Moodle, Renweb y Schoology. Las plataformas de Blackboard, Cloud Campus Pro, Edmodo y Renweb, recibier= on menos de 6 evaluaciones cada una, por lo que no fue posible incluirlas en el estu= dio. A continuación se presenta una descripción breve de las plataformas que fueron evaluadas, las cuales formaron parte del análisis y discusión del presente estudio.=

Canvas: Plataforma LMS open source que opera bajo la licencia AGPLv3 desarrollada por instructure en 2011.

Chamilo: Plataforma LMS= para e-learning libre, licenciada bajo la GNU/GPLv3.=

Google Classroom: Plataforma LMS cread= a por Google e= n 2014 especialmente para ser usada en el mundo educativo.

E ducativa: Plataforma e-learning para dictar cursos y gest= ionar material educativo. Su desarrollo está basado en el concepto de colaboración.

Microsoft Teams: Plataforma unificada de comunicac= ión y colaboración que puede ser usada para fines educativos.=

Moodle: Plataforma LMS para la gestión de aprendizaje, de distribución libre, escrita en PHP.

Schoology: Plataforma LMS= de uso gratuito o a través de licenciamiento pagado por instituci&oacut= e;n, diseñado para instituciones educativas.

 

3.   Materiales y métodos<= o:p>

 

El estudio se realizó bajo el enfoque cuantitativo, el tipo de investigación descriptivo, con diseño transversal, no experimental. Se desarrolló en tres fases: adaptación de las encuestas, evaluación de la validez y confiabilidad y la fase de envío y recogida del instrumento. El uso de la encuesta como técnica de recolección de datos, permitió obtener descripciones numéricas de algunas tendencias, actitudes y opiniones= de la muestra (Creswell, 2013). Adicionalmente, el carácter descriptivo del estudio permiió= caracterizar el uso de plataformas virtuales en la educación superio= r en Panamá, además de ser útil para mostrar diferentes fac= etas o dimensiones y documentar información que confirme algunas suposici= ones sobre el tema de estudio (Hernández Sampieri y Mendoza, 2018).

 

 

Población y muestra

 

La población de estudio estuvo constituida por docentes universitarios = de Panamá. Los criterios de inclusión para poder participar del estudio fueron que el docente debía enseñar en Panamá,= y además haber utilizado al menos una plataforma de aprendizaje virtua= l en los 4 meses previos a la aplicación del instrumento.

 

En el 2017, la población de docentes universitarios estuvo compuesta po= r un total de 14.589 docentes, de los cuales 8.729 forman parte de las universid= ades oficiales (4.432 hombres y 4.297 mujeres) y 5.860 docentes afiliados a universidades particulares (3.120 hombres y 2.740 mujeres) (Instituto Nacio= nal de Estadística y Censo, 2017; Instituto de Investigación de AUPPA, 2019). Es importante resaltar que esta cifra no necesariamente refle= ja la realidad del total de docentes universitarios, ya que el conteo no toma = en cuenta profesores que enseñan en más de una universidad, crea= ndo la oportunidad para que existan registros duplicados de docentes en esta estadística.

 

A pesar de que la muestra total analizada (n =3D 460) no es representativa de= toda la población docente universitaria en Panamá, y los resultado= s de este estudio no son generalizables, sus resultados son novedosos y muestran= una descripción con criterios científicos sobre el contexto actua= l en el que se desenvuelve la educación universitaria virtual en Panamá.

 

 

 

 

 

Instrumento=

 

El instrumento utilizado en este estudio fue un cuestionario adaptado denomina= do “Indicadores de calidad para la evaluación de Plataformas Virtuales” desarrollado por Berrocal y Meg&iacut= e;as (2015). En este estudio, se operacionaliza el cuestionario en 5 dimensiones; tipos de plataforma, aspectos de diseñ= ;o, herramientas disponibles, aspectos académicos y grado de satisfacción, dividido en 23 indicadores y 32 ítems. Se emplea una escala de Likert de 5 puntos, siendo 1 el puntaje más bajo (totalmente en desacuerdo) y 5 el puntaje más alto (totalmente de acuerdo).

 

Algunas preguntas utilizaron otras escalas. Por ejemplo, se añadió un ítem de nivel de dominio que el docente consideraba que tenía sobre la plataforma, con 4 opciones: ninguno, poco, medio, bueno, alto. También se incluyó un ítem sobre tiempo de uso de la plataforma virtual con los siguientes rangos de opción: menos de 6 m= eses, entre 7 a 11 meses, entre 1 a 2 años, más de dos años. Estos ítems fueron clave para el análisis de las hipót= esis 4 y 5.

 

A pesar de que ya el instrumento contaba con una validación y pruebas previas de confiabilidad, se realizaron algunos cambios en el texto de los ítems para que el palabreo fuera más cónsono con los matices de la cultura de aplicación del estudio, logrando así contextualizarlo. Un panel de 10 expertos en educación superior y educación virtual llenaron un instrumento de validación que incluía verificación de la operacionaliz= ación de los ítems, así como campos para realizar sugerencias a cada ítem. Con base a las sugerencias de los pares, se realizaron algunos cambios al instrumento final.  En su estudio, Berrocal y Megías realizan dife= rentes pruebas para comprobar la validez y consistencia interna del instrumento, facilitando la replicabilidad del instrumento p= ara otros contextos. Estos investigadores obtuvieron un Alfa de Cronbach de .821. Adicionalmente, presentan resultados de análisis factorial = por ítem, resultando en índices mayores de .500 para cada í= ;tem evaluado.  <= /p>

 

El instrumento para la recolección de datos se basó en la siguie= nte tabla de operacionalización de variable:=

 

Tabla 2: Tabla de Operacionalización

 

DIMENSI= ONES

INDICAD= ORES

Tipos

Tipos de Plataformas

Nivel de dominio

Tiempo de uso

Aspecto= s de Diseño

Menús y botones de navegación

Opciones de personalización

Herramientas disponibles

Facilidad de uso

Facilidad de navegación

Aspectos académicos

Comunicación síncrona

Comunicación asíncrona

APP

Grado de satisfacción

Recursos multimedia

Fuente: Elaboración propia (2020)

 

 

Recolección de datos=

 

El instrumento fue auto-administrado de manera digital a través de Goog= le Forms y estuvo habilitado por un periodo de un mes, d= urante agosto del 2020. El instrumento fue divulgado a encargados de investigación de universidades panameñas oficiales y particulares, para que lo compartieran con la planta docente de sus institu= ciones. Fue también compartido a través de gremios universitarios com= o la Asociación de Universidades Particulares de Panamá y el Conse= jo de Rectores de Panamá. Asimismo, se realizó divulgació= n en redes sociales y de comunicación digital, tales como Facebook y Whatsapp.

 

Al instrumento digital le precedía un formulario de consentimiento informado digital, que cada participante debía leer y afirmar su consentimiento para poder pasar al llenado de la encuesta. Si el participan= te respondía que no daba su consentimiento a participar del estudio, la página emitía un mensaje de agradecimiento. Si el participante respondía que sí otorga consentimiento, la página llev= aba al participante directamente al instrumento. Al terminar el instrumento, se emitía un mensaje de agradecimiento automático.

 

Los investigadores decidieron no preguntar a los docentes la universidad de afiliación de cada participante y el participante únicamente debía marcar la plataforma virtual que estaba evaluando. Si el docen= te hubiera tenido la oportunidad de usar y conocer más de una plataforma virtual, éste tenía permitido llenar varios formularios evalu= ando diferentes plataformas.

 

Al formulario entraron 540 registros, que fueron depurados para eliminar regis= tros duplicados. También se eliminaron registros que evaluaban herramient= as de videoconferencias (por ejemplo Zoom, Meet, Jitsi y Webex), ya que no eran objeto de evaluación de este estudio, y que por algun= os participantes fueron confundidas como plataformas virtuales de aprendizaje. Para motivos de análisis también se excluyeron algunas plataformas que recibieron pocas respuestas (menos de 7 cada una), como Blackboard, Renweb y Clou= d Campus Pro. El número final de respuestas válidas fue de 460 para si= ete plataformas que recibieron suficientes respuestas y permitieron un análisis individual, adicional al global. Estas plataformas fueron: = Canvas, Chamilo, E-ducativa, Google Classroom, Microsoft Teams, Moodle y = Schoology.

 

Método de Análisis = de Datos

 

Para analizar los datos se usó Microsoft Excel y SPSS. Excel fue utilizado para la depuración inicial de los registros y para obtener estadísticas descriptivas. Algunas de las estadísticas descriptivas que se calcularon fueron cantidad de registros por plataforma, cantidad de registros por sexo y medias de evaluación por item por plataforma y por categoría.

 

SPSS fue utilizado para las estadísticas inferenciales que requerí= an las diferentes hipótesis planteadas al inicio del estudio. Adicionalmente, SPSS se utilizó para observar si la distribuci&oacut= e;n de la muestra era normal y si había homogeneidad de la varianza, a través de las pruebas Shapiro-Wilk y Levene, respectivamente. En el caso de que hubiese una distribución normal y homogeneidad de varianzas, se usaría el ANOVA unidireccional para las hipótesis 1, 4 y 5. En el caso de que = no hubiese una distribución normal, se emplearía la opción no- paramétrica, Kruskal Wallis H. La hipótesis 2 fue analizada mediante observación de datos descriptivos (medias) obtenidos a través de Excel. La hipótes= is 3 podría ser analizada mediante una prueba t de muestras independiente= s si cumplía con las suposiciones necesarias o una Mann Whitney U, en cas= o de ser necesaria una prueba no-paramétrica.

 

 

3.   Resultados=

 

Para la hipótesis 1, se realizó la prueba no paramétrica Kruskal-Wallis para reemplazar la ANOVA unidirecciona= l, debido a que la muestra falló dos asunciones clave para poder realiz= ar el ANOVA: distribución normal de la muestra y homogeneidad de varian= za. Se trató de arreglar la distribución, eliminando los 5 regist= ros con medias más altas y más bajas por plataformas, pero ambas pruebas seguían demostrando una distribución anormal y falta = de homogeneidad en la varianza.

 

Adicional a la Kruskal Wallis H también se realizó la prueba Dunn de comparaci&oacu= te;n de parejas para tener un mejor entendimiento de cuáles plataformas m= ostraban las diferencias más significativas entre sí. La tabla 3 muest= ra la media de evaluación y la cantidad de registros por plataforma. La plataforma de Moodle registró el número más alto de registros, y Schoology el número m&aacut= e;s bajo de registros. La plataforma con la media de evaluación má= ;s alta fue Canvas y la plataforma con la media de evaluación más baja fue Microsoft Teams<= /span>.

 

Tabla 3. Media de evaluación y número de registros por plataforma.

 

PLATAFO= RMA

MEDIA DE EVALUACIÓN

N&Uacut= e;MERO DE REGISTROS

CANVAS<= o:p>

4.50

65=

CHAMILO=

4.04

61=

E-DUCAT= IVA

4.36

76=

GOOGLE CLASSROOMS

4.01

68=

MICROSO= FT TEAMS

3.95

63=

MOODLE<= o:p>

4.31

104

SCHOOLO= GY

4.44

23=

Fuente: elaboración propia (2020)

 

 La prueba Krus= kal-Wallis H demostró que hay una diferencia estadísticamente significat= iva entre la media de evaluación de los docentes y las diferentes plataformas, χ2(2) =3D 61.966, p < 0.001. Por ende, se rechaza la hipótesis nula. La prueba Dunn de comparación de parejas demostró que las diferencias se encontraron entre Google Classrooms y cuatro plataformas, entre ellas Moodle, Educativa, Schoology y Can= vas. También se encontraron diferencias significativas entre Microsoft Teams y las mismas cuatro plataformas. Esto indica qu= e las dos plataformas que obtuvieron las evaluaciones más bajas mostraron diferencias significativas entre las 4 plataformas que salieron mejor evaluadas.

 

Para la hipótesis 2, se realizaron pruebas descriptivas para observar si había alguna diferencia en las medias de los tres aspectos por plataforma. La Tabla 4 muestra los resultados de la media de evaluaci&oacut= e;n por aspecto, agrupado por plataforma. Se encontró que en cada una de las plataformas, los aspectos académicos fue el menor evaluado en las 7 plataformas. También, herramientas disponibles fue= el aspecto con mayor puntaje en 6 de las 6 plataformas.

 

 

Tabla 4. Media de evaluación por aspecto, agrupado por plataforma.=

 

PLATAFORMA

ASPECTOS DE DISEÑO=

HERRAMIENTAS DISPONIBLES<= /span>

ASPECTOS ACADÉMICOS

CANVAS<= o:p>

4.54

4.54

4.31

CHAMILO=

4.16

4.21

3.94

E-DUCAT= IVA

4.40

4.47

4.19

GOOGLE CLASSROOMS

4.12

4.17

3.82

MICROSO= FT TEAMS

3.99

4.10

3.81

MOODLE<= o:p>

4.36

4.43

4.09

SCHOOLO= GY

4.48

4.39

4.27

Fuente: elaboración propia (2020)

 

 

Para probar la hipótesis 3, se realizó la prueba t de muestras independientes y la prueba de Levene de igualda= d de varianzas. La Tabla 5 muestra la media de evaluación por sexo, indic= ando una media casi identica entre hombres y mujeres= .

 

Tabla 5. Media de evaluación por sexo.

 

SEXO

MEDIA DE EVALUACIÓN

MASCULI= NO

4.2187<= o:p>

FEMENIN= O

4.22

Fuente: elaboración propia

 

 

La prueba Levene de igualdad de varianzas result&o= acute; en p =3D .652 lo cual demuestra que las varianzas entre las mujeres y los h= ombres en la muestra son similares. La prueba t de muestras independientes demostró que no hay diferencias significativas entre las medias de evaluación de plataformas (sin importar cuál es la plataforma= ) y el sexo del participante (t416.224 =3D -.022, p =3D .982).

 

Para la hipótesis 4, se aplicó la prueba no paramétrica Kruskal-Wallis para reemplazar la ANOVA unidirecciona= l, debido a que la muestra falló una asunción clave para poder realizar el ANOVA: distribución normal de la muestra. Se encontr&oac= ute; que los docentes que tenían menos de 6 meses utilizando la plataforma dieron una evaluación promedio de 4.04. Ni docentes que llevaban de = 7 a 11 meses, y entre 1 y 2 años dieron una evaluación de 4.17 y 4.16, respectivamente (ver Tabla 6). Los docentes que tenían m&aacut= e;s de 2 años de estar usando la plataforma dieron una evaluación promedio de 4.41.

 

 

 

 

 

 

 

Tabla 6. Media de evaluación por tiempo de uso de la plataforma.

 

 

TIEMPO = DE USO

MEDIA DE EVALUACIÓN

Menos d= e 6 meses

4.04

De 7 a = 11 meses

4.17

Entre 1= y 2 años

4.16

M&aacut= e;s de 2 años

4.41

Fuente: elaboración propia (2020)

 

La prueba Kruskal-Wallis H demostró que hay= una diferencia estadísticamente significativa entre la media de evaluación de los docentes y el tiempo de uso de plataforma, = χ2(2) =3D 38.745, p < 0.001.

 

Por último, para la hipótesis 5, se realizó la prueba no paramétrica Kruskal-Wallis para reemplaz= ar la ANOVA unidireccional, debido a que la muestra falló una asunci&oacut= e;n clave para poder realizar el ANOVA: distribución normal de la muestr= a.

 

Tabla 7. Media de evaluación por nivel de dominio de la plataforma.

 

 

NIVEL DE DOMINIO

MEDIA DE EVALUACIÓN

Bajo

3.68

Medio <= o:p>

3.8

Bueno

4.21

Alto

4.45

Fuente: Elaboración propia (2020)

 

La prueba Kruskal-Wallis H demostró que hay= una diferencia estadísticamente significativa entre la media de evaluación de los docentes y el tiempo de uso de plataforma, = χ2(2) =3D 88.573, p < 0.001.

 

4.   Discusión<= /span>

 

En los resultados indicamos que las dos plataformas que obtuvieron las evaluaciones más bajas fueron la Microsoft Team= s y Google Classroom, las cuales mostraron difere= ncias significativas entre las 4 plataformas que salieron mejor evaluadas: Chamilo, E-ducativa, Schoology y Canvas. En es= te resultado es importante tomar en cuenta otros factores que pueden influir e= n la relativa baja calificación otorgada a Teams y Classroom, entre ellas el hecho de que también fueron las plataformas en las que sus usuarios tienen menor tiempo de uso. = Teams y Classroom han sido herramientas que han cobrado relevancia durante la pandemia, mientras que plataformas como Chamilo, E-ducativa, Schoology y Canvas reportaron tiempos de uso mayores a un año, demostrando que estaban = en uso previo a la pandemia.

 

Las medias de evaluación por plataforma proveen una mirada importante ha= cia la calidad percibida que tienen éstas por parte de los docentes que = las utilizan a diario para impartir sus cursos en la modalidad virtual. La utilización de plataformas virtuales durante la pandemia ha sido esencial para que los docentes puedan realizar su labor y la importancia de= las mismas queda plasmada claramente en el resultado de la media de ítem= s, que buscan obtener una mirada a la actitud del docente frente al uso de las mismas. Por ejemplo, el ítem: “Considero que el uso de la plataforma mejora la calidad del aprendizaje virtual de las asignaturasR= 21;, obtuvo una media de evaluación de 4.42, y estuvo entre los ít= ems individuales con mayor evaluación. Este ejemplo plasma que existe una aceptación y actitud positiva a trabajar con plataformas virtuales. =

 

Hubo dos ítems relacionados que obtuvieron altas evaluaciones: “La plataforma permite evaluar los trabajos entregados por los estudiantes̶= 1;, y “La plataforma permite publicar las calificaciones de las actividad= es de los estudiantes”, con promedios de 4.51 y 4.45, respectivamente. E= stas altas calificaciones reflejan el buen desempeño de las 7 plataformas virtuales expuestas en este estudio hacia estos aspectos esenciales y también refleja lo importante que es para el docente, tener mecanism= os adecuados para evaluar a su estudiante y otorgarle una calificación.=

 

Es importante también discutir algunos ítems que obtuvieron baja evaluación. El ítem: “La plataforma facilita de alguna manera su uso a las personas con discapacidad”, fue el menor evaluado, con una media de 3.25. La pandemia ha dejado en evidencia que cuando toda la población universitaria panameña debe tomar sus asignaturas en una modalidad virtual, las plataformas virtuales que están siendo utilizadas, no están integrando adecuadamente estrategias de inclusividad que faciliten su uso a estudiantes con discapacidad. Este tema impone un reto no solamente a las plataformas virtu= ales que deben integrar elementos de inclusividad, s= i no a las universidades y al docente, que debe atender al estudiante con discapac= idad y dedicar esfuerzos para transformar su contenido académico hacia formatos adecuados para estudiantes no videntes, con discapacidad auditiva e inclusive estudiantes con trastornos de aprendizaje, entre otros.

 

Otro ítem que vale la pena discutir expone: “Dentro de la plataforma existe un enlace para emitir mis sugerencias o incidencias a la figura que = sea pertinente, si tengo algún problema, de forma rápida y clara”. Este ítem obtuvo una media general de 3.73. Este enunc= iado se refiere a que el docente tenga un espacio para expresar sus dudas en cua= nto a la plataforma y que las mismas sean resueltas oportunamente. A pesar de q= ue el ítem se refiere expresamente a que la misma plataforma ofrezca es= te servicio, es probable que el docente también interprete el ít= em como un servicio de soporte también ofrecido por la universidad. En cualquier caso, es importante que tanto las plataformas virtuales, como las universidades, le ofrezcan a sus docentes opcion= es rápidas de soporte que incrementen la auto-confianza del docente fre= nte al uso de tecnologías en el aula.

 

Adicionalmente, el ítem: “La plataforma permite registrar la asistencia de los estudiantes”, obtuvo una media general de 3.79, con 6 de 7 plataformas obteniendo un puntaje menor a 4.0. Este tema es relevante, especialmente pa= ra la realización de cursos sincrónicos en donde se utiliza una variedad de herramientas de videoconferencia y el docente busca un recurso = que le permita marcar la asistencia del estudiante de manera ágil.<= /o:p>

 

Al tener estadísticas sobre el nivel de dominio y tiempo de uso y su relación con la media de evaluación de las plataformas, busca= mos también establecer una relación entre las cuatro variables, c= omo se demuestra en la Tabla 7.

 

 

 

Tabla 7. Comparativo de plataforma, nivel de dominio, tiempo de uso y media de evaluación.

 

PLATAFORMA

NIVEL DE DOMINIO

TIEMPO DE USO

MEDIA DE EVALUACIÓN

CANVAS<= o:p>

3.38

3.08

4.49

CHAMILO=

3.28

3.28

4.04

E-DUCAT= IVA

3.14

2.79

4.35

GOOGLE CLASSROOMS

2.93

1.51

4.01

MICROSO= FT TEAMS

2.76

1.43

3.94

MOODLE<= o:p>

3.30

3.28

4.3

SCHOOLO= GY

3.07

3.57

4.43

Fuente: elaboración propia (2020)

 

Esta tabla muestra que existe una relación entre la media de evaluación baja y el bajo nivel de dominio y poco tiempo de uso de la plataforma. Sin embargo, es importante recalcar que el nivel de dominio y tiempo de uso es relevante, pero no se considera un determinante úni= co de la media de evaluación del participante.

 

5.   Conclusión=

 

La pandemia del COVID-19 ha sido catalizadora del uso de la tecnología,= en donde la educación ha tenido que rápidamente responder al ret= o de no poder ofrecer educación presencial para reducir los riesgos de propagación. Las plataformas virtuales, conformadas por diferentes herramientas de aprendizaje y sistemas de gestión de aprendizaje (learning management systems o LMS), han sido clave para una adecuada entrega de cursos virtuales en Panam&aacut= e; y alrededor del mundo. Este estudio aporta conocimiento nuevo a la ciencia de= la educación, ya que a través de la aplicación de un instrumento previamente validado, generó estadísticas necesarias para tener un mejor entendimiento de los factores que influyen en la calidad de las plataformas virtuales. Adicionalmente, se obtuvo información que aporta a una caracterización del uso actual de plataformas virtuales, al identifi= car cuáles están en uso actualmente en el país y có= mo son evaluadas por los docentes que las utilizan.

 

Este estudio abre puertas para futuras oportunidades de investigación, en donde se amplíe la muestra hacia estudiantes que, acompañados= por sus docentes, son los usuarios clave de estas plataformas.

 

6.   Referencias

Bautista, G. (2011). El acompañamiento del estudiante: profesorado para una nueva forma de aprender. Evolución y retos de la educación virtual. Construyen= do el e-learning del siglo XXI. Barcelona: UOCInnova. Disponible en: https://in= desvirtual.iadb.org/mod/resource/view.php?id=3D128737.

Berrocal, E. B., & Meg&ia= cute;as, S. (2015). Indicadores de calidad para la evaluación de plataformas virtuales. TEXTOS Revista Internacional de Aprendizaje y CiberSociedad, 19(2), 105–118.

Creswell, J. W. (2013a). Research design: Qualitative, quantitative, a= nd mixed methods approaches (4a.ed.). Thousand Oaks= , CA, EE. UU. SAGE.

Delgado, P. (8 de junio de 2020). Lecciones del COVID-19 en el sector educativo. Recuperado de: = https://ob= servatorio.tec.mx/edu-news/lecciones-covid-19-educacion.

Estrada, E. & Boude, O. (2015). Hacia una propuesta para evaluar ambientes virtuales para evaluar ambientes virtuales de aprendizaje (AVA) en Educación Superior. Revi= sta Academia y Virtualidad, 8(2), pp. 14-23.

Fernández-Pascual, M. D., Ferrer-Cascales, R., & Reig-= Ferrer, A. (2013). Entornos virtuales: predicción de la satisfacción = en contexto universitario. Pixel-Bit. Revista de Medios y Educación, 43, pp. 167-181. Disponible en: https://ru= a.ua.es/dspace/bitstream/10045/33183/1/ENTORNOS_VIRTUALES_PREDICCION_DE_LA_= SATISFACCION_EN_CONTEXTO_UNIVERSITARIO.pdf

Fernández-Pascual, M.D., Ferrer-Cascales, R., Reig-Ferrer= , A., Albaladejo-Blázquez, N. & Walker, S. L. (2= 015). Validation of a Spanish version of the Distan= ce Education

Hernández-Sampieri, R. & Mendoza, C (2018). Metodología de la investigación. Las rutas cuantitativa, cualitativa y mixta, Ciudad de México, México: Editorial Mc Graw Hill Education, Año de edición: 2018, ISBN: 978-1-4562-6096-5, 714 p.

Instituto de Investigación de AUPPA (IdIA). (2019). Diagnóstico 2018 de Productivid= ad, Visibilidad e Impacto de las Universidades Particulares en Panamá. Obtenido de: http://idia.org.pa/= diagnosticos_de_productividad/

Instituto Nacional de Estadística y Censo (INEC). (2020). PERSONAL DOCENTE DE EDUCACIÓN UNIVERSITARIA EN LA REPÚBLICA: Año 2017. Retrived f= rom: <= span style=3D'font-size:12.0pt;mso-bidi-font-size:11.0pt;line-height:150%;font-f= amily: "Garamond",serif;color:#1155CC'>https://www.inec.gob.pa/publicaciones/

Learning Environments Survey (DELES) in Spain. Learning Environ Res, 18, pp. 179–196. https://doi.org/10.1007/s10984-015-9179-0

Gómez, M.; Castillo, Y. & Villarreal, E. (2019). El sistema de educación superior en Panamá. Reporte Nacional. Panamá: RecoLATIN. Disponible = en: http://= www.recolatin.eu/wp-content/uploads/2017/06/National-Report-on-the-Higher-E= ducation-systems-of-Panama_ES.pdf

González-Hernández, L. (2019). El au= la virtual como herramienta para aumentar el grado de satisfacción en el aprendizaje de las matemáticas. Información Tecnológic= a, 30(1), pp. 203-214.

Guel, S. M., Pintor, M. M., & Gómez, M. G. (2016). Indicadores para la evaluación del nivel= de satisfacción del uso de Blackboard. Camp= os Virtuales, 5(1), 36-47. Disponible en: http://rab= ida.uhu.es/dspace/bitstream/handle/10272/17326/Indicadores.pdf?sequence=3D2= .

IESALC (2020). COVID-19 y educación superio= r: De los efectos inmediatos al día después. Análisis de impactos, respuestas políticas y recomendaciones. Recuperado de: http://www= .iesalc.unesco.org/wp-content/uploads/2020/04/COVID-19-060420-ES-2.pdf

Manrique Maldonado, K. A. & Sánchez-López, M. (2019). Satisfacción estudiantil universitaria: Un referente para elevar los indicadores de los cursos en línea impulsados por la Coordinación General de Educaci&oacut= e;n Virtual UAGro. Cuaderno de Pedagogía Universitaria, 16(31), pp. 17-30. Disponible en: http://eds.b.ebscohost.com/eds/= pdfviewer/pdfviewer?vid=3D2&sid=3D90d198af-2ad7-4e83-bd11-e2cb4a3c1ba1%= 40pdc-v-sessmgr05

Navarro Rodríguez, M., Edel Navarro, R. & García López, R. I. (2018). Rúbrica = para evaluar ambientes virtuales de aprendizaje. 3C TIC. Cuadernos de desarrollo aplicados a las TIC, 7(3), pp. 80-96. http://dx.doi.org/10.17993/3ctic.2018.61.80-96/

------=_NextPart_01D6E5B8.C4573100 Content-Location: file:///C:/24F3CDD5/04okMarianaLeonQLU_archivos/themedata.thmx Content-Transfer-Encoding: base64 Content-Type: application/vnd.ms-officetheme UEsDBBQABgAIAAAAIQDp3g+//wAAABwCAAATAAAAW0NvbnRlbnRfVHlwZXNdLnhtbKyRy07DMBBF 90j8g+UtSpyyQAgl6YLHjseifMDImSQWydiyp1X790zSVEKoIBZsLNkz954743K9Hwe1w5icp0qv 8kIrJOsbR12l3zdP2a1WiYEaGDxhpQ+Y9Lq+vCg3h4BJiZpSpXvmcGdMsj2OkHIfkKTS+jgCyzV2 JoD9gA7NdVHcGOuJkTjjyUPX5QO2sB1YPe7l+Zgk4pC0uj82TqxKQwiDs8CS1Oyo+UbJFkIuyrkn 9S6kK4mhzVnCVPkZsOheZTXRNajeIPILjBLDsAyJX89nIBkt5r87nons29ZZbLzdjrKOfDZezE7B /xRg9T/oE9PMf1t/AgAA//8DAFBLAwQUAAYACAAAACEApdan58AAAAA2AQAACwAAAF9yZWxzLy5y ZWxzhI/PasMwDIfvhb2D0X1R0sMYJXYvpZBDL6N9AOEof2giG9sb69tPxwYKuwiEpO/3qT3+rov5 4ZTnIBaaqgbD4kM/y2jhdj2/f4LJhaSnJQhbeHCGo3vbtV+8UNGjPM0xG6VItjCVEg+I2U+8Uq5C ZNHJENJKRds0YiR/p5FxX9cfmJ4Z4DZM0/UWUtc3YK6PqMn/s8MwzJ5PwX+vLOVFBG43lExp5GKh qC/jU72QqGWq1B7Qtbj51v0BAAD//wMAUEsDBBQABgAIAAAAIQBreZYWgwAAAIoAAAAcAAAAdGhl bWUvdGhlbWUvdGhlbWVNYW5hZ2VyLnhtbAzMTQrDIBBA4X2hd5DZN2O7KEVissuuu/YAQ5waQceg 0p/b1+XjgzfO3xTVm0sNWSycBw2KZc0uiLfwfCynG6jaSBzFLGzhxxXm6XgYybSNE99JyHNRfSPV kIWttd0g1rUr1SHvLN1euSRqPYtHV+jT9yniResrJgoCOP0BAAD//wMAUEsDBBQABgAIAAAAIQAh WqKEIQcAANsdAAAWAAAAdGhlbWUvdGhlbWUvdGhlbWUxLnhtbOxZT28bRRS/I/EdRnsvsRMnTaI6 VezYDbRpo9gt6nG8O/ZOM7uzmhkn8Q21RyQkREEcqMSNAwIqtRKX8mkCRVCkfgXezOyud+Jxk5QA FTSH1jv7e2/e+70/82evXD1KGDogQlKeNoP6e7UAkTTkEU1HzeB2v3tpNUBS4TTCjKekGUyIDK5u vPvOFbyuYpIQBPKpXMfNIFYqW19YkCEMY/kez0gK74ZcJFjBoxgtRAIfgt6ELSzWaisLCaZpgFKc gNpbwyENCeprlcFGobzD4DFVUg+ETPS0auJIGGy0X9cIOZFtJtABZs0A5on4YZ8cqQAxLBW8aAY1 8xcsbFxZwOu5EFNzZCtyXfOXy+UC0f6imVOMBuWk9W5j7fJWqd8AmJrFdTqddqde6jMAHIbgqbWl qrPRXa23Cp0VkP05q7tdW641XHxF/9KMzWutVmt5LbfFKjUg+7Mxg1+trTQ2Fx28AVn88gy+0dps t1ccvAFZ/MoMvnt5baXh4g0oZjTdn0HrgHa7ufYSMuRs2wtfBfhqLYdPUZANZXbpKYY8VfNyLcH3 uOgCQAMZVjRFapKRIQ4hi9uY0YGgegK8TnDljR0K5cyQngvJUNBMNYMPMgwVMdX38tl3L589Qcf3 nx7f//H4wYPj+z9YRY7UNk5HVakX33z6x6OP0O9Pvn7x8HM/Xlbxv3z/8c8/feYHQvlMzXn+xeNf nz5+/uUnv3370APfFHhQhfdpQiS6SQ7RHk/AMcOKazkZiPNJ9GNMqxKb6UjiFOtZPPo7KnbQNyeY YQ+uRVwG7whoHz7gtfE9x+BeLMYqj7fj2fU4cYA7nLMWF14Wruu5KjT3x+nIP7kYV3F7GB/45m7j 1IlvZ5xB36Q+le2YOGbuMpwqPCIpUUi/4/uEePi6S6nD6w4NBZd8qNBdilqYeinp04GTTVOhbZpA XCY+AyHeDjc7d1CLM5/XW+TARUJVYOYxvk+YQ+M1PFY48ans44RVCb+BVewzsjcRYRXXkQoiPSKM o05EpPTJ3BLgbyXo16F1+MO+wyaJixSK7vt03sCcV5FbfL8d4yTzYXs0javY9+U+pChGu1z54Dvc rRD9DHHA6dxw36HECffp3eA2HTkmTRNEvxkLTyyvEe7kb2/ChpiYVgNN3enVCU1f1bgT6Nu54xfX uKFVPv/qkcfuN7VlbwIJvprZPtGo5+FOtuc2FxF987vzFh6nuwQKYnaJetuc3zbn4D/fnOfV88W3 5GkXhgatt0x2o2223cncXfeQMtZTE0ZuSLPxlrD2RF0Y1HLmxEnKU1gWw09dyTCBgxsJbGSQ4OpD quJejDPYtNcDrWQkc9UjiTIu4bBohr26NR42/soeNZf1IcR2DonVDo/s8JIeLs4apRpj1cgcaIuJ lrSCs062dDlXCr69zmR1bdSZZ6sb00xTdGYrXdYUm0M5UF66BoMlm7CpQbAVApZX4Myvp4bDDmYk 0rzbGBVhMVH4e0KUe20diXFEbIic4QqbdRO7IoVm/NPu2Rw5H5sla0Da6UaYtJifP2ckuVAwJRkE T1YTS6u1xVJ02AzWlheXAxTirBkM4ZgLP5MMgib1NhCzEdwVhUrYrD21Fk2RTj1e82dVHW4u5hSM U8aZkGoLy9jG0LzKQ8VSPZO1f3G5oZPtYhzwNJOzWbG0Cinyr1kBoXZDS4ZDEqpqsCsjmjv7mHdC PlZE9OLoEA3YWOxhCD9wqv2JqITbClPQ+gGu1jTb5pXbW/NOU73QMjg7jlkW47xb6quZouIs3PST 0gbzVDEPfPPabpw7vyu64i/KlWoa/89c0csBXB4sRToCIdzsCox0pTQDLlTMoQtlMQ27AtZ90zsg W+B6Fl4D+XC/bP4X5ED/b2vO6jBlDWdAtUdHSFBYTlQsCNmFtmSy7xRl9XzpsSpZrshkVMVcmVmz B+SAsL7ugSu6BwcohlQ33SRvAwZ3Mv/c57yCBiO9R6nWm9PJyqXT1sA/vXGxxQxOndhL6Pwt+C9N LFf36epn5Y14sUZWHdEvprukRlEVzuK3tpZP9ZomnGUBrqy1tmPNeLy4XBgHUZz1GAbL/UwGV0BI /wPrHxUhsx8r9ILa53vQWxF8e7D8IcjqS7qrQQbpBml/DWDfYwdtMmlVltp856NZKxbrC96olvOe IFtbdpZ4n5PschPlTufU4kWSnTPscG3H5lINkT1ZojA0LM4hJjDmK1f1QxQf3INAb8GV/5jZT1My gydTB9muMNk14NEk/8mkXXBt1ukzjEaydI8MEY2OivNHyYQtIft5pNgiG7QW04lWCi75Dg2uYI7X ona1LIUXTxcuJczM0LJLYXOX5lMAH8fyxq2PdoC3TdZ6rYurYIqlf4WyMxjvp8x78jkrZfag+MpA vQZl6ujVlOVMAXmziQefNwWGo1fP9F9YdGymm5Td+BMAAP//AwBQSwMEFAAGAAgAAAAhAA3RkJ+2 AAAAGwEAACcAAAB0aGVtZS90aGVtZS9fcmVscy90aGVtZU1hbmFnZXIueG1sLnJlbHOEj00KwjAU hPeCdwhvb9O6EJEm3YjQrdQDhOQ1DTY/JFHs7Q2uLAguh2G+mWm7l53JE2My3jFoqhoIOumVcZrB bbjsjkBSFk6J2TtksGCCjm837RVnkUsoTSYkUiguMZhyDidKk5zQilT5gK44o49W5CKjpkHIu9BI 93V9oPGbAXzFJL1iEHvVABmWUJr/s/04GolnLx8WXf5RQXPZhQUoosbM4CObqkwEylu6usTfAAAA //8DAFBLAQItABQABgAIAAAAIQDp3g+//wAAABwCAAATAAAAAAAAAAAAAAAAAAAAAABbQ29udGVu dF9UeXBlc10ueG1sUEsBAi0AFAAGAAgAAAAhAKXWp+fAAAAANgEAAAsAAAAAAAAAAAAAAAAAMAEA AF9yZWxzLy5yZWxzUEsBAi0AFAAGAAgAAAAhAGt5lhaDAAAAigAAABwAAAAAAAAAAAAAAAAAGQIA AHRoZW1lL3RoZW1lL3RoZW1lTWFuYWdlci54bWxQSwECLQAUAAYACAAAACEAIVqihCEHAADbHQAA FgAAAAAAAAAAAAAAAADWAgAAdGhlbWUvdGhlbWUvdGhlbWUxLnhtbFBLAQItABQABgAIAAAAIQAN 0ZCftgAAABsBAAAnAAAAAAAAAAAAAAAAACsKAAB0aGVtZS90aGVtZS9fcmVscy90aGVtZU1hbmFn ZXIueG1sLnJlbHNQSwUGAAAAAAUABQBdAQAAJgsAAAAA ------=_NextPart_01D6E5B8.C4573100 Content-Location: file:///C:/24F3CDD5/04okMarianaLeonQLU_archivos/colorschememapping.xml Content-Transfer-Encoding: quoted-printable Content-Type: text/xml ------=_NextPart_01D6E5B8.C4573100 Content-Location: file:///C:/24F3CDD5/04okMarianaLeonQLU_archivos/header.htm Content-Transfer-Encoding: quoted-printable Content-Type: text/html; charset="us-ascii"





61

 

Invest. Pens. Crit. (ISSN 1812-3864; e= ISSN 2644-4119)

DOI: = https://doi.org/10.37387/ipc.v9i1.210

Vol. 9, No. 1, Enero – Abril 2021  

pp. 46 - 61

____________________________________________________________________= _________________

46

 

------=_NextPart_01D6E5B8.C4573100 Content-Location: file:///C:/24F3CDD5/04okMarianaLeonQLU_archivos/filelist.xml Content-Transfer-Encoding: quoted-printable Content-Type: text/xml; charset="utf-8" ------=_NextPart_01D6E5B8.C4573100--