Universidad del Zulia - Facultad de Humanidades y Educación
Encuentro Educacional
e-ISSN 2731-2429 ~ Depósito legal ZU2021000152
Vol. 30 (1) enero - junio 2023: 08-10
Editorial
Estadística en la investigación científica
En nuestro ambiente universitario, sobre todo en el nivel de maestría y con el estudiante
como actor principal, sin excluir al docente, es bien conocido el síndrome TMT (Todo Menos
Tesis), con nombre y efecto similar a la TNT (Trinitrotolueno), dado que esta insuficiencia
obstruye, con cierta frecuencia, el sueño de culminar con éxito sus estudios. Esto,
generalmente debido a la falta de dominio de los métodos estadísticos, sobre todo en la parte
de cálculo, debilidad observable cuando los educandos intentan realizar sus tareas numéricas
sobre los resultados de las investigaciones que abordan. Todo docente de la materia sabe que
este tipo de actividad se compone de dos fases: primera, la parte aritmética con cierto nivel de
dificultad para la mayoría de los estudiantes y segunda, la interpretación de la medida
obtenida en el contexto de estudio, caracterizada por ser de mayor facilidad.
Esta problemática, del dominio de la Estadística, no es solamente de nuestro entorno
nacional, trasciende el subcontinente suramericano y quizás más allá. Como muestra de ello,
Oviedo, Souza y Bueno, publicaron en el año 2021 los resultados de su investigación titulada
Dificultades en la enseñanza y el aprendizaje de la Estadística, que abordaron con el objeto
de comprobar esta situación en Perú y Brasil, entre los años 2009 a 2017. Los resultados
indicaron las dificultades que presentan, tanto de alumnos de nivel básico y universitario
como de docentes activos y en formación. Agregan que, la enseñanza es bastante formalizada
(matematizada, quiere decir), lo cual implica inconvenientes para su aprendizaje. La
formación específica de los docentes de nivel primario y secundario en el área de estadística
es poco.
Se concluye en esa investigación, la presencia de esta importante ciencia de los datos en la
vida cotidiana, por lo tanto es necesaria una cultura con tendencia hacia la enseñanza de la
interpretación de sus resultados y no con énfasis en la fase de cálculo, tiempo que puede
emplearse para el dominio de las competencias sobre el manejo de los programas estadísticos,
entre otros el SPSS y el Excel, este último de caracterizada versatilidad y permeabilidad que
permite el aditamento de nuevas funciones programadas por los mismos estudiantes y
profesores.
Se evidencia por lo tanto la necesidad de precisar esta situación con el fin de erradicarla. El
problema, podría pensarse, está en la primera fase de la tarea estadística, donde se presentan
las operaciones matemáticas, detalle que es posible suavizar con el uso del software y no
insistir con la tradicional aritmetización de esta importante metodología. Sin embargo, se ha
observado docentes que se limitan al cálculo de las medidas estadísticas y esto genera
deserciones en los estudiantes y apatía por la asignatura. No se muestra el vínculo con la
investigación, desaprovechando el uso de la tecnología, como lo son el software estadístico y
la hoja de cálculo de Excel.
Por otro lado, es notable una posible relación con la estadística y la investigación.
Entonces vale preguntarse: ¿Cuándo usar estadística en la investigación científica? En la
actualidad reina el paradigma dual de las investigaciones cuantitativas y cualitativas. Las
primeras se identifican con el uso de las estadísticas, son replicables buscando objetividad
mediante el objeto de estudio; por el contrario, las segundas no utilizan estadísticas y son
subjetivas e irreplicables. Algunos autores hablan ya de investigaciones mixtas, como el texto
Metodología de la investigación de Hernández-Sampieri y Mendoza (2018).
En todo caso, hay quienes se inclinan por el uso de las estadísticas en sus investigaciones y
no temen hacer un enfoque cuantitativo; y hay quienes prefieren no usarlas por sus
debilidades en el manejo de éstas y prefieren llevar a cabo una investigación sin el uso de las
mismas y por esa razón se inclinan por el enfoque no numérico. En este sentido, puede verse
que el dominio de la ciencia de los datos, es un factor para decidir el enfoque de
investigación.
No obstante, existe un factor muy determinante para decidir si usar la estadística o no: el
tamaño de la cantidad de elementos o sujetos a estudiar. Llámese población o muestra, si
dicho conjunto está conformado por una determinada cantidad de elementos, mayor de 50,
obligatoriamente se tendrá que usar las estadísticas para sintetizar el comportamiento de la
variable en estudio. El enfoque cualitativo sería muy extenso y tal vez sea improductivo. Se
recomienda por consiguiente el cuantitativo.
Si, por el contrario, la cantidad sujetos en estudio es pequeña, las medidas obtenidas serían
no significativas estadísticamente; es decir, tendrían poco valor veritativo. Imagínese una
muestra de tamaño n = 2, entonces 1 equivaldría al 50%, lo cual exagera el concepto de la
mitad de los sujetos brindándole una mayor incertidumbre que el que representa dicho
porcentaje. En consecuencia, se sugiere abordar el enfoque cualitativo para dicha
investigación.
Si el enfoque que se decidió es el positivista o cuantitativo, debe identificarse qué
estadística usar en el marco metodológico, en la parte Plan de análisis de los resultados. En
nuestro contexto es usual las investigaciones de alcance descriptivo univariante para los
postgrados con niveles de maestría y con análisis inferencial para el caso de los doctorados.
Para el primer nivel, donde se usa generalmente la escala Likert, se sugiere desde estas líneas
el uso de las frecuencias porcentuales, acompañadas del gráfico diagrama de barras, para las
respectivas alternativas de respuestas de esa escala, pudiendo agregarse un baremo para la
frecuencia mayor. También puede usarse el análisis sugerido para el caso doctoral.
Para el doctorado, en el análisis descriptivo, se sugiere el manejo de la media aritmética y
revelar su tendencia con su respectivo baremo según la escala Likert, acompañada de la
desviación estándar, también con su propia escala de categorización, para identificar la
representatividad de dicha media aritmética sobre el grupo numérico que la generó. Para el
análisis inferencial, se sugiere la prueba No Paramétrica de Chi Cuadrado y así evidenciar si
existen diferencias significativas en las frecuencias de las alternativas de la escala Likert y
comprobar que la tendencia del promedio del análisis descriptivo es estadísticamente
significativa. En este nivel no son necesarios los gráficos estadísticos.
Finalmente concluyo, el usuario de los métodos estadísticos, sea estudiante, profesor o
investigador en general, debe inclinar su atención para la interpretación de las medidas
obtenidas en el contexto de su estudio, que permita describir una realidad; también apoyar o
rechazar una premisa o hipótesis previa al estudio, referida al comportamiento de una variable
estadística. Para ello, debe conocer el concepto de cada medida o técnica utilizada, así: un
promedio indica una tendencia, una deviación estándar o una varianza sugiere una
representatividad, un porcentaje representa una acumulación, la curtosis indica una
concentración o no alrededor de la media aritmética de una distribución simétrica. No temer a
la aritmetización; es erradicable mediante el uso de la tecnología del software estadístico o
con aplicaciones de la hoja de cálculo de Excel.
Edwin Rafael Carrasquero Cabrera
Director del Centro de Estudios Matemáticos y Físicos
(CEMAFI)