MANUAL DE HERRAMIENTAS ESTADÍSTICAS

Page 1

MANUAL

HERRAMIENTAS ESTADÍSTICAS

2023-2024

AUTORÍA: LILY JAVIER POMA

El principal propósito del manual es proporcionar a los estudiantes una guía completa y práctica sobre el uso y la aplicación de diferentes técnicas estadísticas en la investigación y el análisis de datos. De la misma manera ofrece información sobre cuándo y cómo aplicar cada herramienta estadística en diferentes escenarios. Proporciona pautas y ejemplos de casos de uso para ayudar a los usuarios a seleccionar y aplicar las técnicas estadísticas apropiadas según los objetivos de su investigación. Finalmente el manual proporciona información sobre cómo diseñar estudios de investigación sólidos, seleccionar muestras representativas y utilizar técnicas estadísticas adecuadas para obtener resultados confiables y significativos.

DE CAPÍTULO 1: INTRODUCCIÓN A LA ESTADÍSTICA CAPÍTULO 2: ESTADÍSTICA DESCRIPTIVA CAPÍTULO 3: MUESTREO Y DISEÑO DE INVESTIGACIÓN CAPÍTULO 4: PRUEBAS DE HIPÓTESIS CAPÍTULO 5: ANÁLISIS DE CORRELACIÓN Y REGRESIÓN CAPÍTULO 6: ANÁLISIS MULTIVARIABLE CAPÍTULO 7: TÉCNICAS AVANZADAS EN ESTADÍSTICA 01 02 03 04 05 06 07
CONTENIDOS TABLA

CAPÍTULO 1: INTRODUCCIÓN A LA ESTADÍSTICA

La estadística se define como una disciplina que se ocupa de la recopilación, análisis, interpretación y presentación de datos numéricos. Se utiliza para describir y resumir características de un conjunto de datos, identificar patrones y relaciones, realizar inferencias sobre una población más amplia y tomar decisiones basadas en evidencia numérica. En el contexto de la educación superior, la aplicación de la estadística es fundamental en diversas áreas, como la investigación educativa, la evaluación del rendimiento estudiantil, la toma de decisiones institucionales y la planificación de programas académicos. Algunas de las aplicaciones específicas de la estadística en educación superior incluyen: 1.

Gestión de datos y sistemas de información: La estadística desempeña un papel clave en la gestión de bases de datos y sistemas de información en educación superior. Ayuda a analizar grandes volúmenes de datos, identificar tendencias, patrones y relaciones, y generar informes y análisis que apoyen la toma de decisiones.

Investigación y publicaciones académicas: La estadística es esencial en la investigación académica, ya que permite analizar datos recopilados en estudios y experimentos. Además, es común que los resultados de la investigación se presenten y publiquen utilizando análisis estadísticos para respaldar las conclusiones.

Lily Javier Poma DOCENTE
2.
1.1
Definición
de estadística y su aplicación en educación superior.

CAPÍTULO 1: INTRODUCCIÓN A LA ESTADÍSTICA

En estadística, existen diferentes tipos de datos y escalas de medición que nos permiten clasificar y analizar la información recopilada. Los principales tipos de datos y escalas de medición son los siguientes:

Datos nominales: Estos datos se utilizan para clasificar o categorizar elementos sin ninguna ordenación o jerarquía. Los valores en esta escala no tienen un significado numérico. Ejemplos de datos nominales son el género (masculino/femenino), la nacionalidad, el estado civil, etc.

Datos ordinales: En esta escala, los datos pueden ser clasificados en categorías u opciones con un orden o jerarquía específica. Sin embargo, la distancia entre las categorías no es necesariamente uniforme.

Ejemplos de datos ordinales son las calificaciones (excelente, bueno, regular, malo), las clasificaciones de nivel de satisfacción (muy satisfecho, satisfecho, insatisfecho) y las escalas de Likert.

Datos de intervalo: Estos datos se pueden medir en una escala numérica con una unidad de medida común. En esta escala, las diferencias entre los valores tienen un significado, pero no hay un punto cero absoluto. Ejemplos de datos de intervalo son las temperaturas en grados Celsius o Fahrenheit, años calendario, etc.

Datos de razón: Son datos medibles en una escala numérica con una unidad de medida común, donde existe un punto cero absoluto y las diferencias entre los valores tienen un significado. En esta escala, se pueden realizar operaciones aritméticas, como sumar, restar, multiplicar y dividir. Ejemplos de datos de razón son la edad, el peso, la altura, el tiempo en segundos, etc.

Lily Javier Poma DOCENTE
1. 2. 3. 4. 1.2 Tipos de datos y escalas de medición.

CAPÍTULO 1: INTRODUCCIÓN A LA ESTADÍSTICA

1.3 Conceptos básicos de probabilidad.

La probabilidad es una rama de las matemáticas que se ocupa del estudio de los eventos aleatorios y la cuantificación de la incertidumbre. A continuación, se presentan algunos conceptos básicos de probabilidad:

Espacio muestral: Es el conjunto de todos los posibles resultados de un experimento aleatorio. Se representa comúnmente como "S". Por ejemplo, al lanzar un dado, el espacio muestral sería {1, 2, 3, 4, 5, 6}.

Evento: Es cualquier subconjunto del espacio muestral. Representa un resultado o una combinación de resultados específicos del experimento. Un evento se denota generalmente con una letra mayúscula. Por ejemplo, en el lanzamiento de un dado, el evento "obtener un número par" podría ser {2, 4, 6}.

Probabilidad: Es una medida numérica que cuantifica la posibilidad de que ocurra un evento. Se denota por "P".

La probabilidad de un evento se encuentra en el rango de 0 a 1. Un evento con probabilidad 0 nunca ocurrirá, mientras que un evento con probabilidad 1 es seguro que ocurra.

Regla de la suma: Si A y B son dos eventos mutuamente excluyentes (es decir, no pueden ocurrir simultáneamente), la probabilidad de que ocurra A o B se calcula sumando las probabilidades individuales de A y B. La fórmula es: P(A o B) = P(A) + P(B).

Regla del complemento: La probabilidad de que no ocurra un evento A (denotado como A') se calcula restando la probabilidad de A de 1. La fórmula es: P(A') = 1 - P(A).

Regla del producto: Si A y B son dos eventos independientes, la probabilidad de que ocurran ambos eventos se calcula multiplicando las probabilidades individuales de A y B. La fórmula es: P(A y B) = P(A) * P(B).

Probabilidad condicional: Es la probabilidad de que ocurra un evento A dado que ya ha ocurrido otro evento B Se denota como P(A|B) La fórmula para calcular la probabilidad condicional es: P(A|B) = P(A y B) / P(B).

Lily Javier Poma DOCENTE
1. 2. 3. 4. 5. 6. 7

CAPÍTULO 1: INTRODUCCIÓN A LA ESTADÍSTICA

1.4 Distribuciones de probabilidad fundamentales..

Existen varias distribuciones de probabilidad fundamentales que se utilizan comúnmente en estadística y análisis de datos. A continuación, se presentan algunas de las distribuciones más importantes:

Distribución uniforme: Es una distribución en la que todos los resultados posibles tienen la misma probabilidad de ocurrir. En esta distribución, la función de densidad de probabilidad es constante dentro de un intervalo y cero fuera de él.

Distribución binomial: Es una distribución que modela el número de éxitos en un número fijo de ensayos independientes, donde cada ensayo tiene solo dos posibles resultados: éxito o fracaso. Esta distribución se caracteriza por dos parámetros: el número de ensayos (n) y la probabilidad de éxito en cada ensayo (p).

Distribución normal (o gaussiana): Es una de las distribuciones más utilizadas y se caracteriza por su forma de campana simétrica. En esta distribución, los datos se distribuyen alrededor de la media y su forma está determinada por la desviación estándar. Muchos fenómenos naturales y sociales siguen una distribución normal.

Distribución de Poisson: Es una distribución que modela el número de eventos raros que ocurren en un intervalo de tiempo o espacio fijo. Esta distribución se utiliza cuando los eventos ocurren de manera independiente y a una tasa constante en un intervalo dado.

Distribución exponencial: Es una distribución que modela el tiempo entre eventos sucesivos en un proceso de Poisson. Esta distribución se utiliza comúnmente para modelar tiempos de espera o duraciones.

Distribución de chi-cuadrado: Es una distribución que se utiliza en pruebas de hipótesis y análisis de datos para comparar la diferencia entre los datos observados y los esperados. Esta distribución está relacionada con la suma de los cuadrados de variables aleatorias normales estándar independientes.

Lily Javier Poma DOCENTE
1. 2. 3. 4. 5. 6.

2.1 MEDIDAS DE TENDENCIA CENTRAL (MEDIA, MEDIANA, MODA)

Las medidas de tendencia central son herramientas estadísticas que nos permiten resumir y describir un conjunto de datos mediante un valor representativo. Las medidas de tendencia central más comunes son la media, la mediana y la moda. A continuación, se describe cada una de ellas:

Media: La media es el promedio aritmético de un conjunto de datos. Se calcula sumando todos los valores y dividiendo la suma entre el número total de datos. La media es sensible a los valores atípicos, ya que los valores extremos pueden afectar significativamente su valor. Mediana: La mediana es el valor que se encuentra en el centro de un conjunto ordenado de datos. Para calcular la mediana, se deben ordenar los datos de menor a mayor y luego encontrar el valor medio. Si el número de datos es impar, la mediana es el valor central. Si el número de datos es par, la mediana es la media de los dos valores centrales.

Moda: La moda es el valor o valores que aparecen con mayor frecuencia en un conjunto de datos. Puede haber una moda (unimodal) cuando un valor aparece con mayor frecuencia, o puede haber múltiples modas (multimodal) cuando varios valores tienen la misma frecuencia máxima. También es posible que no haya una moda en un conjunto de datos (sin moda).

1. 2. 3.
CAPÍTULO 2: ESTADÍSTICA DESCRIPTIVA
02.

2.1 MEDIDAS DE TENDENCIA CENTRAL (MEDIA, MEDIANA, MODA)

Las medidas de tendencia central son herramientas estadísticas que nos permiten resumir y describir un conjunto de datos mediante un valor representativo. Las medidas de tendencia central más comunes son la media, la mediana y la moda. A continuación, se describe cada una de ellas:

Media: La media es el promedio aritmético de un conjunto de datos. Se calcula sumando todos los valores y dividiendo la suma entre el número total de datos. La media es sensible a los valores atípicos, ya que los valores extremos pueden afectar significativamente su valor. Mediana: La mediana es el valor que se encuentra en el centro de un conjunto ordenado de datos. Para calcular la mediana, se deben ordenar los datos de menor a mayor y luego encontrar el valor medio. Si el número de datos es impar, la mediana es el valor central. Si el número de datos es par, la mediana es la media de los dos valores centrales.

Moda: La moda es el valor o valores que aparecen con mayor frecuencia en un conjunto de datos. Puede haber una moda (unimodal) cuando un valor aparece con mayor frecuencia, o puede haber múltiples modas (multimodal) cuando varios valores tienen la misma frecuencia máxima. También es posible que no haya una moda en un conjunto de datos (sin moda).

1. 2. 3.
CAPÍTULO 2: ESTADÍSTICA DESCRIPTIVA
02.

CAPÍTULO 2: ESTADÍSTICA DESCRIPTIVA

2.2 MEDIDAS DE DISPERSIÓN (RANGO, VARIANZA, DESVIACIÓN ESTÁNDAR)

Las medidas de dispersión son utilizadas en estadística para cuantificar la variabilidad o dispersión de un conjunto de datos. Estas medidas proporcionan información adicional sobre la distribución de los datos más allá de las medidas de tendencia central. Las medidas de dispersión más comunes son el rango, la varianza y la desviación estándar. A continuación, se describe cada una de ellas:

CONCEPTOS

Rango: El rango es la diferencia entre el valor máximo y el valor mínimo de un conjunto de datos. Es una medida muy básica de dispersión y proporciona una idea de la amplitud total de los datos. Sin embargo, el rango puede ser influenciado por valores atípicos y no proporciona información sobre la distribución interna de los datos.

Varianza: La varianza es una medida que indica qué tan dispersos están los datos en relación con la media. Se calcula tomando la suma de los cuadrados de las diferencias entre cada valor y la media, y luego dividiendo esa suma entre el número total de datos. Una varianza más alta indica una mayor dispersión de los datos.

Desviación estándar: La desviación estándar es la raíz cuadrada positiva de la varianza. Es una medida de dispersión más comúnmente utilizada, ya que tiene la misma unidad de medida que los datos originales. La desviación estándar nos indica cuánto se espera que los valores se desvíen de la media. Una desviación estándar más alta indica una mayor dispersión de los datos.

1. 2. 3.

2.3 REPRESENTACIÓN GRÁFICA DE DATOS (HISTOGRAMAS, DIAGRAMAS DE DISPERSIÓN, BOXPLOTS)

CONCEPTOS

Histograma: Un histograma es una representación gráfica de la distribución de frecuencias de un conjunto de datos numéricos continuos. El eje horizontal representa las categorías o rangos de valores, y el eje vertical representa la frecuencia o la densidad de los datos en cada categoría. Los histogramas son útiles para identificar la forma de la distribución, la presencia de valores atípicos y la concentración de datos en diferentes rangos.

Diagrama de dispersión: Un diagrama de dispersión es una representación gráfica de la relación entre dos variables numéricas. Cada punto en el gráfico representa una observación y su ubicación en el plano se determina por los valores de las dos variables. Los diagramas de dispersión son útiles para identificar patrones, tendencias y relaciones entre las variables, como la correlación positiva o negativa.

Boxplot (o diagrama de caja y bigotes): Un boxplot es una representación gráfica que muestra la distribución de un conjunto de datos numéricos y resalta medidas estadísticas importantes. Consiste en un rectángulo (caja) que representa el rango intercuartílico (Q1 a Q3), una línea vertical (mediana) que divide la caja en dos partes iguales y dos líneas (bigotes) que se extienden desde la caja hasta los valores extremos. Los boxplots proporcionan información sobre la simetría, dispersión y presencia de valores atípicos en los datos.

https://www.youtube.com/watch?v=6vKYZsKpeWg

1. 2. 3.
CAPÍTULO 2: ESTADÍSTICA DESCRIPTIVA TUTORIAL;

3.1 TÉCNICAS DE MUESTREO EN EDUCACIÓN SUPERIOR

Muestreo aleatorio simple: En esta técnica, cada elemento de la población tiene la misma probabilidad de ser seleccionado para formar parte de la muestra. Se utiliza un proceso de selección aleatoria, como el uso de números aleatorios, para garantizar la representatividad de la muestra.

2.- Muestreo estratificado: En esta técnica, la población se divide en subgrupos o estratos basados en características importantes, como el nivel de estudios, el género o la facultad. Luego, se selecciona una muestra aleatoria de cada estrato proporcional a su tamaño relativo en la población total. Esta técnica permite garantizar una representación adecuada de cada estrato en la muestra.

3. Muestreo por conglomerados: En esta técnica, la población se divide en grupos o conglomerados, como departamentos académicos o facultades. Luego, se seleccionan algunos conglomerados al azar y se recopilan datos de todos los elementos dentro de los conglomerados seleccionados. Esta técnica es útil cuando no es posible obtener una lista completa de todos los elementos de la población y es más factible seleccionar grupos más grandes.

4. Muestreo sistemático: En esta técnica, se selecciona un elemento inicial de la población al azar y luego se eligen los siguientes elementos en un patrón sistemático. Por ejemplo, cada "késimo" elemento puede ser seleccionado, donde "k" es un número constante. Esta técnica es útil cuando los elementos están ordenados o tienen una estructura sistemática.

5. Muestreo por conveniencia: Esta técnica implica seleccionar elementos que estén fácilmente disponibles o accesibles para formar parte de la muestra. Aunque puede ser conveniente, este tipo de muestreo puede introducir sesgos y no garantiza la representatividad de la muestra.

CAPÍTULO 3: MUESTREO Y DISEÑO
DE INVESTIGACIÓN
03
1.

3.2 DISEÑO DE INVESTIGACIÓN EXPERIMENTAL Y NO EXPERIMENTAL.

Diseño de investigación experimental:

En un diseño experimental, el investigador manipula deliberadamente una o más variables independientes para observar el efecto que tienen sobre una variable dependiente.

Se utiliza un grupo de control y uno o más grupos de tratamiento para comparar los resultados y determinar el impacto de la variable independiente.

Los participantes son asignados aleatoriamente a los grupos de tratamiento, lo que ayuda a minimizar los sesgos y maximizar la validez interna del estudio.

Se utilizan medidas objetivas y estandarizadas para recopilar datos y se pueden aplicar análisis estadísticos para evaluar las diferencias entre los grupos.

Diseño de investigación no experimental:

En un diseño no experimental, el investigador observa y analiza los fenómenos tal como ocurren naturalmente, sin manipular deliberadamente las variables. No se establecen grupos de tratamiento ni se asignan aleatoriamente participantes. Se recopilan datos a través de observaciones, entrevistas, encuestas u otras técnicas de recolección de datos. El investigador se enfoca en describir, explicar o correlacionar variables sin establecer una relación causal directa. Puede haber una mayor flexibilidad en la elección de la muestra y en la recopilación de datos, pero también existe un mayor riesgo de sesgos y confusión de variables.

CAPÍTULO 3: MUESTREO Y DISEÑO DE
INVESTIGACIÓN
03
1. 2. 3. 4.

CAPÍTULO 4: PRUEBAS DE HIPÓTESIS

4.1 Fundamentos de las pruebas de hipótesis.

Definición

Las pruebas de hipótesis son procedimientos estadísticos utilizados para tomar decisiones sobre afirmaciones o suposiciones acerca de una población en base a la evidencia proporcionada por una muestra de datos.

Revisamos el tutorial: https://www.youtube.com/watch?v=PT0uYlo-A4s

4.2 Pruebas de hipótesis para muestras independientes y relacionadas.

Muestras independientes

Pruebas de hipótesis para muestras independientes:

En este tipo de prueba, se comparan las medias de dos grupos independientes para determinar si existen diferencias significativas entre ellos.

Se plantean las siguientes hipótesis:

Hipótesis nula (H0): Las medias de los dos grupos son iguales.

Hipótesis alternativa (H1): Las medias de los dos grupos son diferentes.

Muestras relacionadas

Pruebasdehipótesisparamuestrasrelacionadas:

En este tipo de prueba, se comparan las diferencias entre las mediciones realizadas en el mismo grupooengruposemparejadosantesydespuésdeuntratamientoointervención.

Seplanteanlassiguienteshipótesis:

Hipótesisnula(H0):Nohaydiferenciaentrelasmedicionesantesydespuésdeltratamiento.

Hipótesis alternativa (H1): Hay una diferencia significativa entre las mediciones antes y despuésdeltratamiento.

04.

CAPÍTULO 4: PRUEBAS DE HIPÓTESIS

4.3 Pruebas de hipótesis no paramétricas.

Definición

Las pruebas de hipótesis no paramétricas son métodos estadísticos que se utilizan cuando no se cumplen los supuestos de normalidad o de distribución específicos de los datos. Estas pruebas se basan en el orden o rango de los datos en lugar de los valores numéricos exactos.

4.4 Interpretación y comunicación de resultados de pruebas de hipótesis.

Muestras independientes

La interpretación y comunicación de los resultados de las pruebas de hipótesis son pasos esenciales para sacar conclusiones significativas y comprender el impacto de los hallazgos estadísticos. A continuación, se presentan algunas pautas para interpretar y comunicar los resultados de las pruebas de hipótesis:

Comprender las hipótesis: Recuerda las hipótesis nula (H0) y alternativa (H1) que se plantean en la prueba. La H0 generalmente afirma que no hay diferencia o relación entre las variables, mientras que la H1 sugiere que sí existe una diferencia o relación. Evaluar el valor p: El valor p es una medida que indica la probabilidad de obtener los resultados observados o más extremos si la hipótesis nula es verdadera. Un valor p bajo (menor que el nivel de significancia establecido) sugiere que los resultados son estadísticamente significativos y proporcionan evidencia en contra de la hipótesis nula.

Comparar el valor p con el nivel de significancia: El nivel de significancia (α) es el umbral predefinido para determinar si se rechaza o no la hipótesis nula. Si el valor p es menor que α, se rechaza la H0 y se concluye que hay evidencia suficiente para respaldar la H1. Si el valor p es mayor que α, no se rechaza la H0 y se concluye que no hay suficiente evidencia para respaldar la H1.

1. 2. 3. 04.

CAPÍTULO 5: ANÁLISIS DE CORRELACIÓN Y REGRESIÓN

El análisis de correlación y regresión son técnicas estadísticas utilizadas para examinar la relación entre variables y predecir el valor de una variable en función de otras variables. A continuación, se presentan las definiciones de cada uno:

Definición Análisis de correlación

El análisis de correlación se utiliza para determinar si existe una relación y la fuerza de la relación entre dos variables cuantitativas. El coeficiente de correlación de Pearson es la medida más comúnmente utilizada en el análisis de correlación. Este coeficiente varía entre -1 y 1, donde -1 indica una correlación negativa perfecta, 0 indica la ausencia de correlación y 1 indica una correlación positiva perfecta.

El análisis de correlación permite identificar si las variables están relacionadas linealmente y la dirección y magnitud de esa relación.

Análisis de regresión

Análisis de regresión:

El análisis de regresión se utiliza para predecir o modelar la relación entre una variable dependiente y una o más variables independientes.

Se utiliza la regresión lineal como una técnica común en el análisis de regresión. La regresión lineal busca ajustar una línea recta a los datos que mejor se ajuste a la relación entre las variables.

El modelo de regresión lineal permite estimar los coeficientes de regresión, que representan la contribución de cada variable independiente en la variable dependiente. Además, se pueden obtener predicciones de los valores de la variable dependiente utilizando el modelo ajustado.

05.
1.

CAPÍTULO 6: ANÁLISIS MULTIVARIABLE

El análisis multivariable es una técnica estadística que se utiliza para estudiar las relaciones entre múltiples variables al mismo tiempo. A diferencia del análisis univariable, que examina una sola variable a la vez, el análisis multivariable permite explorar y comprender las interacciones complejas entre varias variables.

El análisis multivariable incluye varias técnicas, entre las que se destacan:

Análisis de regresión multivariable: Esta técnica se utiliza para modelar la relación entre una variable dependiente y múltiples variables independientes. Permite evaluar el efecto de cada variable independiente mientras se controla el efecto de las demás variables.

Análisis de covarianza (ANCOVA): Esta técnica combina el análisis de regresión con el análisis de varianza (ANOVA).

Se utiliza para comparar las medias de un grupo de variables dependientes, teniendo en cuenta una variable independiente de interés y controlando los efectos de otras variables independientes.

Análisis de componentes principales (PCA): Es una técnica de reducción de la dimensionalidad que se utiliza para identificar patrones y estructuras subyacentes en un conjunto de variables. El PCA permite resumir la información en un número menor de variables llamadas componentes principales, que capturan la mayor variabilidad de los datos originales.

Análisis de conglomerados (cluster analysis): Esta técnica se utiliza para agrupar observaciones o casos en grupos homogéneos basados en la similitud de sus características. Permite identificar patrones o segmentos dentro de un conjunto de datos multivariables.

1. 2. 3. 4. 06.

Las técnicas avanzadas en estadística son herramientas más sofisticadas que se utilizan para analizar datos complejos y extraer información más detallada y precisa. Algunas de estas técnicas incluyen:

Análisis de series de tiempo: Esta técnica se utiliza para analizar datos secuenciales recopilados a intervalos de tiempo regulares. Ayuda a identificar patrones, tendencias y ciclos en los datos, y se utiliza en pronósticos y análisis de datos económicos, financieros y climáticos, entre otros.

Análisis de supervivencia: También conocido como análisis de tiempo hasta el evento, se utiliza para analizar el tiempo que tarda en ocurrir un evento, como la supervivencia de pacientes, el tiempo hasta una falla de equipos, etc. Se utiliza el modelo de Kaplan-Meier y el modelo de regresión de Cox, entre otros.

Análisis de datos de panel: Este análisis se utiliza cuando se recopilan datos de múltiples unidades (individuos, empresas, países, etc.) a lo largo del tiempo. Permite estudiar las relaciones entre variables tanto a nivel individual como a nivel temporal y controlar los efectos individuales y temporales en el análisis.

Análisis de componentes independientes (ICA): Esta técnica se utiliza para separar señales mixtas en sus componentes subyacentes independientes. Se aplica en áreas como el procesamiento de señales, la neuroimagen y el análisis de datos multidimensionales.

Análisis factorial: Esta técnica se utiliza para identificar patrones subyacentes o factores latentes en un conjunto de variables observadas. Ayuda a reducir la dimensionalidad de los datos y a comprender la estructura subyacente que explica la covarianza entre las variables.

Análisis de datos categóricos: Se utilizan técnicas específicas para analizar datos categóricos, como el análisis de correspondencia y el análisis de cluster para variables categóricas. Estas técnicas son útiles cuando las variables de interés son cualitativas o nominales.

TÉCNICAS AVANZADAS EN ESTADÍSTICA 07.

CAPÍTULO
7:
1. 2. 3. 4. 5. 6.

Recapitulación de los conceptos clave aprendidos.

Importancia de utilizar herramientas estadísticas en la investigación y toma de decisiones en educación superior.

Recursos adicionales y recomendaciones para profundizar en el tema.

07.
CONCLUSIONES
Salford.Co

BIBLIOGRAFÍA

Montgomery, C., Peck, A., y Vining, G. (2012). Introduction to Linear Regression Analysis. Wiley.

Agresti, A. (2018). An Introduction to Categorical Data Analysis. Wiley.

Hair, F., Black, C., Babin, J. y Anderson, E. (2019). Multivariate Data Analysis. Cengage Learning.

Field, A., Miles, J. y Field, Z. (2012). Discovering Statistics Using R. SAGE Publications Ltd.

Tabachnick, G. y Fidell, S. (2019). Using Multivariate Statistics. Pearson.

Howell, C. (2012). Statistical Methods for Psychology. Cengage Learning.

Agresti, A. y Franklin, C. (2018). Statistics: The Art and Science of Learning from Data. Pearson.

Kutner, H., Nachtsheim, J., Neter, J. y Li, W. (2004). Applied Linear Statistical Models. McGraw-Hill Education.

Peck, R., Olsen, C. y Devore, J. (2015). Introduction to Statistics and Data Analysis. Cengage Learning.

Siegel, S. y Castellan, N. J. (1988). Nonparametric Statistics for the Behavioral Sciences. McGraw-Hill.

GRACIAS Muchas

Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.
MANUAL DE HERRAMIENTAS ESTADÍSTICAS by LILY2023 - Issuu