Docsity
Docsity

Prepara tus exámenes
Prepara tus exámenes

Prepara tus exámenes y mejora tus resultados gracias a la gran cantidad de recursos disponibles en Docsity


Consigue puntos base para descargar
Consigue puntos base para descargar

Gana puntos ayudando a otros estudiantes o consíguelos activando un Plan Premium


Orientación Universidad
Orientación Universidad

Apuntes Análisis de datos, Apuntes de Psicología

Asignatura: Análisis de Datos I, Profesor: Juan Botella, Carrera: Psicología, Universidad: UAM

Tipo: Apuntes

2013/2014

Subido el 11/10/2014

danity23
danity23 🇪🇸

3.9

(37)

6 documentos

Vista previa parcial del texto

¡Descarga Apuntes Análisis de datos y más Apuntes en PDF de Psicología solo en Docsity! ANÁLISIS DE DATOS l Estadística descriptiva (organizar, ordenar): Presentar datos de forma ordenada. Ejemplo: Datos de una muestra. - Univariada: - Invariada: Estadística inferencial: Mediante reglas se extraen conjeturas. Utiliza la probabilidad. Hay un puente entre las dos mediante la probabilidad. Daremos los fundamentos para dar en segundo la materia completa. Utilizaremos el spss → statistical package for the social sciences. Para comparar y comprobar resultados. Tema 1: conceptos generales. La estadística es una materia que trata de trabajar con datos y organizarlos u ordenarlos. Población estadística: Conjunto de todos los elementos que cumplen una o varias características o propiedades. No trabajaremos con toda la población, sino con una muestra. Muestra: Subconjunto de los elementos de una población. Tiene que ser una muestra representativa. Trabajaremos con la muestras aleatorias simples. Parámetro: Propiedad descriptiva de una Población. Con letras griegas: σ μ π ρ. A partir de los parámetros se conoce la media de la muestra, que será el estadístico. Estadístico: Propiedad descriptiva de una muestra. Con letras latinas. Característica: Propiedad o cualidad de un individuo. Tiene tantas que nos centramos sólo en las que son objetos de estudio en psicología. Por ejemplo a la psicología no le interesa la estatura ni el peso... Lo que le interesa, son aquellos que se presentan en diferentes modalidades. Modalidades: Cada una de las maneras en que se presenta una característica. Ejemplo: El sexo se muestra en dos modalidades: hombre o mujer. Medición: Proceso de atribución de números a las características. Tiene una serie de reglas. Se utilizarán las escalas de medida. Escala nominal o cualitativa. Los números asignados sólo informan de la igualdad o desigualdad de los elementos de esa característica. Ejemplo: El de sexo. 1,0,1,1,1,0,0 los números 1 son hombres, es decir, al ser el mismo número, son iguales. El 0, son las mujeres. Escala ordinal. Los números asignados permiten hacer afirmaciones del tipo "mayor que" o "menor que" en esa característica. Ejemplo: Nivel educativo → Si hacemos una encuesta, unos dirán que no tienen estudios, otros la ESO, otros Bachillerato, Otros, estudios universitarios... utilizamos los códigos 1,2,3,4. Podemos tener esta escala: 3,3,4,1,2,4,2,1, entonces podemos decir que el primero y el segundo son iguales pero a la vez menores que el tercero y mayor que el quinto. Utilizamos diariamente las evaluaciones de la escuela. •Diagrama de pastel (o de vectores). Ejemplo: 1. Esquizofrénico paranoide. (azul oscuro) 2. Esquizofrénico no paranoide. (rojo claro) 3. Esquizoafectivo. (amarillo) 4. Depresivo. (verde) 5. Drogodependencia. (rojo oscuro) 6. Psicopatía. (azul celeste) -Cuantitativas: •Diagrama de barras. Ejemplo: ¿Cuántos libros han leído en vacaciones? 1. Niño 1 2. Niño 2 3. Niño 3 4. Niño 4 5. Niño 5 •Histogramas. Siempre que se utilizan gráficas, es muy importante el uso de leyendas y explicaciones de los datos que vamos a exponer o de lo que estamos estudiando en dicha gráfica. Medidas de posición o cuantiles. Permiten hacer una valoración relativa de puntuación individual con respecto a un marco de referencia. Los más conocidos son los centiles o percentiles que son puntuaciones que dividen la distribución de frecuencias en 100 partes, con el 1% cada una. Se representa con una C. Ck: puntuación con porcentaje acumulado igual a k. C28 = 66: el centil 28 es igual a 66. La puntuación 66 corresponde al centil 28. El 28% de los casos tiene puntuaciones iguales o inferiores a 66. Otros tipos de cuantiles: - Deciles: 9 puntuaciones que dividen la distribución en 10 partes iguales, con el 10% cada una. Dk - Cuartiles: 3 puntuaciones que dividen la distribución en 4 partes iguales, con el 25% cada una. Qk Tema 3. Estadísticos Univariados. Los estadísticos tienen cuatro propiedades: 1) Tendencia central. 2) Variabilidad. 3) Asimetría. 4) Curtosis. 1) Medidas de tendencia central: representan la magnitud general de un conjunto de valores. Estrategias: - Tomar el más frecuente: cogemos el valor que más veces se repite. Aquí utilizamos la moda. Moda: es el valor con mayor frecuencia absoluta. - Tomar el que es superado por la mitad: cogemos el valor que está justo en el medio. Aquí se utiliza la mediana. Mediana: es el centil 50, según la distribución de frecuencias. - Tomar el promedio: aquí utilizamos la media aritmética. Media aritmética: es un factor equilibrante y se representa de la siguiente manera. x = ΣΧ i / N Es la suma de los valores partido del número. x = ΣΧi / N → ΣΧi = N · x Propiedades de la media: - Puntuaciones diferenciales: son las diferencias entre la puntuación directa (valores observados) y la media del grupo. Se representa de la siguiente manera. xi = Xi - X - La suma de las puntuaciones diferenciales, siempre es igual a 0. Σx = 0 - El promedio es igual a 0. æ = 0 Demostración: Σx = Σ (X – X) = ΣΧ - ΣΧ = ΣΧ – N·X = ΣΧ - ΣΧ = 0 En la distribución de frecuencias se aplican las mismas reglas a las frecuencias. Elección de una Medida de Tendencia Central: 1. Por defecto, se preferirá la Media, porque es el mejor estimador del parámetro. 2. Se optará por la mediana cuando: • La variable sea ordinal. • Haya valores extremos, que pudieran distorsionar el valor de la Media. 3. Se optará por la Moda cuando la variable sea nominal o cualitativa. Cómo distinguir cuándo aplicar la ponderada o la combinación lineal: Media Ponderada Media de una combinación lineal · Varios grupos · Un grupo · La misma variable · Dos o más variables · Buscamos la media de · Buscamos la media de ese grupo en la nueva todos los sujetos juntos variable en esa variable Asimetría: Índice de asimetría de Pearson: promedio de las puntuaciones típicas (z) elevadas al cubo. As = Σ(xi/Sx)³ = z³ En distribuciones con asimetría negativa, el resultado da valores negativos, en distribuciones con asimetría positiva, el resultado da valores positivos y en distribuciones simétricas, el resultado da valores cercanos a 0. Apuntamiento o Curtosis: Cuánto de apuntado está hacia el centro. (Es el promedio de las puntuaciones típicas elevadas a la cuarta potencia y a la que se le resta 3). Cr = Σ(xi/Sx)^4/N – 3 = (z^4) – 3 Tema 4. Transformaciones de puntuaciones. Puntuaciones típicas: reflejan el número de desviaciones típicas que un valor se separa de la media. zi = (Xi – X)/Sx Otra forma de encontrarnos la ecuación es de la siguiente: zi = (xi)/Sx Características de las puntuaciones típicas (z): ¿Cuánto valen la media y la varianza de z? Las puntuaciones típicas tienen siempre media 0 y desviación típica 1, por lo tanto, varianza, 1. Las puntuaciones típicas son universales. Escalas derivadas: si multiplicamos unas puntuaciones típicas determinadas por una constante, a, y les sumamos otra constante, b, las nuevas puntuaciones típicas tendrán como media la constante sumada (b), como varianza el cuadrado de la constante multiplicada (a²) y como desviación típica, el valor absoluto de la constante multiplicada ( |a| ). Yi = (a·zi) + b El coeficiente intelectual (CI), tiene siempre media 100 y desviación típica 15. Puntuaciones equivalentes: dos conjuntos de puntuaciones son equivalentes, si comparten las mismas puntuaciones típicas. En una escala derivada, las puntuaciones son equivalentes a la escala original. la Correlación de Pearson: rXY = Σ(zX·zY)/ N Otra manera de encontrarnos esta fórmula más desarrollada, es la siguiente: rXY = N·(Σ(X·Y)) – ΣX·ΣY/ √(N·ΣX² – (ΣX)²)·√(N·ΣY² – (ΣY)²) Hay una fórmula que relaciona la covarianza y la correlación: rXY = SXY/(SX·SY) → SXY = SX·SY·rXY Propiedades de la Correlación de Pearson: - Interpretación y valoración del coeficiente: su valor oscila entre -1 y +1. Si el resultado es un 0, la relación es nula y si el resultado es ±1, la relación es estrecha. - Suma y producto de constantes: Si Vi = a·Xi + b Wi = c·Yi + d Entonces rVW =rXY Cuando se transforman linealmente una o dos variables, la correlación entre ellas, no se altera. Con una excepcón: Si a y c (las constantes multiplicadas) son de distinto signo, entonces rVW = -rXY Otras cuestiones sobre la correlación de Pearson: - La comparación de correlaciones no se hará con r, sino con r². - Si la correlación es 0, no hay una asociación lineal, no se debe interpretar como una correlación nula. - Correlación no es lo mismo que causalidad. Matriz de correlaciones: es una disposición de coeficiente de correlación en forma de matriz en la que en las filas y las columnas aparecen los nombres de las variables y en cada casilla, la correlación de Pearson, entre la variable de la fila y la variable de la columna. Es simétrica con respecto a la diagonal principal. Tema 6. Combinación lineal de variables. Media de una combinación lineal de variables. Si Ti = a·Xi + b·Yi + d·Vi + K Entonces T = a·X + b·Y + d·V + K La media de una combinación lineal de variables, es igual a la misma combinación lineal de las medias de las variables combinadas. *Caso particular: Si las constantes multiplicadas son iguales a 1, y la constante sumada es igual a 0. Entonces => T = X + Y + … + 0. Varianza de una combinación lineal de variables. Casos de complejidad creciente: - Suma de dos variables: Ti = Xi + Yi → S²= Σ (Ti – T)²/ N = Σ[(Xi + Yi) – (X + Y)]²/ N = Σ[(Xi - X) + (Yi - Y)]²/ N = Σ[(Xi - X)² + (Yi – Y)² + 2·(Xi - X)·(Yi – Y) ]/ N = Σ (Xi - X)²/ N + Σ(Yi – Y)²/ N + Σ 2·(Xi - X)·(Yi – Y)/ N = (Σ Xi ²/ N) + (Σ Yi²/ N) + (Σ Xi·Yi/ N) → S²T = S²X + S²Y + 2·SXY La varianza de una suma de dos variables es igual a la varianza de la primera, más la varianza de la segunda mas dos veces la covarianza. *Como hemos estudiado anteriormente: rXY = SXY/(SX·SY) → SXY = SX·SY·rXY S²T = S²X + S²Y + 2·SXY → S²T = S²X + S²Y + 2·SX·SY·rXY - Resta de dos variables: Ti = Xi – Yi → S²T = S²X + S²Y - 2·SXY → S²T = S²X + S²Y – 2SX·SY·rXY La varianza de la suma es igual a la varianza de la resta cuando son linealmente equivalentes, es decir, cuando la covarianza es 0. *Si Ti es una combinación lineal de dos o más variables, en general su varianza no es igual a la misma combinación lineal de sus varianzas. Disposición cuadrada de coeficientes: Si en las casillas coinciden el mismo nombre de la fila y columna (diagonal), entonces se sustituye por la varianza. En el resto del cuadrado se disponen las covarianzas de las variables de filas y columnas. Cuando transformamos los valores de la diagonal principal, en las varianzas, esta matriz se denomina Matriz de varianzas/covarianzas. Suma de más de dos variables. Matriz de varianzas/covarianzas de dos variables: S²T = S²U + S²X + S²Y + 2·(SUX + SUY + SXY) Cuando una variable se define como la suma de un conjunto de variables, entonces su varianza es igual a la suma de todos los elementos de la matriz de varianzas y covarianzas. *Si Ti es una combinación lineal de dos o más variables, en general su varianza no es igual a la misma combinación lineal de sus varianzas. Tema 7. Regresión lineal. Regresión es sinónimo de predicción. Vamos a realizar tres tareas: - Identificar el modelo lineal: Tenemos que para cada individuo podemos obtener dos valores. Y: valor empírico Y': valor asignado por la función lineal. La diferencia de ambas es el error de predicción que se comete con esa recta. Se halla el error de todos los sujetos, para obtener aquella recta que indique el menor error posible de predicción. Para cualquier recta que propongamos, usamos la ecuación del promedio de los errores al cuadrado. La recta de regresión cumple el criterio de mínimos cuadrados. Ecuación que indica el mínimo: Σ(Y – Y')²/ N Como Y' = A + B·X Entonces: Σ(Y – (A + B·X))²/ N = Σ(Y – A – B·X)²/ N = 0 Para hallar el origen y la pendiente de la ecuación de regresión ( que cumple el criterio de mínimos cuadrados, se utilizan las siguientes ecuaciones: BYX = N·Σ(X·Y) – Σ(X)·Σ(Y)/ N·ΣX² – Σ(X)² AYX = Y – BYX·X Terminología: Variable con la que se hacen las predicciones → variable predictora = X = variable independiente. Variable en la que se hacen las predicciones → Variable criterio = Y = variable dependiente. Ecuación de regresión múltiple: Posee varias variables predictoras y una sola variable criterio. Y'=A + BX·X – BV·V– BW·W... Pasos en un estudio de regresión: 1. Diagrama de dispersión. 2. Si el modelo lineal es plausible, hallar r² y valorarlo. 3. Si el ajuste es bueno, obtener las ecuaciones. 4. A plicar el modelo a los casos que lo requieran. PROBABILIDAD. Tema 9. Introducción a la probabilidad. Terminología: mirar hoja 31 ejercicios y ejemplos hojas 32 y 33. Tipos de espacio muestral: - Finitos. - Infinitos: · Numerables. · No numerables. Probabilidad de un suceso: Número que cuantifica, en términos relativos, las opciones de verificación de ese suceso. Siempre es un número entre 0 y 1. Enfoques para su determinación: - Clásico o a priori: Aquí encontramos el principio de indiferencia: todos los elementos del espacio muestral, tienen las mismas opciones de ser verificados al realizar el experimento aleatorio. Cuando lo podemos definir, la probabilidad de un suceso es la frecuencia realtiva de ese suceso en el espacio muestral. P(B)= NB/N → Probabilidad de un suceso es igual, a los casos favorables entre los posibles. Consecuencias de la definición del enfoque clásico: a) 0 ≤ P(B) ≤ 1 b) Si B es un suceso, imposible P(B) = 0 c) Si B es un suceso seguro, P(B) = 1 d) P(B) + P(B)' =1 - Frecuencialista o a posteriori: N = número de veces que se repite el experimento aleatorio. NA/N = número de veces que se verifica A. P(A) = lim NA/N - Axiomático, formal o matemático. Probabilidad condicional: probabilidad de verificación de un suceso dado que se ha verificado otro. Se representa de la siguiente forma: P(A│B)= P(A) Teorema del producto: - Independencia de sucesos: dos sucesos son independientes si la verificación de uno, no altera la probabilidad del otro. Ejemplo: A y B son independientes, si P(A│B)= P(A) Ecuación del teorema del producto: P(A│B)=P(A∩B)/P(B) → P(A│B)·P(B)=P(A∩B) La probabilidad de verificar simultáneamente (la intersección) de dos sucesos undependientes, es igual al producto de sus probabilidades simples. Si A es independiente de B, B es independiente de A, se cumple la propiedad conmutativa. Tema 10. Variables aleatorias. Variable aleatoria: es una función que asocia un número real y sólo uno, a cada suceso elemental del espacio muestral de un experimento aleatorio. Las viariables aleatorias pueden ser directas o continuas. Mirar hojas 34 y 35 ejercicios. Función de probabilidad, f(X): es aquella que asocia a cada valor de la variable, la probabilidad de que adopte ese valor. f(Xi) = P(X = Xi) Función de distribución F(X): es aquella que asocia a cada valor de la variable, la probabilidad de que adopte ese valor o cualquiera inferior. F(Xi) = P(X ≤ Xi) Si para todo Xi eYi ; f(Xi│Yi) = f(Xi) Variables aleatorias continuas: Si queremos estudiar el área de una variable aleatoria continua, nos tenemos que fijar en la siguiente fórmula: ∫ f(X) dx = 1 Para hallar la probabilidad de un área izquierda determinada, la fórmula que habría que emplear sería: P(X ≤ a) = ∫ f(X) dx Para hallar la probabilidad de un área derecha determinada, la fórmula que habría que emplear sería: P(X > a) = 1- ∫ f(X) dx Para hallar la probabilidad de un área central determinada, la fórmula que habría que emplear sería: P(a ≤ X ≤ b) = [∫ f(X) dx] - [∫ f(X) dx] Tema 11. Modelos de Distribución de Probabilidad. Modelos para variables discretas. -Distribución uniforme: todos los valores con probabilidades no nulas, son equiprobables. Dado 1/6, que salga 1, 2, 3, 4, 5 ó 6. - Distribución binomial: se representa así → B (n;π). tiene que cumplir tres condiciones: · Que posea una variable aleatoria dicotómica (dos resultados posibles). Una de las dos posibilidades se llama condición y tiene una probabilidad que llamamos π, la otra posibilidad es 1- π. · Que tenga una secuencia de n ensayos independientes de esa variable aleatoria dicotómica. · Se define como una variable aleatoria como el “número de casos de esa secuencia en los que se cumple la condición”. Función de probabilidad: f(Xi) = ( )·π ·(1- π) Valor esperado y varianza: E(X) = n·π ; σ²(X) = n·π·(1- π) * Muestra Aleatoria Simple (M.A.S.) de tamaño n: es una secuencia de n variables aleatorias independientes y que tienen la misma distribucion de probabilidad. Modelos para variables continuas. -Distribución rectangular: todos los valores con probabilidades dentro del intervalo (1-0) son equiprobables. Tiene aspecto de rectángulo -Distribución normal: Tiene dos características importantes. Sale en variables que se ajustan a la distribución normal y la distribución rectangular. Tiene relevancia en la inferencia. Propiedades: · La distribución normal es simétrica y en el valor del eje de simetría, coinciden la media, la mediana y la moda. · Es asíntota por ambas colas, muy pequeño pero no llega a 0. · No existe una distribución normal, sino infinitas. Hay una familia de distribuciones, según μ y σ. · Los puntos de unflexión estan en ± una desviación típica (σ). · Una combinación lineal de variables normales, también es normal. · Nomenclatura: N (μ;σ): cuando nos referimos a uno en partiular se representa por (zp) valor tipificado con área izquierda igual a p. Regla de tipificación: la función de distribución asociada a un valor de una variable normal Xi, es igual a la de la tipificada de ese valor en la distribución normal unitaria. P (X ≤ Xi) = P [z ≤ (Xi -μ)/σ] Modelo de distribución Ji-Cuadrado. Condiciones de generación: Si: 1) z1, z2, z3,...,zk, son valores de una distribución normal unitaria, extraídos de forma independiente. 2) Formamos la variable aleatoria Ti = z1 + z2 + z3 +...+ zk Entonces: la variable aleatoria Ti se distribuye según el modelo Ji-Cuadrado, con K grados de libertad. Es decir, T -> Xk Propiedades: - No puede adoptar valores negativos. - Asimétrica positiva. - Asíntota en la cola derecha. - Tiende a la Normal cuando K -> ∞ - E(Xk) σ² (X²k) = 2·K Tema 12. Distribución muestral de un estadístico. Distribución muestral de un estadístico. X distribución muestral de la media. Normal (o t). p distribución muestral de la proporción. Binomial. S² distribución muestral de la varianza. X². rxy distribución muestral de la correlación. T de student. *Sobre las muestras aleatorias simples calculamos estadísticos muestrales. *Un estadístico muestral es una variable aleatoria. Distribución muestral de la media: distribución de probabilidad de los valores de medias aritméticas obtenidas en muestras aleatorias. La media de una m.a. s. se puede expresar como una combinación lineal de las variables: X = ΣX/n = (1/n)·X1+ (1/n)·X2 +...+ (1/n)·Xn X1: valor observado en primer lugar X2: valor observado en segundo lugar Xn: valor observado en n-ésimo lugar (donde todos los coeficientes son 1/n) X: valor esperado. Varianza. Forma de distribución. Caso 1: La variable es normal. Xi → N(μ;σ) a) Valor esperado. E(X) = (1/n)·E(X1) + (1/n)·E(X2) +...+ (1/n)·E(Xn) = (1/n)·E(Xi) + (1/n)·E(Xi) +...+ (1/n)·E(Xi) E(X) = n·(1/n)·E(Xi) = E(Xi) = μ b) Varianza. σ²(X) = (1/n²)·σ² + (1/n²)·σ² +...+ (1/n²)·σ² = (n/n²)·σ² = σ²/n σ(X) → Error típico de la media: desviación típica de la distribución muestral de la media. c) Distribución: Una variable aleatoria que sea una combinación lineal de variables aleatorias normales e independientes, también se distribuyen según el modelo normal. Caso 1. Si: A) X se distribuye N(μ;σ) B) Extraemos m.a. s. de n observaciones cada una. C) Calculamos la media aritmética (X) de las n observaciones en cada muestra. Entonces, los valores de esas medias se distribuyen como N(μ;σ/√n). Tema 13. Introducción a la inferencia estadística. - Estimación de parámetros por intervalos (Segundo curso). - Contrate de hipótesis estadísticas: un determinado parámetro es igual a un valor concreto. Obtenemos un estimador (estadístico) de ese parámetro: ¿Cómo de probable es obtener un estadístico tan alejado de ese valor del parámetro si fuera verdadera la hipótesis? Si la probabilidad es pequeña, la hipótesis es falsa; se ha obtenido algo poco probable. Si fuera verdadera: se rechaza. Si la probabilidad no es pequeña, la hipótesis puede ser verdadera; se ha obtenido algo esperable. Si fuera verdadera: se mantiene. Ejemplo de las ratas y el laberinto en forma de T. Las hipótesis experimentales se traducen en hipótesis estadísticas: probabilidad de salir por la izquierda (¿π = 0'50?). H0 : No están enseñadas (π = 0'50). H1 : Están enseñadas (π ≠ 0'50). - Si la H0 fuera verdadera → B (X; 8, 0'50). Si la H0 fuera verdadera, saldrían por la izquierda 4 ratas. ¿ Cuál es la conclusión si salen todas por la izquierda? Como el resultado es improbable, si la H0 fuera verdadera, se rechaza. ¿Y si salen 5 por la izquierda? Como el resultado es probable, si la H0 fuera verdadera, se mantiene. Elementos de un contraste. - Hipótesis: · Nula (H0): se refiere al parámetro μ. · Alternativa (H1). - Supuestos: · Son independientes de la observaciones (m. a. s.) · Ya conocemos σ. · La variable es normal (caso 1) o la muestra es suficientemente grande (caso 2) - Estadísticos de contraste y distribución muestral. z = (X- μ)/ (σ/n) → N(0;1) - Regla de decisión: El nivel de significación (α), es la máxima probabilidad que estamos dispuestos a aceptar, de cometer el error de rechazar una H0 verdadera; habitualmente, 0'05 ó 0'01. El nivel de confianza (1-α), es el complementario del nivel de significación. - Decisión y conclusión. Forma alternativa: z = 3'125 p = 0'0013·2 = 0'0026. Esto lo comparamos con α. Si p es mayor que α, se mantiene la hipótesis, sino, se rechaza. Nivel crítico (p): es el menor valor de α con el que se hubiera rechazado una H0. α se establece antes de obtener los datos; p se calcula después de obtener los datos. Contraste de hipótesis sobre la media, desconocida sigma. - Hipótesis: la H0 se refiere al parámetro μ. - supuestos: 1) independencia de las observaciones (m.a.s.) 2) desconocemos σ. 3) la variable es normal (como caso 1) o la muestra es suficientemente grande (como caso 2). - Estadístico de contraste y distribución muestral: (X – μ0)/ (Sn-1/√n): insesgada → tn-1 ← (X – μ0)/ (Sn/√n-1): sesgada Elementos de un contraste. Tipos de contrastes: Bilaterales: la evidencia para rechazar H0 puede consistir en obtener valores discrepantes tanto por exceso como por defecto. Unilaterales: la evidencia para rechazar H0 consiste en obtener valores discrepantes solo por exceso o por defecto: - unilateral izquierdo: efecto más pequeño. - unilateral derecho: efecto más grande. En la forma alternativa el valor p no se obtiene multiplicando por 2, sino que es directamente el área que el estadístico deja hacia el lado donde se sitúa la zona crítica.
Docsity logo



Copyright © 2024 Ladybird Srl - Via Leonardo da Vinci 16, 10126, Torino, Italy - VAT 10816460017 - All rights reserved