Docsity
Docsity

Prepara tus exámenes
Prepara tus exámenes

Prepara tus exámenes y mejora tus resultados gracias a la gran cantidad de recursos disponibles en Docsity


Consigue puntos base para descargar
Consigue puntos base para descargar

Gana puntos ayudando a otros estudiantes o consíguelos activando un Plan Premium


Orientación Universidad
Orientación Universidad

Estadística problemas, Ejercicios de Psicología

Asignatura: ESTA, Profesor: Josep Aarco Pallares, Carrera: Psicologia, Universidad: UB

Tipo: Ejercicios

2016/2017

Subido el 26/09/2017

maebaren-1
maebaren-1 🇪🇸

5

(1)

14 documentos

Vista previa parcial del texto

¡Descarga Estadística problemas y más Ejercicios en PDF de Psicología solo en Docsity! Distribucion de probabilidad bidimensional: conjunto de pares de valores de la variable aleatoria bidimensional acompaiiados de sus correspondientes probabili- dades conjuntas: La funci6n de distribuci6n conjunta es la expresi6n matem.:itica que nos llevani al cmculo de las probabilidades correspondientes a los diferentes valores de la va- riable aleatoria bidimensional. La funci6n de distribuci6n nos dani la cantidad de probabilidad que exista, su- puesto un punta (x,y) en x y a su izquierda y en y y por debajo; esto es, la funci6n de distribuci6n recogeni la cantidad de probabilidad existente en la zona seiialada en el grafico: F(oo;oo) = PCgr S 00;;2 S 00) = peE) = 1 F( -00; -00) = P(;r S -00;;2 S -00) = P(0) = 0 F(-oo;y) = P(0) = 0 F(x;-oo) = P(0) = 0 • F(x, y) ~ F(x, Y + k) si k> 0 F(x, y) ~ F(x + h, y) si h > 0 Es decir, la funcion de distribucion es monotona no decreciente. ( {X < ';1 s X + Ax\ • Probabilidad en un recinto rectangular: lR == ) , esto es, el y < ';2 s y + /).y 5.4.1. Distribuciones marginales para distribuciones discretas l\(X) = F(x,oo) = P(~1 :S x,~z :S (0) = :L :LP(~1 = Xi'~2 = Yj) "IXi",x"IYj ~ P(SI = xi,sz = Yj) = ~Pij = Pi- "IYj j que representa la probabilidad de que ;1 tome el valor Xl~ cualquiera que fuese el va- lor de ;z (medimos incertidumbre asociada a ;1)' Gnlficamente, la funci6n de cuan- tia calculada en un punto Xi consistirfa en sumar las probabilidades de los puntos (Xi Yj) para Xi fijo y variando Yj ~ Yj Yz Yl x· 1'i(X) = F(x,oo) = P(~1 :S x,;z :S (0) = :L Pi" "Ix;"'x 2: Pi ~ 0 2: :LPi- = 1 i Fi(Y) = F(oo,y) = P(~l :s; OO'~2 :s; y) = L POj VYj"Y • :LP'j =1 j 5.4.2. Distribuciones marginales para distribuciones continuas l\(x) =ix [ feu, v)dudv, ±CC1 ±oo [ f(u,v)dv = h(u) ±co obtenemos la funcion de densidad marginal de la primera variable ~1' y. por tanto: l\(x) = (X h(u)du J±oo Graticamente la funcion de densidad en un intervalo infinitesimal du consisti- ria en sumar, integrar a 10 largo de ~2' con la misma interpretacion que para el caso discreto: Para ~2: Razonando anaIogamente F;(y) =[ iY f(u,v)dudv, ahora bien, si integramos primero respecto a x: ±co ±co . ("" f(u, v)du = f 2 (v) J±co F;(y) =[' h(v)dv ±co Son distribuciones unidimensionales que sUrgen cuando se analiza la distribuci6n de una variable aleatoria ~1 condicionada a que ~2 tome un cierto valor, 0 viceversa. 5.5.1. Distribuciones condicionadas para distribuciones discretas f(x,y) f(x / y) = A(x) = --- f2(y) f(y I x) = f2(y) = _f_(x_,y_) A (x) Condicion necesaria y suticiente de independencia: X e Y son variables aleatorias estocasticamente independientes si y s6lo si: Distribuciones discretas: Pij = Pi' • P.j Vi, j Distribuciones continuas: f(x,y) = A(x)' f2(Y) V(x,y) A efectos pnkticos nos centraremos en el caso de variables aleatorias con dis- tribuci6n continua. Aunque se podrian haber abordado al mismo· tiempo los casos discretos y continuos haciendo uso de la notaci6n introducida a traves de la integral de Stieltjes. Recordemos que segUn dicha notaci6n la funci6n de distribuci6n unidimensional se expresaba de la forma: x If f(x)dx en el caso continuo F(x) = J±a> dF(x) = ±<X' :L P(s = Xi) en el caso discreto VXi:SX por 10 que pasar de un tipo de distribuci6n a otro es inmediato sin mas que sustituir integrales por sumatorios y funciones de densidad porprobabilidades puntuales. Se- gUn esto. y centrandonos en el caso continuo, podemos distinguir: a1,o =E[~:~] =[ [ x1yOf(x,y)dxdy =[ [ xj(x,y)dxdy = ±oo ±CO ±oo :too r ((~ \ [= J±~xV±~ f(x,y)dYjdx = ±~xft(x)dx = E[~d N6tese que si Sl Y S2 fuesen estocasticamente independientes, a1 ser fix, y) = = flex) . hCY), se tendrfa que a1,1 =fa:> fa:> xyf(x,y)dxdy =fa:> fa:> xyJj(x)· f 2 (y)dxdy = ±co ±oo :too ±co f.trs =fa:> fa:> (x - alOY(y - aOlY f(x,y)dxdy = E[(SI - aIOY(S2 - aOlYl :too ±oo 5.8. ANAuSIS DE LA DEPENDENCIA: REGRESION Y CORRELACION El objetivo al estudiar una variable aleatoria bidimensional es conocer el grado de relaci6n que existe entre las variables marginales. Dos pasos deben de seguirse en este intento: 1. Estudiar la asociaci6n que existe entre ambas variables y medir la intensidad de la relaci6n existente entre ambas variables. Este problema sera tratado bajo 10 que se denomina correlaci6n. 2. Obtener la po sible relaci6n funcional existente entre ambas variables, que permitini obtener valores de una de las variables en funci6n de los prefija- dos de la otra. El problema consistira en analizar una de las variables con- dicionandola a unos determinados comportamientos de la otra (analisis de la distribuci6n de probabilidad condicionada). Este problema recibe el nombre de regresi6n. Determina la cantidad de variaci6n conjunta que presentan las dos variables alea- torias de una distribuci6n bidimensional. En concreto, cuantificaremos la dependen- cia lineal, en cuyo caso se hablara de correlaci6n lineal. El coeficiente de correlaci6n lineal viene dado por la siguiente expresi6n: COV(~1~2) P = D(~1)D(~2) expresi6n que resulta ser el cociente entre la covarianza entre las variables y el pro- ducto de sus respectivas desviaciones tipicas marginales. • Al ser las desviaciones tipicas siempre positivas, el signo del coeficiente de correlacion depende del signo de la covarianza. • -1.:S:p.:S:1 = COV(~1~2) = E[(~l - E[~l])· (~2 - E[~2])] = E[(~l - E[~d)· (~2 - E[~2])] = P D(~1)D(~2) D(~1)D(~2) D(~1) D(~2) = E[(~1 - E[~1]). (~2- E[~2])] = E[c*. c*] = cov(l:* l:*) D(~1) D(~2) "'1 "'2 "'1 , "'2 donde ~; y ~; son las correspondientes variables tipificadas. Por las propiedades ya vistas: V[~; + ~;] = V[~;] + V[~;] + 2 cov(~; ,~;) ~ 0 V[~; - ~;] = V[~;] + V[~;] - 2 cov(~;, ~;) ~ 0 y teniendo en cuenta que la varianza de cualquier variable tipificada es uno, llega- mos al siguiente par de ecuaciones: de donde -1 .:S: P .:S: 1, como queriamos demostrar. • Si 0 < P < 1 supone que la cov(~1'~2) > 0, entonces se trata de una correla- cion directa 0 positiva. Las variables se mueven en el mismo sentido. Si -1 < P < 0 supone que la cov( ~1'~2) < 0, entonces se trata de una corre- lacion negativa 0 inversa. Las variables se mueven en sentido contrario. Si p = 1, la correlaci6n es perfecta y positiva. Si p = -1, la correlacion es perfecta y negativa. Si p = 0, entonces las variables estin incorrelacionadas y son independientes linealmente, aunque pudiera existir otro tipo de dependencia no lineal. La regresi6n analiza la forma de la dependencia entre las dos variables. Es un anilisis cualitativo, cuyo objetivo es encontrar una funcion que explique 10 mejor posible el comportarniento en probabilidad de una de las variables a traves de la in- formaci6n que suministre la otra. Llamamos regresi6n a la funci6n que facilita el valor medio de la distribuci6n de una variable condicionada a la otra. Sea S2/ S1' donde S2 es la variable condicionada (dependiente 0 explicada) Y Sj la variable condicionante (independiente 0 explicativa). £[S2 Is] = x] = 2: YjP(S2 Is] = x) = qJ](x) 'VYj que depende obviamente de la variable s]' Para cada valor x que tome s]' nos da el valor medio de s/s] = x. Sea S/S2' donde s] es la variable condicionada (dependiente) Y S2 la variable condicionante (independiente). £[S] IS2 = y] = ~XiP(S] IS2 = y) = qJ2(Y) I que depende obviamente de la variable S2' Para cada valor x que tome S2' nos da el valor medio de S/S2 = y. Sea s/Sj, donde S2es la variable condicionada (dependiente) Y s] la variable con- dicionante (independiente). La funci6n de regresi6n vendria dada por la expresi6n: qJ](X) = £[S2 Is]] =L"'", yf(y I x)dy b' = 1111 f.loz • Ambas rectas de regresion se coftan en el centro de gravedad de la distribu- cion conjunta, esto es, en (E[sd, E[sz]) = (aw, aOI)' • Las pendientes b y b' tienen igual signo, e1 que da la covarianza. by b' reci- ben el nombre de «coeficientes de regresion». • El cuadrado del coeficiente de correlacion lineal es la media geometrica de los coeficientes de regresi6n: b. b" = f.l11f.l11 = pZ ~ P = .Jj;7; f.lZOf.l02 siendo su signo el de la covarianza. • Si existe correlaci6n (p::j:. 0), las rectas de regresion poseen inclinaci6n en el mismo sentido, pues los signos de b y b' son iguales. Si p =1 0 P = -1, las rectas de regresion son coincidentes. • Si existe incorrelacion (p = 0), las rectas de regresion son paralelas a los co- rrespondientes ejes de coordenadas (el eje de la variable independiente 0 ex- plicativa). • Las rectas pueden expresarse en funcion de pZ, ya que: zb = f.l11 . f.l11f.loz = --.!!:iL . f.loz = pZ f.loz f.lzo f.lll f.loz f.lzo f.loz f.lll f.lll Estadística. 282 Problemas resueltos y, análogamente, En consecuencia: pap Ha Ln q Br(2) = 0 +2 pex — 0%) 11 2.00) = 0 LAOS a) 11 9 Ediciones Pirírade misma para distintos valores de la variable 1', de la que depende. e) Para calcular E[X / Y = 0] 10 primero que debemos ver es si esa expresi6n esta definida. Como hemos puesto de manifiesto en el apartado anterior, s6lo esta de- finida la probabilidad condicionada y, por tanto, la funci6n de regresi6n para valores y comprendidos entre uno y dos. Por tanto, para y = 0, la distribuci6n condicionada no esta definida, luego la expresi6n pedida tampoco. f> Para el analisis de definici6n de esta expresi6n E[X / Y = 1] nos sirve el ar- gumento anterior. Asf, como y = 1 E [1,2], la expresi6n sf esta definida. Para calcularla, haremos uso de la funci6n de regresi6n, particularizando para y = 1: 1 _ E X / Y _ 1 _ [3(2Y + 3)] _ [3(2'1 + 3)] _ ~ qJx// ) - [ -] - 4(3y + 4) y=! - 4(3'1 + 4) - 28 a) Toda funci6n, para que sea funci6n de densidad, debe verificar las dos si- guientes condiciones: 1. f(x,y) '?!. 0 2. I:oo I:oo f(x,y)dxdy = 1 La primera de las condiciones se cumple trivialmente siempre que k ~ O. Vea- mos que valor debe tomar k para que se cumpla la segunda de las condiciones: Por 10 que se comprueba que efectivamente se cumple la condici6n de indepen- dencia, ya que: x f(x,y) = x(l- y) = h(x)· fl(y) = -·2(1- y) = x(1- y) 2 a) Toda funci6n para que sea funci6n de densidad debe verificar las dos si- guientes condiciones: 1. j{x, y) ~ 0 Vex, y) E Rl 2. roo roo f(x,y)dxdy = 1 La primera de las condiciones se cumple trivialmente siempre que k ~ O. Vea- mos que valor debe tomar k para que se cumpla la segunda de las condiciones: roo roo f(x,y)dxdy = foo foo k(xl + y)dxdy = k {I: (Xl + y)dydx = ~ k [ ( x'y + ~): <Ix ~ k [ ( 2x' + ~) <Ix ~ 2k I: (x' + l)<Ix ~ { 3 _(X2 + y) j(X,y) = ~ b) La probabilidad pedida, que es el valor de la funci6n de distribuci6n con- junta F(0,75; 1), puede ser determinada a partir de la funci6n de densidad conjunta de la forma siguiente: J O,75 JI JO JO P(;I :s; 0,75;;2 :s; 1) = ±oo ±oo j(x,y)dxdy = ±oo ±oo j(x,y)dxdy + I O,75 II IO,75 II 3 + j(x,y)dxdy = _(x2 + y)dxdy = ° ° ° 08 31°'75 ( l)1 31°'75 ( 1)= - x2y + - dx = - x2 + - dx = 80 2 ° 80 2 =~[~+2.X]0'75 =~((0,75)3 + 0,75) = 832 0 83 2 3 = -(0,14 + 0,375) = 0,19 8 c) Dada una variable bidimensional, la funci6n de densidad marginal de una de ellas se obtiene mediante la integraci6n de la funci6n de densidad conjunta res- pecto de la otra variable en todo el dominio posible de esta. As! la funci6n de den- sidad de ;1 sera: { ~(X2 + 1) hex) = 4 ° d) La distribuci6n de ;2 condicionada a ;1 estara definida para aquellos valo- res de ;1 en los que su funci6n de densidad marginal sea no nula, siendo la funci6n f(y / x) = f(x,y) = 3/ 8(x2 + y) 1 x2 + Y 1 0 (x2 + y) fr(x) 3/ 4(x2 + 1) = 2" 0 x2 + 1 = 2(x2 + 1) { __ 2 1__ O(X2 + y) f(y / x) = ~(X + 1) Si y < 0: F(y / x) = fY f(v / x)dv = fY Odv = 0 ±oo ±oo fy 1 fYSiOsy<2:F(y/x)= f(v/x)dv= 2 (x2+v)dv=±oo 2(x + 1) 0 y(2x2 + y) 4(x2 + 1) Si 2 s y:F(y / x) = fY f(v / x)dv = f2 f(v / x)dv + JY f(v / x)dv = F(2) = 1 ±oo ±oo 2 AS!, 'V x E [0,1] o y<O y(2x2 + y)F(y / x) = J'----....:e.- 0 S Y < 2 4(x2 + 1) J +OO J+oo II 3 3 II 3 [ 3]1j(x,y)dxdy = k -idy = k- idy = k- Z- ±oo ±oo rO 2 2 0 2 3 0 3 1 k =k--=-=1~k=2 23 2 As!, para k = 2 se verifican las dos condiciones; luego ese es el valor pedido. Por tanto, la funci6n de densidad conjunta toma la expresi6n: { 2(X + y) j(x,y) = o Si x E [0,1] J; (x) = I j(x,y)dy = II 2(x + y)dy = 2[XY + i..]1 Y Y-x 2 y=x Si x $. [0,1]: jl(x) = 0 Por tanto, { 2X + 1- 3x2 J;(x) = o hey) =fx j(x,y)dy = fY 2(x + y)dx = 2[X 2 + xy]Y = 2[t. + y2] = 3y2 x-O 2 x-O 2 c) La funci6n de regresi6n de Y sobre X estani definida para aquellos valores de X donde este definida la funci6n de probabilidad condicionada, esto es, para aque- 110svalores de X que verifiquen: hex) :;t 0, es decir, ';f x E [0,1]. Debe observarse, ademas, que para cada x los valores posibles de y s6lo son x :s; y :s; 1, Y por ello la distribuci6n condicionada se definira, para cada x, por la funci6n de densidad: { 2(X + y) -r () = !(x,Y) = 2x + 1 - 3x2 Jy/x Y hex) °
Docsity logo



Copyright © 2024 Ladybird Srl - Via Leonardo da Vinci 16, 10126, Torino, Italy - VAT 10816460017 - All rights reserved