Apuntes de Estadistica - 2012

March 17, 2018 | Author: Carlos Egoavil De la Cruz | Category: Normal Distribution, Standard Deviation, Variance, Estimator, Statistics


Comments



Description

Calzada Benza, José (1982): Métodos Estadísticos para la Investigación, 5ta edición.APUNTES SOBRE ESTADISTICA APLICADA 4.7 COEFICIENTE DE VARIABILIDAD. No es posible comparar fácilmente las desviaciones estándar de diferentes poblaciones o muestras, siendo esto tanto más difícil, si difieren por su naturaleza y la unidad de medida empleada (alturas, pesos, porcentajes. etc.). Es por esto, que para fines comparativos se acostumbra a expresar la desviación estándar en porcentajes de sus respectivos promedios, en la forma siguiente: CV = s x 100 x Aplicando esta ecuación a la muestra del primer ejemplo de la sección 4.5, (véase página 61) tenemos: CV = 3 .3 x 100 = 13.8 % 24 Para saber si en una particular característica o variable el valor obtenido del CV es muy alto, está dentro de lo normal o muy bajo, se requiere experiencia dentro de las condiciones del lugar en que se trabaja. El coeficiente de variabilidad es especialmente útil cuando se desea comparar variabilidades de diferentes poblaciones o muestras. En tales casos, las desviaciones estándar no resultan un buen medio de comparación, pues puede suceder que una muestra que tiene menos valor numérico en su s que otra, sea la de mayor coeficiente de variabilidad relativa. Así por ejemplo, dos muestras de medidas de largo de mazorca de dos variedades de maíz pueden dar los siguientes resultados: x = 7 cm. x = 12 cm. s = 2.10 cm. s = 2.40 cm. CV = 30 % CV = 20 % En los experimentos de rendimientos agronómicos y ganaderos los coeficientes de variabilidad varían generalmente entre 9 y 29%, valores que exceden estos límites pueden considerarse extremos. En cambio en las investigaciones de química los coeficientes son bastante más bajos debido a que no están afectados por tantos factores de variabilidad como los anteriores. Por igual razón los experimentos en los que se analizan datos de calidad o de características son bajos (4 a 8%), por ejemplo largo de mazorca, porcentaje de fibra en algodón, etc. Critica contra el coeficiente de variabilidad: Pongamos un ejemplo, supongamos que hemos sometido a un grupo de estudiantes de inglés a una prueba de vocabulario con 40 preguntas, obteniendo un promedio de respuestas de 25 con s = 5, el CV = 20. Pero supongamos que agregamos al examen 10 palabras muy fáciles y por consiguiente muy conocidas por todos los estudiantes. El promedio de respuestas por alumno subirá de 25 a 35, pero la s seguirá siendo 5, esto hace caer el CV de 20 a 14, sin embargo los estudiantes son los mismos. 1 de 59 Calzada Benza, José (1982): Métodos Estadísticos para la Investigación, 5ta edición. 4.8 MODELO ADICTIVO LINEAL 4.9 DESVIACION ESTANDAR DE LOS PROMEDIOS ( x ’s) De una población infinita o finita pero muy grande es posible sacar un sinnúmero de muestras diferentes, todas de igual tamaño, y cada una con su propio promedio. Estos promedios ( x ’s) formarían una distribución de frecuencia con la forma de una curva normal. Esta curva normal sería más homogénea que la curva normal de la población de X's de donde provienen las muestras; tanto más homogénea (curva más angosta y parada), cuanto mayor sea n de las muestras. Como ejemplo consideremos que tenemos una población hipotética de N = 5, de la cual extraemos todas las muestras diferentes posibles de n = 2. El número de tales muestras, es el número de combinaciones de N elementos tomados de 2 en 2, este número está dado por: NC n = N! n!( N − n)! = 5! 5 x4 x3 x 2 x1 = = 10 2!(5 − 2)! 2 x1(3 x 2 x1) A continuación se da la población original (hipotética), las 10 muestras y los promedios de estas muestras: Población original (Xi) A: 1 B: 30 C: 32 D: 12 E: 29 Diez muestras diferentes de n=2 A, B 1, 30 A, C A, D A, E B, C B, D B, E C, D C, E D, E 1, 32 1, 12 1, 29 30, 32 30, 12 30, 29 32, 12 32, 29 12, 29 Población de promedios de las muestras de n = 2 15.5 16.5 6.5 15.0 31.0 21.0 29.5 22.0 30.5 20.5 ∑X i = 104 µ = 20.8 ∑x i = 208.0 µ = 20.8 Nótese en primer lugar que el promedio de la población original y el de la población derivada son iguales, esto µ = µđ = 20.8. Nótese también que la variabilidad de la población derivada es menor que la de la población original. Hallemos el valor de σ de la población original, esto es: σ= 12 + 30 2 + ..... + 29 2 − (104) 2 / 5 = 12.221 5 2 de 59 Calzada Benza, José (1982): Métodos Estadísticos para la Investigación, 5ta edición. A continuación con la misma formula calcularemos σ de la población de promedios, a la que por ser de promedios representamos por σ x ; esto es: σx = 15.5 2 + 16.5 2 + ..... + 20.5 2 − (208) 2 / 10 = 7.48 10 Esta desviación estándar de los promedios también puede ser deducida a base de σ de la población original con la formula que se da a continuación, que se emplea para poblaciones finitas relativamente pequeñas. σx = σ n x N −n N −1 5−2 = (8.64) (0.866) = 7.48 5−1 (4.9.1) Así sustituyendo valores en la formula con los de nuestro ejemplo, tenemos: σx = 12.221 2 x Nótese que es el mismo resultado que hemos tenido anteriormente para σ x El factor de ( N − n) /( N − 1) de la formula anterior se denomina fracción de muestreo, y sólo tiene importancia cuando el tamaño de la población original es relativamente pequeño y el tamaño de la muestra es relativamente grande (caso de nuestro ejemplo), pero en los casos frecuentes de poblaciones grandes y muestras chicas, este factor prácticamente se convierte en uno; así por ejemplo, si N = 100,000 y n = 100, tenemos (100,000 − 100) /(100,00 − 1) = 0.998 Es por esto que la formula anterior usualmente se simplifica, tal como se ve a continuación: σx = σ n = σ2 n (4.9.2) Como regla general de trabajo diremos que la fracción de muestreo debe omitirse de la formula, cuando el tamaño de muestra (n) es menor del 10% del tamaño de la población (N). Como en la práctica σ de la población original es estimada por s de la muestra, entonces las formulas (4.9.1) y (4.9.2) se transforman en las formulas siguientes: sx = sx = s n s n x N −n N −1 s2 n (4.9.3) = (4.9.4) 4.10 DESVIACION ESTANDAR DE LAS DIFERENCIAS DE LOS PROMEDIOS ( d ’s) Consideremos que tenemos dos poblaciones originales A y B y que extraemos una muestra n1 y n2, si hallamos la diferencia entre los promedios x 1 y x 2 y la representamos por d , tenemos que este valor es una estimación de la diferencia entre los promedios de las dos poblaciones o sea µA – µB = µ d . Si repetimos esta operación de extraer pares de muestras, 3 de 59 Calzada Benza, José (1982): Métodos Estadísticos para la Investigación, 5ta edición. encontraremos que hay diferencias entre las d ’s, lo que quiere decir que hay variabilidad entre las d ’s. Siendo siempre n1 y n2 constantes, tendríamos tal cantidad de valores de d que podríamos considerar una distribución de diferencias de promedios de muestras, cuya forma sería la de una curva normal si es que las poblaciones de A y B se ajustan a la curva normal. Toda distribución de diferencias tiene como promedio la diferencia entre los promedios de las poblaciones de donde provienen. A esta diferencia es a la que hemos representado por µ d y como desviación estándar σ d , a ésta la denominamos desviación estándar de diferencias. El parámetro σ d es estimado por la medida estadística s d , y su valor está basado en dos muestras extraídas al azar de las poblaciones originales. La forma de calcular su valor cambia, dependiendo de: 1º.- Si los tamaños de las muestras son iguales o no. 2º.- Si las variancias de las poblaciones son homogéneas o no ( 1 ) Según esto se pueden presentar los casos A, B, C y D, siguientes: (A) Cuando las variancias son homogéneas y n1 y n2 = n sd = s + s2 s2 2 ; siendo s2 = 1 n 2 2 2 = Variancia Común (B) Cuando las variancias son homogéneas y n1 ≠ n2 sd = (n − 1) s1 + (n 2 − 1) s 2 s2 s2 ; siendo s2 = 1 + (n1 − 1) + (n 2 − 1) n1 n 2 2 2 = Variancia Común (C) Cuando las variancias no son homogéneas y n1 y n2 = n sd = s1 s + 2 n n 2 2 (D) Cuando las variancias no son homogéneas y n1 ≠ n2 sd = s1 s + 2 n1 n2 2 2 4.11 CARACTERISTICAS DE LA DESVIACION ESTANDAR (σ) 1.- La desviación estándar es siempre un valor positivo. 2.- La desviación estándar es influenciada por todos los valores de la muestra. 3.- Mayor influencia ejercen los valores extremos que los que están próximos al promedio. Esto se debe a que todos los valores son elevados al cuadrado en la computación de la desviación estándar. 4.- Si en una distribución de frecuencia ajustada a la curva normal de valores de X's, se ( 1 ) La prueba de homogeneidad de variancias se vera al tratar de la Distribución de F. 4 de 59 Calzada Benza, José (1982): Métodos Estadísticos para la Investigación, 5ta edición. levanta una ordenada a uno y otro lado de µ a una distancia igual a σ (desviación estándar de la población original), esto es µ ± σ, el 68.26 % de los valores de Xi quedan encerrados entre estos límites. Entre µ ± 2σ, el 95.46 % quedan encerrados entre estos limites. Entre µ ± 3σ, el 99.73% quedan encerrados entre estos límites. Dib. (4.11.1) Limites y porcentajes del total de las X’s que quedan encerrados 5.- En forma similar sucede de que en una distribución de frecuencia ajustada a la curva normal de valores de x ’s, si se levanta una ordenada a una y otro lado de µ x a una distancia igual a σ x (desviación estándar de la población de promedios de muestras), esto es µ x ± σ x , el 68.26 % de los valores de x i quedan encerrados entre estos límites. Recuérdese que µ x = µ Entre µ x ± 2 σ x , el 95.46 % quedan encerrados entre estos límites. Entre µ x ± 3 σ x , el 99.73 % quedan encerrados entre estos límites. 6.- Igualmente sucede que en una distribución de frecuencia ajustada a la curva normal de valores de d's, si se levanta una ordenada a uno y otro lado de µ d a una distancia igual a σ d , (desviación estándar de la población de diferencias entre promedio de muestras), esto es µ d ± σ d , el 68.26 % de los valores de d i quedan encerrados entre estos límites. 4.12 DISTRIBUCION DE z PARA VALORES DE PROMEDIOS ( x ’s) Si de una distribución de valores de x 's se conoce µ y σ x se puede deducir un valor para cada valor x de esta distribución, mediante la formula siguiente: z z= z x−µ σx Aplicando esta fórmula a cada valor de x , resultaría una distribución de valores de forma de la curva de la distribución de distribución de x de donde proviene. Ejemplo: z' s. La es igual a la forma de la curva normal de la Si una distribución de x está formada por promedios de muestras de alturas de alumnos de n = 9, con µ = 1.60 y σ = 0.10 m, resulta que σ x = σ n = 0.10 9 = 0.033 Si en la distribución de x 's hay digamos 2,000 muestras con promedios iguales a µ , esto 5 de 59 Para que quede encerrado este porcentaje. así si (n .60 m.633 .46 % de todos los valores de valores de z de esta distribución. por consiguiente 0 ± 2. es preciso sustituir el 2 por un valor tabular que hay que buscar en la Tabla de t con los grados de libertad de la muestra. La forma de la curva de la distribución de t no es igual a la forma de la distribución de x de donde proviene. puede transformarse en la correspondiente distribución de comunes: 1. pero en todas ellas 0 ± 2 no encierran el 95.. Entre µz ± 2σz = 0 ± 2 se encuentra el 95. Sin embargo.60 -1. 6 de 59 .033 = 1.60 + 0. de la que se obtiene s .60) / 0. etc.46 % de los valores de t.El promedio de cada una de estas distribuciones de z es µz = 0 2.73 % de todos los En la práctica.. resultan los valores de la distribución de t correspondiente.633. luego la formula de la distribución de t es: t = n .Calzada Benza. al transformarlos en valores de z todos dan z = 1.60 . Entre µz ± 3σz = 0 ± 3 se encuentra el 99. 4. Es por esto que ( x − µ ) / s x da un x−µ sx En la misma forma que hemos visto anteriormente. estos promedios cuyos µ darán 2. Esto es z = (1. todas las cuales tienen las siguientes características µz + σz = 0 ± 1.Entre z . el promedio de cada una de estas distribuciones de t es 0 (esto es µ t = 0).13 DISTRIBUCION DE t PARA VALORES DE x ’s z de esta distribución.). (tal como hemos visto que sucede con la distribución de la z). y de aquí se deduce s x = s valor que no es z sino t. De aquí que cualquiera que sea la distribución de x (promedios de muestras de altura de alumnos o promedios de muestras de lechones.26 % de todos los valores de z de esta distribución. de las distribuciones de x se desconoce σ x . el valor tabular que le corresponde es 2.567.306.033 = 1. al aplicarles la fórmula de iguales a z . José (1982): Métodos Estadísticos para la Investigación. darán valores de z = − 1. aplicando esta fórmula a cada valor de una distribución x .000 valores de z = 0. Igualmente los valores de x que sean iguales a µ − σ x = 1.1) = 8. es iguales a 1.0. por lo que este parámetro tiene que ser estimado en base de los datos de la muestra generalmente de tamaño pequeño (n menor de 30). El estadístico s x si bien es un estimador de σ x .La desviación estándar de cada una de estas distribuciones de z es σz = 1 3..46 % de los valores de t de esta distribución. sin embargo no es igual. se encuentra el 68.306 da dos ordenadas dentro de las que se encuentra el 95.033 = 1. La Tabla de t está al final del libro.600) / 0. Esto es (1.1.033 = 0. 5ta edición.. valores son Los valores de x que sean iguales a µ + σ x = 1. Es tanto más baja y explayada cuanto menor es el tamaño n de la muestra. o sea con 8 grados de libertad. Esto lo representamos simbólicamente en la forma siguiente: P ( . y la curva de la distribución de t que corresponde a (n .1) = 4. 4. Este valor que queda fuera se representa en forma general por la letra griega alfa (α). etc. (4.46 % o 0. En la práctica se acostumbra a indicar el porcentaje o tanto por uno que queda fuera de las ordenadas. Dib. Así fuera de 0 ± 2.95 7 de 59 .05 = .1) lo representamos en el Dibujo (4. 5ta edición.13.306) = 0.1) por v.05 = 2.). producción de leche.95 < 2. de cualquier población (altura de alumnos.95.13. ó tg > 2. tenemos: P ( .14 LIMITES DE CONFIANZA PARA µ Teniendo en cuenta lo que hemos visto para la distribución de t.306 < ( x .1) = 8 y (n .306 y t0. hay 0.1) = 4.05 por uno o 5% de probabilidades de que dicha muestra dé un valor de tg que esté fuera de las ordenadas . redondeando 0.t0.2.306. diámetro de troncos. A (n .1) = 8 para encerrar 95.1) = 8.2.t < -2.306 queda 0. A continuación se da el dibujo que incluye la distribución normal de las x ’s y la curva de la distribución de t que corresponde a muestras de (n .95 Si sustituimos tg por su formula.Calzada Benza.306 s x ) = 0.306) = 0.µ )/ s x De donde resulta: P ( .2.306. sabemos que: Si extraemos una muestra de n = 9.µ) < 2.2. José (1982): Métodos Estadísticos para la Investigación. Hemos visto que 2.1) Curvas de las distribuciones de t que corresponden a (n .9546 por uno.05 Así también: P ( .306 s x < ( x .05 de la distribución.306) = 0.306 < tg < 2.306 es el valor de la ordenada de la distribución de t para (n . 306 s x ) > x .2.x . 8 de 59 . P P ( . y deducir su x y su s x y sustituir estos valores en la ecuación de estos limites.306 s x ( x + 2.95 De aquí que entre el l2 y l1 (o sea entre estos dos límites) se encuentra el promedio de la población original con 95 % de probabilidades. Para otros tamaños de muestra. 5ta edición. Para determinar estos límites habría que sacar una muestra de n = 9. José (1982): Métodos Estadísticos para la Investigación.2.µ < .Calzada Benza. 2.306 s x < > .306 s x ) = = 0.95 µ En forma simplificada: P ( l2 > µ > l 1 ) = 0.306 cambia.95 0.x + 2. debiendo ser buscados los nuevos valores en la Tabla de t con los grados de libertad de la muestra en cada caso. 5 = x1. 7 = x 3. con 3 GL 1 4 SC dentro de B = SC dentro de B = Totales de SC y GL dentro de tratamientos = 36 con 9 GL La variancia común o Error Experimental o Variancia dentro de Tratamiento : sc2 = 1/3 (sA2 + sB2 + sC2) = 1/3 ⎜ = ⎛ SCdeA + SCdeB + SCdeC ⎞ ⎟ GL ⎝ ⎠ SCdeA + SCdeB + SCdeC 3(GL) = Total _ de _ la _ SC _ dentro _ de _ Tratamientos 36 = =4 Total _ de _ los _ GL _ dentro _ de _ Tratamientos 4 = Error Experimental Variancia entre Tratamientos : s2 entre tratamientos = 722 SC = 12 GL 202 + 242 + 282 − 722 /(4 x3) 8 10 = = = 4 (3 − 1) 2 9 de 59 . Totales : Promedios : SC dentro de A = 22 + 62 + 4 2 +82 202 = 20. C 8 = x31 6 = x32 7 = x33 7 = x34 28 = x3. 6 = x 2. B 7 = x21 3 = x22 8 = x23 6 = x24 24 = x2.Calzada Benza.4 ANALISIS DEL DISEÑO COMPLETAMENTE RANDOMIZADO CON MAS DE DOS TRATAMIENTOS Consideremos que 12 alumnos procedentes de 3 centros de enseñanza han sido sometidos a un examen con el fin de determinar si hay diferencia en el grado de preparación impartido por los centros de enseñanza. con 3 GL 1 4 82 + 62 + 7 2 +7 2 282 = 2. José (1982): Métodos Estadísticos para la Investigación. habiéndose obtenido los siguientes resultados sobre un máximo de 10 puntos. Ejemplo: A 2 = x11 6 = x12 4 = x13 8 = x14 20 = x1. 1er. 5ta edición. 5. con 3 GL 1 4 72 + 32 + 8 2 +62 242 = 14. Ejemplo: A 1 5 3 7 Totales : Promedios : 16 4 B 7 3 8 6 24 6 C 9 7 8 8 32 8 Si se realizan las computaciones en la forma que hemos visto anteriormente. con lo que resulta: 2do. Nótese que la suma de los GL de Entre Tratamientos y Dentro de Tratamientos es igual a los GL de Total. esto es: 2 + 9 = 11.. con 11 GL 10 de 59 . tenemos “SC entre Tratamientos" o "SC de Totales de Tratamientos" = (162 + 242 + 322)/4 . + 82 + 82 – 722 / 12 = 68. Esto sucede en todos los análisis de este diseño.4. con 9 GL SC Total = 12 + 52 + . con 3 GL SC dentro de C = 92 + 72 + 82 + 82 – 322 / 4 = SC total dentro de tratamientos 2.1) Cuadro de Análisis de Variancia Fuentes de Variabilidad Entre Tratamientos Dentro de Tratamientos Total SC 8 36 44 GL 2 9 11 CM 4 4 = sc2 - Los siguientes pasos que se realizan utilizando la sc para someter a prueba la hipótesis nula de µA = µB = µC (en la forma ya conocida)..722/12 = 32. Variancia Total : s2 Total 22 + 62 + . y sucede lo mismo con las SC. José (1982): Métodos Estadísticos para la Investigación. con 3 GL SC dentro de B = 72 + 32 + 82 + 62 – 242 / 4 = 14.. razón por la cual. con 2 GL SC dentro de A = 12 + 52 + 32 + 72 – 162 / 4 = 20. nos conducen a la conclusión de que no se llega a probar que hayan diferencias en el grado de preparación de los alumnos de los tres centros de enseñanza. + 7 2 + 7 2 722 − SC 1 12 = 44 = 4 = = 11 11 GL Con las SC y los GL de estas tres variancias confeccionamos a continuación el cuadro siguiente: Cuadro (5. . . esto es: 8 + 36 = 44.Calzada Benza. 5ta edición. una vez que se ha hallado la SC del Total y Entre Tratamientos por diferencia se puede encontrar la de Dentro de Tratamientos. ... Ahora a los 4 resultados de A restémosles 1 y a los 4 de C sumémosle 1. con 3 GL = 36. .. esto es 17. La simbolización usada para indicar la sumación de las repeticiones de un tratamiento cualquiera es (los ejemplos que se dan están relacionados con los datos de las tres muestras dadas al comienzo de la Sección 5. tenemos: ∑ (∑ X ij ) = i =1 j =1 r ∑∑ X i j ij = ∑X ij ij = ∑X i i. y a Dentro de Tratamientos la denominaremos Error Experimental o simplemente Error. X i .2) Cuadro de Análisis de Variancia Fuentes de Variabilidad Entre Tratamientos Dentro de Tratamientos Total SC 32 36 68 GL 2 9 11 CM 16 4 - La fuente de variabilidad dentro de tratamientos corresponde a las repeticiones. Una explicación más amplia sobre lo que son factores anidados y factores cruzados la tendremos en el capítulo sobre experimentos factoriales. esto es 72. j Representa el total de los tratamientos de una repetición cualquiera.Calzada Benza. X . por ejemplo el B. 5ta edición. Al valor X . la simbolización es: ∑X j =1 t r 2j = 7 + 3 + 8 + 6 = 24 = X 2. 7 + 3 + 8 + 6 = 24. X 1 j Representa el resultado de una repetición cualquiera del tratamiento 1 o A. pero en cambio el CM entre tratamientos ha pasado de 4 a 16. = (2 + 6 + 4 + 8) + (7 + 3 + 8 + 6) + (8 + 6 + 7 + 7) = 72 11 de 59 . lo cual no influye en la desviación estándar. = X . lo cual se debe a que los datos de las muestras A y C han variado en cantidades constantes. Si lo que queremos es representar la suma de las sumaciones de las repeticiones de todos los tratamientos. Al comparar los dos cuadros anteriores observamos que no ha variado el CM dentro de tratamientos. X .. = 2 + 6 + 4 + 8 = 20. cuyo resultado sería el Gran Total. X i 2 Representa el resultado de la segunda repetición de un tratamiento cualquiera. lo cual se debe a una mayor diferencia entre los promedios de las muestras. 8 + 6 + 7 + 7 = 28 Si queremos referir a la sumación de las repeticiones de un tratamiento. . De aquí pasamos al Cuadro de análisis de Variancia. Cuadro (5. X . ∑X j =1 r ij = X i. José (1982): Métodos Estadísticos para la Investigación. y el factor tratamientos es un factor cruzado. por lo que decimos que el factor "repeticiones" es un factor anidado. Representa el tota] de las repeticiones de un tratamiento cualquiera. En lo sucesivo a la fuente de variabilidad Entre Tratamientos la denominaremos simplemente Tratamientos.4): X i j Representa el resultado de una repetición y tratamiento cualquiera. 1 Representa el total de los tratamientos de la primera repetición. Representa el total de las repeticiones de todos los tratamientos. le llamamos Gran Total. .4. Simbolización de la suma de los cuadrados de las repeticiones de un tratamiento cualquiera. José (1982): Métodos Estadísticos para la Investigación. + .+7 = 44 − rt 12 Como la suma de las SC ''Entre” y "Dentro" de tratamientos es igual a la SC Total. 2 2 2 2 = 2 + 6 + 4 + . = rt 2 ∑x i i . si de la población de alumnos cuyos pesos tiene la variancia σ 2 . las variancias de 12 de 59 . Explicamos esto. / r x ..Calzada Benza. ∑ j 2 X ij = 22 + 62 + 42 + 82 = 120 . etc.⎞ ⎟ r ⎠ 2 i = ⎜ 2 2 + 6 2 + 4 2 + 82 − ⎛ ⎝ 202 ⎞ ⎟ + etc. . i i 2 = 202 + 242 + 282 = 1760 El promedio de las repeticiones de un tratamiento es: El promedio general de un experimento es: x i. = X i. = X... / rt = 72 / 4 La suma de las SC Dentro de Tratamientos queda simbolizada en la forma siguiente: Total de las SC Dentro de Tratamientos = ∑ i ⎛ ⎜ ⎝ ∑ j X 2 i j − X .. por diferencia se puede obtener la SC “Dentro de tratamientos”. r x . extraemos completamente al azar tres muestras de n = 10 cada una.4 SC Total = ∑ ij 2 X ij 722 x 2 .... 72 + 32 + 82 + 62 = 158. conociendo la SC Total y la SC “Entre”. La simbolización de los grados de libertad es la siguiente: Grados de libertad Total = rt-1 = (4)(3)-1 GL "Entre" tratamientos = t–1 = 3–1 GL "Dentro" tratamientos = t(r–1) = 3(4–1) = = = 11 2 9 ¿Qué es el CM del Error o variancia común o sc 2 como también se denomina? El sc 2 es un estimador de la variancia de la población (σ 2) de donde provienen las muestras del experimento.. Suma de los sumandos de los cuadrados de los totales de las repeticiones de todos los tratamientos: ∑ ⎜∑ X i ⎛ ⎝ 2 ij j ⎞ ⎟ = ⎠ ∑X . + x p 2 . rt 202 + 242 + 282 722 − = 8 = r 12 Los datos corresponden al 1er ejemplo de la Sección 5. = 36 4 ⎠ 2 SC Entre Tratamientos = xi 2 .. 5ta edición. + x2 2 . r x 2 .. José (1982): Métodos Estadísticos para la Investigación. sB 2. y sabemos que si a los datos de una muestra se les suma una cantidad constante no varia su variancia. 13 de 59 . Si al azar les aplicamos a los alumnos de estas 3 muestras los tratamientos A. estima la µC = µ + τC . siendo estimadores de la población original que es σ 2. que representaremos por tA (tB es estimador del parámetro τA). = = = x . Si x .. B y C y nos ajustamos al principio estadístico de que los efectos de los tratamientos son aditivos (ver modelo lineal). x B. rt ∑ i ⎛ X 2. con la ventaja de ser un mejor estimador por ser el promedio de tres estimadores. (SC del Error) / t(r-1) = CM del Error Entre muestras ( 2 ) (t–1) ∑x i 2 i . igualmente los 10 estudiantes de B habrán variado de peso en la cantidad constante tB. 5ta edición. tenemos que: x A. + tB . es el promedio general del experimento y µ es el promedio de la población. y los 10 de C en la cantidad constante tC .1) Análisis de la Variancia del CR en forma simbolizada Fuentes de Variabilidad GL SC CM (SC de Trats. estima la µA = µ + τA . rt "Total" no es fuente. + tA .5.5. + tC . resulta pues que las variancias de las tres muestras después de la aplicación de los tratamientos seguirán siendo iguales a las que respectivamente tenía cada una antes de la aplicación de los tratamientos y por consiguiente seguirán estimando la σ2 de la población de donde provinieron. ( 2 ) Vale también decir “Entre Tratamiento”. de la población A x . Esto es sA 2. r Dentro de muestras t(r–1) x 2 . La Sc 2 que es el promedio de esas tres variancias también es estimador de σ 2 de la población.. estima la µB = µ + τB .. ⎞ X i j2 − i ⎟ ⎜∑ r ⎠ ⎝ j 2 Total Tr-1 ∑ ij X ij − x 2 .Calzada Benza. estas muestras son estimadoras de la variancia σ 2 de la población de peso. pero similares variancias entre sí.. x C.1) se dan los cálculos simbolizados del análisis de la variancia para el diseño Completamente Randomizado: Cuadro (5. de la población B x .. En el Cuadro (5. de la población C Estas tres poblaciones tienen diferentes promedios. sC 2 son estimadores de σ 2. sino la suma de dos fuentes para el caso particular del diseño Completamente Randomizado..) / (t-1) = CM de Trats. resulta que los pesos de los 10 estudiantes de la muestra A habrán variado de peso en una cantidad constante. x B = 6. José (1982): Métodos Estadísticos para la Investigación.4 (final página 108).Calzada Benza. si es que los tratamientos pertenecen al Modelo Fijo o I. – µ. tC = 8 . 15 serían las repeticiones. En este caso el experimentador está interesado más que nada en saber si hay variabilidad entre los distintos tratamientos que forman la población. en el Completamente Randomizado. Se dice que los tratamientos de un experimento pertenecen al Modelo al Azar ó II. entonces al sacar muestras de las poblaciones implicadas. En el Cuadro (5. cuando !os tratamientos han sido tomados al azar de un grupo muy grande de tratamientos. .6 = 2. = (t − 1) GL _ de _ Trat 2 2 2 = Si es que las diferencias µ 4 (4 − 6) 2 + (6 − 6) 2 + (8 − 6) 2 (3 − 1) i. las muestras serían dadas para día por la venta de botellas en 15 establecimientos comerciales. estimada esta variante por s c2. [ ] = 32 = 16 2 = 0). la que existe "entre” tratamientos.. 5. En este caso el experimentador está interesado solo en hacer comparaciones entre los tratamientos escogidos. Esta variabilidad esperada está representada por : rΣτ 2 i 2 / (t – 1).x . Ejemplo: Supongamos que se toma el consumo de una bebida gaseosa en 10 días elegidos al azar de entre los 365 días del año. que es la que corresponde a las diferencias µ i. = τi son todas iguales a cero (τi 2 tratamientos de las muestras será un estimador de σc . por r στ si es que los tratamientos pertenecen al Modelo al Azar o II Se dice que los tratamientos de un experimento pertenecen al Modelo Fijo ó I. tenemos que: • En el caso de que ri sea igual pera todos los tratamientos. esperamos que en cada x i . . Según esto.6 PRUEBAS DE SIGNIFICACION DE F. los 10 días son los tratamientos.6 = 0. Este valor mide la variabilidad total presente en la x i. x C = 8 y x. . y. Valores Esperados de los Componentes de los Cuadrados Medios o VEC (CM) En el segundo ejemplo que hemos tenido en la Sección 5.2) hemos visto que el CM de tratamientos es 16. influyan las variabilidades siguientes: (a) (b) la que existe "dentro" de tratamientos que hemos representado por σc2. De acuerdo a lo expuesto.. para el que sean fijos. La mayor parte de los experimentos pertenecen a este modelo. t Y DLS. El CM de tratamientos es estimador de σ τ 2 + r στ 2. tal como podemos verlo a continuación: CM de Tratamientos = r (t A + t B + t C ) SC _ de _ Trat . el CM de – µ. con respecto a x .. . 5ta edición. En el caso de que haya variabilidad entre los τi . tA = 4 – 6 = -2. y además. solamente. para el caso en que sean al azar 14 de 59 . El CM de tratamientos es estimador de σ τ 2 + Σ τi2 / (t-1).4. los promedios de los tres tratamientos son: x A = 1. cuando los tratamientos han sido escogidos por el experimentador. = τ i . = 6. tB = 6 . pero en este caso sólo sería por causa del azar. o sea número total de unidades experimentales. de C. o sea si µ 1 = µ 2 = µ 3 = 0. respectivamente. esperaríamos que F = 1. para los resultados del segundo ejemplo que están en el Cuadro (5. – x . Luego. José (1982): Métodos Estadísticos para la Investigación. puesto que: F = σ o 2 + rσ o 2 σ o2 Esta razón está estimada por: Fc = CM _ de _ Tratamientos 16 = = 4 CM _ del _ Error 4 Sólo en el caso de que los τ i = 0.4. Así. En los experimentos. C. Y por lo tanto: σo +0 CM _ de _ Tratamientos F = = = 1 CM _ del _ Error σ o2 2 Es lógico que el valor de F calculado sea tanto mayor que 1.2). De lo expuesto es natural esperar que F > 1. 5ta edición. aunque aún así puede suceder que F > 1. En los experimentos no es suficiente que los ti resulten diferentes entre si para considerar que hay diferencias entre los parámetros correspondientes τi (esto indicaría que diferencias entre los µτ). no es suficiente de que F > 1 para aceptar que los τ i ≠ 0. en donde R = Σ ri .Calzada Benza. Si en realidad los promedios de las poblaciones de los tratamientos son iguales. Las demostraciones acerca de los "valores esperados de los componentes de los CM" puede versé en la secciones 4 a 7 de la II parte del libro Introduction to Experimental Statistics. influye también el azar representado por s t 2 que existe dentro de las muestras. buscando este en la Tabla IV con los Grados de Libertad de Tratamiento y los Grados de Libertad del Error. Para aceptar esta hipótesis alternante. • En el caso de que ri varía de un tratamiento a otro. debemos comparar Fc con F tabular. tanto sc2 como sτ 2 son los estimadores de σc2 y στ 2. r −1 El CM del Error es estimador de σ o 2. tenemos: 15 de 59 . publicado por McGraw-Hill Book Co. El CM de tratamientos fijos es estimador de El CM de tratamientos al azar es estimador de 2 σ τ 2 + Σ r i τi2 / (t-1) σ τ 2 + n0 σ τ 2 R − ri / R Siendo n0 = .. en este caso στ 2 es cero. Es por esto que se debe hallar el valor de F calculado. Prueba de F Se designa por F a la razón "CM de Tratamientos / CM del Error". a que las diferencias x i. cuanto στ 2 sea mayor que cero. Como Fc hemos visto que es 4. los que vienen a ser los grados de libertad de Tratamientos y del Error Experimental respectivamente (los que para nuestro ejemplo son 2 y 9). de donde st2 = (16 – 4 ) / 4 = 3. ejemplo cuyo cuadro de análisis de variancia está en la página 109. tenemos: 16 = 4 + 4st2. F tabular para 2 y 9 (lo que corrientemente se representa por F(2.05 y otro de tipo negrita que corresponde al nivel 0.6. La prueba de F no es específica sino genérica. En general. La prueba de t es la misma que hemos visto en la Sección 4.9) ). de Duncan o a la de Tukey.1) Si es que σ τ2 = 0. no supera a 4. F tabular es buscado en la Tabla mencionada con los grados de libertad del numerador en la primera línea de la Tabla y con los grados de libertad del denominador en la primera columna de la Tabla. y si F calculado supera a F0. tenemos: CM de tratamientos = 16 = sc2 + rst2 CM del error = 4 = sc2 Sustituyendo en la primera ecuación sc2 y r por sus valores. solo indica que hay.01 el valor de 8. Si F calculado supera a F0. José (1982): Métodos Estadísticos para la Investigación. luego en los experimentos el CM de tratamientos = sc2 + rst2 .18.26 y para 0. Fc = CM _ de _ Tratamientos CM _ del _ Error = 16 4 = 4 (5.1) t ] grados de libertad en la Tabla IV. en el encuentro correspondiente se hallan dos números.02. 5ta edición. sin embargo sólo con fines didácticos supondremos que sí ha sido significativa la prueba de F. uno en tipo corriente que corresponde al nivel de 0.: σ τ2 ≠ 0.05 el valor de 4. 16 de 59 .01 se dice que la prueba ha resultado altamente significativa y se representa por un doble asterisco.Calzada Benza. por lo que no podemos aceptar que Has. mas no indica cuantas y cuales diferencias son las significativas. Prueba de t : No se debe pasar a realizar esta prueba sino ha salido previamente significativa la prueba de F. de la DLS. que marca la separación de las regiones que dejan 5 y 1 % del área de frecuencia en la distribución de F. y por lo consiguiente tampoco que hay diferencias entre los µ i Como sc 2 y st 2 son estimadores de δc 2 y δt 2.1) y [ (r . encontramos que es para 0. Esto nos indica que no se ha probado que los τ i sean diferentes de cero.26. que corresponde a cuando las variancias son homogéneas y los tamaños de las muestras son iguales. en el caso (A). es decir que el rechazo de la hipótesis nula Ho no indica entre qué tratamientos hay diferencias significativas. En nuestro ejemplo esto no ha sucedido. Para llegar a este resultado detallado hay que pasar a la prueba de t.05 se dice que la prueba es significativa y esto se representa en el "Cuadro de Análisis de Variancia" con un asterisco puesto en la parte superior derecha del valor del CM de tratamientos. Aplicado esto a nuestro 2do. sólo hay 5% de probabilidades de que Fc sea mayor que el F tabular que corresponde a (t . por lo que no podemos rechazar la Ho: δ τ2 = 0.01. µB ≠ µC (b) Desviación estándar de las diferencias (Sđ).µ 2 ) ( x1 − x 2 ) d = = sd sd sd Para nuestro ejemplo tenemos: Para A vs. µ1 < µ2 Para el caso de nuestro segundo ejemplo de la Sección 5. Aplicamos la formula conocida siguiente: t = ( x 1 . aplicados a un ejemplo numérico. Grados de libertad del error = t (r – 1) Para nuestro ejemplo t0. C Para B vs.41 Para A vs.4.( µ1 . Sabemos que en el análisis de la variancia el CM del error es la variancia común (sc2) de los tratamientos.01 = 3. Esta variancia debe deducirse siempre que ella sea una buena representativa de las variancias dentro de los tratamientos.4142 (4 − 8) = 1. José (1982): Métodos Estadísticos para la Investigación.2.05 para 9 GL = 2. µA ≠ µC Has.2.250 17 de 59 . C: t = .4142 (c) t calculado para cada par de tratamientos.262 y t0. 4. y hallan sido distribuidos al azar entre los tratamientos.1. B: t = (4 − 6) = 1. Aplicamos la formula conocida siguiente: Sđ = 2 Sc 2 r = 2 CM _ del _ Error r Para nuestro ejemplo que tenemos en el Cuadro 5.83 Para B vs. C: t = 1.4142 . debería realizarse una prueba de homogeneidad.Calzada Benza. En caso de duda de la homogeneidad de variancias. C Ho µA = µB Ho µA = µC Ho µB = µC Has. A continuación se describen los cinco pasos para la prueba de t. Tal cosa ocurre cuando hay homogeneidad de variancias. 5ta edición. resulta: Sđ = 2 4 4 = 1.x 2 ) . adoptando para esto el procedimiento de Bartlett que se da en la Sección ?. tenemos: Para A vs. (a) Se plantea la Ho µ1 = µ2 y las Has µ1 > µ2.41 (d) t tabular es buscado en la Tabla III con los GL del Error.4142 (8 − 6) = 1. Hecho este que se presenta siempre que el origen de las unidades experimentales que forman las muestras de los tratamientos sea el mismo. B Para A vs. µA ≠ µB Has. 05 = 2. La prueba de t está basada en: tc = ( x1 − x 2 ) d = = tα sd sd Pero si en la ecuación anterior sustituimos tc por tα y despejamos d . no constituye una prueba de que dos promedios son iguales. C: ( x C . que la aceptación de la Ho . si se rechaza la Ho Para B vs. se debe a que para la diferencia qué hay entre los dos promedios de las poblaciones a las que pertenecen.2. pero si tc < tα se acepta la Ho. pero realizada mediante un artificio con el cual se obtiene los mismos resultados que se obtendrían si se hicieran todas las pruebas de t. no se rechaza la Ho 18 de 59 . F para 1 y 2 (r . Y se rechaza la Ho cuando la ( x 1 . El valor de d o DLS establece los límites de separación de las regiones de aceptación y de rechazo de la Ho. La prueba de F es equivalente a la prueba de t en los casos en que se tenga dos tratamientos. que no es más que la prueba de t. Para nuestro ejemplo tenemos: Para A vs. 5ta edición. No se rechaza la Ho cuando la ( x 1 . La falta del rechazo de la Ho . Así por ejemplo.x 2 ) < DLS. Como el resultado de la prueba de F no fue significativa. aceptamos la Ho. tenemos d = (tα) ( s d ) = DLS.2 Para A vs.4142) = 3. con 5% de probabilidades de que estos dos promedios sean iguales.x B ) = 2 < 3. José (1982): Métodos Estadísticos para la Investigación. C.x A ) = 4 > 3. aceptamos la Has.41 < t0. Prueba de la DLS (Diferencia Límite de Significación): Con la prueba de t habría que realizar tantas pruebas como comprobaciones. no se toma en cuenta la significación que acabamos de obtener para A vs.262. Esta labor puede aliviarse enormemente empleando la prueba de la DLS. Es así que con un sólo valor de DLS se acepta o rechaza todas las Ho’s de las comparaciones.262) (1.2.x 2 ) > DLS..05. Para B vs. por lo que sí el número de tratamientos en el experimento es elevado resultaría tedioso realizar tantas pruebas de t.05 = 2. B: ( x B .05 = 2.262.x A ) = 2 < 3.2282 = 4.96 y t2(10) = 2. B: tc = 1.Calzada Benza. Téngase presente. buscados F y t en las tablas respectivas.96. de que µC >µA. para el nivel de 0.41 < t0. ejemplo tenemos: DLS = (2.262. 10) = 4.83 > t0. por lo que con muestras de tamaño más grande (convenientemente más grande) se llegaría a rechazar la hipótesis Ho . En estadística podemos probar que el promedio de una población es superior al promedio de otra población.1) grados de libertad es igual a t 2 para 2(r-1). C: tc = 2. aceptamos la Ho Para A vs. C: ( x C . pero no podemos probar que son iguales. pues en estos casos.2. C: tc = 1. Para nuestro 2do. F(1 . (e) Comparar t calculado de cada comparación con t α Si resulta tc > tα se rechaza la Ho y se acepta la Has. no se rechaza la Ho Para A vs. por ser x C > x A . las muestras resultaron pequeñas. ¿En cuáles de las comparaciones haríamos rechazos indebidos? Respuesta: en las comparaciones en promedios extremos.05. pero no debe emplearse una vez conocido los resultados para comparar aquellos tratamientos de resultados altos con los de resultados bajos.05. habrá variabilidad entre los x i. En un experimento con más de 2 tratamientos y con mayor razón si el número es elevado. Si un experimento tiene 20 tratamientos. José (1982): Métodos Estadísticos para la Investigación. que sin haber sido significativa la prueba de F. y fallará tanto más.05 adoptado. pueden llegar a salir significativa. En estas comparaciones más del 5% de las comparaciones resultarían significativas. que puede fallar en las comparaciones de aquellos tratamientos de resultados altos con los de resultados bajos.Calzada Benza. previamente a la conducción del estudio ya se han determinado las comparaciones que se van a hacer entre los tratamientos de acuerdo a las necesidades de la investigación.86. 5% de comparaciones resultaran significativas. de los tratamientos. como en el presente ejemplo. Es por esto que decimos que la prueba de t falla. La razón se explica más adelante. y sobre todo en las comparaciones entre promedios extremos cuanto mayor sea el número de tratamientos. por las bases en que se funda esta prueba que son las mismas que las de t. 5ta edición. y no de 5% ó 0. podemos hacer 190 comparaciones entre pares de promedios. = µτ o) entonces todas las Ho serían ciertas. Cuándo y porqué falla la prueba de t y la de la DLS La explicación es la siguiente. Si todos los tratamientos fueran iguales (µ1 = µ2 = µ3 = . pese a compararse tc con t0. debido exclusivamente a la variabilidad común. Es decir el nivel real de la prueba para la comparación del más alto promedio con el más bajo es de 0. Consideremos un ejemplo. La prueba de la DLS y de t deben usarse simplemente cuando se comparan dos tratamientos en el experimento o cuando habrían varios tratamientos.05. a pesar de emplearse los valores de t para este nivel (aún cuando haya diferencia real entre los extremos). . pero tiene la desventaja al igual que la prueba de t.05 entre tratamientos tomados al azar. Pero si las comparaciones entre promedios se hiciesen al azar: ¿En qué porcentaje la Ho sería rechazada? Respuesta: en 5% de las comparaciones. la falla consiste en que comparaciones así que no deberían salir significativas al nivel de 0. La prueba de la DLS es fácil de realizar. resulta que aún sin tener efectos diferentes los tratamientos. . ya que en ellas tc sería muy alto y mayor que t0. Pero qué sucede si se comparan únicamente pares de tratamientos con resultados extremadamente opuestos. 19 de 59 .05? Respuesta: en 5% de las comparaciones. Si se compara el más alto promedio con el más bajo promedio: ¿Qué probabilidad hay de que la Ho sea rechazada indebidamente? Respuesta: la probabilidad es de 86%. Sucede algunas veces. en este caso la aceptación de superioridad de un tratamiento sobre otro no debe tomarse en cuenta. Esta prueba falla desde el momento que hay en el experimento más de dos tratamientos. salga alguna significación en las pruebas de la DLS. En estas condiciones: ¿En cuántas de las comparaciones rechazaríamos la Ho si todas las pruebas se hicieran al nivel de 0. y si se realiza la prueba de la DLS al nivel de 0. o sea con este tipo de comparaciones hay 5% de probabilidades de que en una comparación se rechace indebidamente la Ho. 2 de una región B y 1 de una región C. se tomaron de cada zona 5 muestras al azar representativas. 5. y no 5% como debería ser. 1A 2A 3A 4A 5B 6B 7C 35 33 35 31 45 40 23 37 35 39 28 39 39 39 36 38 43 29 36 45 34 34 29 41 25 44 35 33 32 31 37 34 43 38 34 20 de 59 . Pero si requiere homogeneidad de variancias entre los tratamientos.Calzada Benza. En el Cuadro (5. Student .Newman .7. 4 de ellas de una región A. En resumen. En la misma forma con 10 tratamientos la falla es de 59%. y con 20 tratamientos la falla es de 86%. 5ta edición. en lugar de fallar solo en 5% que es el nivel de la prueba o sea 0. Dunnett. Afortunadamente los estadísticos han ideado otras pruebas (pruebas de Duncan. Scheffé) con las que no se falla en desechar indebidamente la hipótesis nula (Ho) con más frecuencia que la que corresponde al nivel en que se hace la prueba. Esta prueba no requiere como la de t y DLS de una prueba previa de F. José (1982): Métodos Estadísticos para la Investigación. Para comparar los porcentajes de limpieza de la lana de 7 zonas ganaderas. Puede hacerse también si el número de repeticiones de los tratamientos no es igual. Tukey. incluyendo el análisis de variancia. dando mayores límites de significación (mayor exigencia) en las comparaciones de tratamientos más apartados en el ordenamiento. pues puede hacerse la prueba de Duncan aún sin ser significativa la prueba de F. 40% de estas comparaciones fallarán dando significación estadística.1) Porcentajes de lana limpia de 7 zonas ganaderas pertenecientes a 3 regiones. En experimentos con 6 tratamientos en los que en todos los tratamientos sean iguales. el 13% de estas comparaciones resultarán significativas.7 PRUEBA DE SIGNIFICACION DE DUNCAN.1) se dan los porcentajes de limpieza de la lana y algunos datos del análisis estadístico: Cuadro (5. a! comparar siempre el tratamiento de resultado más alto con el de resultado más bajo.7. en comparaciones del más alto con el más bajo las fallas son: Con 2 tratamientos falla 5% Con 10 tratamientos falla 59% Con 3 tratamientos falla 13% Con 20 tratamientos falla 86% Con 6 tratamientos falla 40% De aquí que las pruebas de t y de la DLS solo dan 5% de fallas cuando se hacen comparaciones al azar o si son comparaciones predeterminadas de acuerdo a implicaciones de los estudios.Keul. Esto último será visto en la Sección 5. Los estadísticos han determinado que sí en los experimentos hay 3 tratamientos y no existe diferencia de efectos. Esta prueba tiene en cuenta los órdenes que les toca a los promedios de los tratamientos en comparación en el ordenamiento general. pero en todos se compara el tratamiento con resultados más alto con el de resultado más bajo.16 Esta prueba debe pasar por las etapas que pasaremos a ver en un ejemplo de un experimento cuyas características se dan a continuación.05. . José (1982): Métodos Estadísticos para la Investigación. (5.05 los valores de p son los siguientes: p5 = 3.9 5.4 53.26 p3 = 3.70 166 33.30 Estos valores entran en el Cuad. 4.7. x i.20 195 39.3) Amplitudes Limites de Significación de Duncan.20 4 14.7.80 4 3. y son multiplicados sucesivamente por s x .05 o 0.30 197 39. 5ta edición.2) Análisis de la variancia del estudio de porcentaje de limpieza de lana. Fuentes Tratamientos Error Total SC 567 396 963 GL 6 28 34 CM 94..6 La ecuación que da los valores de las ALS(D) es: ALS(D) = AES(D) .- Determinación de s x = = sc 2 r = CM _ del _ Error r 14.5 5.80 4 12.30 s x = 1.30 Variancia común = sc2 = 12.69 2da.20 4 13.00 147 29. hasta el número t de tratamientos del experimento.7. correspondientes al nivel 0. y en ella se buscan los valores de p con los GL del Error para 2. así para nuestro ejemplo tenemos: Cuadro (5.0 40.65 1ra.00 4 10.30 163 32.5 14.4 5.20 4 11. sx 21 de 59 .8 14.13 3.2 Fc 6. ΣX i.3) en la línea correspondiente a AES(D). Para nuestro ejemplo encontramos que para 28 GL y 0.04 p4 = 3.7.04 3.90 p6 = 3.30 4 34. etc.30 207 41. 3.3 5.20 p2 = 2.90 3. Etapa.Calzada Benza.2 5 = 1.4 57.6 137.2) se da el análisis de la variancia: Cuadro (5. para dar los valores de las "Amplitudes Limites de Significación de Duncan" o abreviadamente ALS(D). Valores de p 2 3 4 5 6 AES (D) 2.16 En el Cuadro (5.Con los GL del error se va a la Tabla VII en donde se encuentran los valores de las "Amplitudes Estudiantizadas Significativas de Duncan" o abreviadamente AES (D).01 según la exigencia que se le quiera dar a la prueba.2 48. SC Dentro GL Dentro s2 Dentro 174 34. Etapa.1 5.20 3.69 ALS (D) 4.13 p7 = 3.26 7 3.4 45. 3 Si significativa 5.8 > DLS (D) (5) 6. . tal como puede verse en el ejemplo: Tratamientos Promedios ( x i .A continuación se ordenan en orden creciente los resultados promedios de los tratamientos.0 > ALS (D) (7) 8.3 Si significativa 5.9 No significativa 5.2 III 1A 34.6 > ALS (D) (5) 6.0 39.0 – 29.8 – 29.9 No significativa 22 de 59 . y para más sencillez de las comparaciones se les pone de clave números romanos.8 > ALS (D) (3) 4.6 < ALS (D) (2) 3.6 < DLS (D) (3) 0.1 No significativa 4.4 – 39.2 39.32.4 – 29.2 39.6 39. 5ta edición.0 41.Calzada Benza. Los resultados de todas las comparaciones se dan a continuación: VII – I VII – II VII – III VII – IV VII – V VII – VI VI – I VI – II VI – III VI – IV VI – V V – I V – II V – III V – IV IV – I IV – II IV – III III – I III – II II – I = = = = = = = = = = = = = = = = = = = = = 41.2 – 32.9 No significativa 5.8 41.4 Si significativa 5. hay significación).2.0 – 34.6 II 2A 33.5. que no supera a la ALS{D) de p2 que es 4.3 Si significativa 5.2 > ALS (D) (5) 6.. luego se compara con el valor que corresponde a p6 que es 5.2 > ALS (D) (3) 1.6.4 39.4 – 34.4 VII 4ta. Y la diferencia se ve si es mayor o menor que la ALS(D) que corresponde al valor de p del número de lugares que hay entre los que se comparan incluyendo ellos (en el ejemplo de VII a I hay 7 lugares.4 – 34.8 34. Y así se sigue hasta comparar II con I (y la diferencia se ve si es mayor que el valor de la ALS (D) que corresponden a p2 (en el ejemplo.8 < ALS (D) (3) 0.8 IV 3A 39.5. Etapa. hay superioridad de 5B sobre 4A al nivel de 0.9 No significativa 5.6 > ALS (D) (4) 2.4 39.5 Si significativa 5. ) Clave 4A 29.8 > ALS (D) (6) 8.4 < ALS (D) (3) 2.2 41.1 No significativa 4.4 > ALS (D) (4) 5. José (1982): Métodos Estadísticos para la Investigación.0 – 33.4 – 33.1 No significativa 4.6 39.6 41.9 No significativa 5.4 Si significativa 5.2 33.8.6 .0 V 6B 39.4-29.4 39.6 – 29.4 – 39.1 Si significativa 4. como 12.9. 3ra. como 8.4 – 32.4 – 32.2 – 29.6 32.05).6 34. por lo tanto no es significativa.2 > DLS (D) (4) 4.II = 41.1 No significativa 4.0 > DLS (D) (6) 6.4 Si significativa 5.8 39.6 Si significativa 5.2 < ALS (D) (2) 5. II – I = 32.3 Si significativa 5.8 – 33.8 supera a 5.4 .0 – 32.4 33.4 – 29.6.4 34.5 Si significativa 5.4 – 33.4 I 7C 32. y la diferencia se ve si es mayor o menor que la ALS(D) correspondiente al valor de p del número de lugares que hay entre los que se comparan incluyendo ellos (en el ejemplo de VII a II hay 6 lugares.4 = 12.4 = 3.4 – 39. luego se compara con el valor que corresponde a p1 que es 5.2 < ALS (D) (2) = = = = = = = = = = = = = = = = = = = = = 5.Se empieza a comparar el promedio más alto con el más bajo (en el ejemplo VII-I = 41.4 41.6 = 8. A continuación se compara el promedio más alto con el que sigue al más bajo (en nuestro ejemplo VII .9 No significativa 4.0).6 > ALS (D) (2) 3.0 < ALS (D) (2) 10. Etapa.4 > ALS (D) (4) 2.29.4 < DLS (D) (2) 9.4 VI 5B 41.0 es mayor que 5.4 = = = = = = = = = = = = = = = = = = = = = 12.8 – 32. que aparecen unidos por la misma raya. tal como se ha hecho en el ejemplo. si una diferencia entre dos promedios alcanza a la significación. no puede declararse significativa. Quedaría por determinar si entre el promedio más alto y los promedios que siguen hacia arriba hay también significativa. todos los promedios menores de esta diferencia son significativamente diferentes del promedio más altos. Las significaciones obtenidas pueden representarse mediante rayas.8 que son los siguientes: I. Las rayas que se superponen se suprimen.5 = 33.4 . En la misma forma se seguiría con el promedio menor al más alto [a VI le restaríamos la ALS(D) (6)].5. son significativos con VII. En.6 = 35. V. porque éstas son menores que la ALS(D)(7). así para nuestro ejemplo tenemos: 4A I 7C II 2A III 1A IV 3A V 6B VI 5B VII El significado de estas rayas es el siguiente. en caso contrario no es significativo. pero si con IV. Cada diferencia se considera significativa si excede a la correspondiente ALS(D). y seguiríamos después comparando VI con IV. para lo cual se sigue con el procedimiento normal (en el ejemplo quedaría por determinar si VII es significativo con V y VI). Esto se debe a que en realidad se está probando la homogeneidad de grupos de promedios homogéneos. III. entre cualquier par de tratamientos que no aparecen unidos por la misma raya hay superioridad significativa (así para nuestro ejemplo. del promedio más alto el valor de la ALS(D) más alto (en nuestro ejemplo.5. II y I). III y IV.. VII no tiene significación con VI y V.Cuando el número de tratamientos es elevado el procedimiento expuesto es demasiado largo. 5ta edición.8). 41. pero esta significación está comprendida entre dos no significaciones. tal como puede verse con los resultados del ejemplo.9. con la excepción siguiente. Entre cualquier par de tratamientos. esto es 39. deduciendo de inmediato que VI es significativo con l. Regla práctica. porque las diferencias de éste con los 4 mencionados serán mayores que las ALS(D) que a cada uno le corresponde. José (1982): Métodos Estadísticos para la Investigación.Calzada Benza. a VII le restamos la ALS(D)(7). cambio. 23 de 59 . los promedios de los tratamientos menores de 35. Il y III. II.4 . no hay superioridad significativa. Otra forma de expresar los resultados es indicando las diferencias entre pares y poniendo para cada diferencia si tiene o no significación estadística. En estos casos se recomienda adoptar el procedimiento abreviado que consiste en restar. .. .. Esta última Tabla también se emplea en la prueba de Tukey. si se hacen al nivel de 0.. . sólo en 5 comparaciones se desecharía indebidamente la Ho.4 32.8 0.05) si se tienen 100 experimentos en los que en cada uno en todas las comparaciones posibles entre tratamientos la Ho fuese cierta. 3...... el CM del Error y el nivel de significación a que se va a hacer la prueba.. se encontraría sólo en 5 experimentos indebidos desechamientos de una o más hipótesis nulas.. al nivel 0..6 ... .0 .. la que representaremos por ALS (T). .. 3... con esta prueba (al nivel de 0..2 / 5 = 1. con la única diferencia que en lugar de emplearse la Tabla VII se emplea la Tabla VIII. esta prueba es bastante más severa que las anteriores..05 o 0.. Para realizar la prueba se requiere saber los GL del Error.4 41. se tiene que de 100 comparaciones que se hiciesen. ...Keul”. 24 de 59 ..4) Diferencias y significaciones entre tratamientos (cada línea horizontal se compara con su correspondiente en la primera columna) 4A 7C 2A 1A 3A 6B 5B Comparados 29.8 – IV 3A 39...7....... 5...8 * 6.1) y (5.0 * 8. .6 * 6. sino cada experimento..2 .8 * 8..4 – VI 5B 41..... por lo que Hartley ha sugerido que la razón juiciosa del error experimental se eleve a 10% ó a un valor más alto. .. . es decir..... . .7.. Como es fácil de comprender..4 . .. . En esta prueba.... .8 PRUEBA DE SIGNIFICACION DE TUKEY...Con los GL del Error se va a la Tabla VIII (3). . .4 * 5.69 2da. . en donde se busca la Amplitud Estudiantizada Significativa de Tukey o abreviadamente AES(T) que corresponde a (3) Esta Tabla también se emplea en otra prueba similar a la de Duncan que se denomina “Prueba de Significación de Student ...4 con: I II III IV V VI VII 4A 29. 12..4 * 2..2 1. DLS y ALS(D).6 0.. . mientras que en las pruebas de t.. es decir en estas pruebas. Etapa..... en todas las cuales la Ho fuese cierta..8 39.2 34.4 – I 7C 32.. 10.2 * 4...6 33. . .2 .2 – III 1A 34. 5.. Etapa.4 – VII .01 se les llama "Razón Juiciosa del Error Experimental". .05. En cambio.6 – II 2A 33.. Cuadro (5. cada comparación entre dos promedios de un experimento es considerada como una unidad para computar el 5% o 1 % de fallas en desechar indebidamente la Ho..6 ..0 – V 6B 39....2 * 6. Esta prueba no tiene en cuenta los ordenes entre sí de los promedios de los tratamientos porque está basada en otro principio que las pruebas anteriores.Newman .4 2. José (1982): Métodos Estadísticos para la Investigación.8 * 4..0 * 6... 9...2). Las etapas se dan a continuación aplicadas al ejemplo del Cuadro (5.0 39.7... con la prueba de Tukey cada comparación no es la unidad.6 * 2.Calzada Benza.. 1ra. En la prueba de Tukey sólo se determina una Amplitud Límite de Significación. Esta prueba no requiere de una prueba previa de F..Determinación de s x = sc 2 / r = CM _ del _ Error r = 14. ... 5ta edición. . En esta etapa se hacen todas las comparaciones posibles entre los promedios de los tratamientos. VI y V superiores significativamente a I VII superior significativamente a II VII superior significativamente a III Como puede observarse.6 3ra. Así.483) (1.. como sigue: (1 / 24) – (1 / 30) = 1 / 120. razón por la que no se justificaría hacerla.483 De aquí que la ALST (T) = (4. t. AES(D) y AEST(T).54 y 4.4)).46 = 0. y aquellas que sean superiores son significativas.057 = 4.54 – 0.9 PRUEBA DE CONTRASTE ENTRE PROMEDIOS DE GRUPOS DE TRATAMIENTOS DE SCHEFFE.46 respectivamente (nivel 0. las diferencias que superan a 7. ninguna prueba de contraste sería significativa. 25 de 59 .µ2. con lo que se obtiene la ALS(T). José (1982): Métodos Estadísticos para la Investigación. F.6 se indican a continuación: VII.057. esto es: ALS (T) = AES (T) s x (5. Para establecer la formula para una comparación de contraste debe tenerse presente que la "Amplitud Limite de Significación de Scheffé" o abreviadamente ALS(S) está dada en forma general como sigue: (4) La interpolación armónica funciona bien en las tablas de z. 4ta. (1/168)(0. por lo que hay que hacer una interpolación armónica ( 4 ). y este valor se multiplica por s x de la etapa anterior.4) ± 7. dichos GL y de pt . 5.6 y 4. de donde x = de aquí que la AEST (T) = 4..7. Límites de Confianza.0 ± 7.08 Como (1 / 24) – (1 / 28) = 1 / 168. Las diferencias se comparan con la ALS(T).05).1) Para 28 GL y p = 7 no hay en la Tabla el valor de la AES(T). Etapa. En nuestro ejemplo.69) = 7. Etapa. Así.8.54 – 4.29.4 .6 = 12. 5ta edición. (1/120) Esta prueba debe aplicarse cuando la prueba F en el análisis de variancia ha dado resultado significativo.Esta etapa es igual que la correspondiente de la Prueba de Duncan.6 o sea entre 19. para lo cual se emplean los recíprocos de GL más próximos para establecer la regla de tres. La ALST(T) puede emplearse también para establecer los límites de confianza entre los cuales se encuentra la diferencia µ d = µ1 . luego se hace una regla de tres simple. hay valores para 24 y 30. que corresponde a la hipótesis nula (Ho). el número de significaciones obtenidas con esta prueba es menor que el obtenido con la prueba Duncan (véase Cuadro (5. es a x . estos son 4.4 que están a favor de VII. en caso contrario.08) = 0. Entre estos límites no se encuentra encerrado el valor cero. para nuestro ejemplo la verdadera diferencia entre los tratamientos VII y I se encuentra entre los límites: VII – I ± ALS(T) = (41.Calzada Benza. es a 4. son los coeficientes que corresponden a los promedios de los grupos de tratamientos en comparación.2) + (1) (39.6 = . (t-1).c4 x 4 . en el que se dan los porcentajes de lana limpia de 7 zonas ganaderas.Calzada Benza.. 3º. 2da..4) = 136..(2) (39.2 Al aplicar la formula general a esta particular comparación da: 26 de 59 .0) . En el Cuadro (5. José (1982): Métodos Estadísticos para la Investigación.(2) (41.4 está muy lejos de superar a 12. Comparación. 2º.1 .1 = 0).. ….4) = -0.Los signos de los coeficientes de los promedios de un grupo deben ser iguales entre sí y de signo contrario a los del otro grupo. puede haber interés en hacer las siguientes comparaciones: 1ra. del análisis de la variancia.. c22.44)(7 − 1)(14.9 ⎝5⎠ Como 0.La suma algebraica de los coeficientes de cada comparación debe ser cero (en la primera comparación que se da más adelante son: 1 + 1 ..9 decimos que no hay diferencia entre los promedios de las dos sub-regiones comparadas. En la comparación de dos sub-regiones de A representada por: (1A. r .c3 x 3 .7.. o sea: c1 x 1A + c2 x 2A + c3 x 3A + c4 x 4A – c5 x 5B – c6 x 6B = (1) (34.2) . Reemplazando los valores de los promedios con los que se tienen en el Cuadro (5. Comparación. 4A) los coeficientes c para los 4 promedios son todos iguales a uno.161. c12.4) .7. por lo que se indica a continuación: c1 x 1 + c2 x 2 .4 .0) + (1)(29.8) + (1 )(33. en este caso los coeficientes de c apropiados para los promedios de A del Norte son 1 y para los promedios del Sur son 2. los que deben establecerse de acuerdo a las reglas siguientes: 1º.2) ⎜ + + + ⎟ = ⎝5 5 5 5⎠ ⎛4⎞ (207.888) ⎜ ⎟ = 12. y no simplemente a comparar un grupo de promedios mayores con otro de promedios menores. Supongamos que interesa comparar la región del Norte A con la del Centro B.25.8) + (1) (33.4) . ⎟ r ⎝ r ⎠ 2 En donde: F. de las que 4 pertenecen a la región A. 2A) y (3A.4 Al aplicar la fórmula a esta particular comparación tenemos: ALS(S) = ⎛ 12 12 12 12 ⎞ (2.1).. tenemos: (1 )(34. ALS (S) = ⎛ c12 c2 2 ⎞ ( F )(t − 1)( sc ) ⎜ + + .(1 )(39.(1)(29.son los GL de libertad de tratamientos.1). dos a la región B y uno a la región C. es el número de repeticiones de los tratamientos. es el valor tabular de F para los GL de tratamientos y del error.Cada comparación debe obedecer a un interés especial. 5ta edición. 27 de 59 . 3ra.2 = 15.6 supera a 15.61.(2)(32. Puede también interesar comparar las regiones B y C.2) ⎜ + + ⎟ = ⎝5 5 5 ⎠ ⎛6⎞ (207. en las siguientes etapas: 1ra.Determínese la amplitud existente en cada una de las 7 muestras (amplitud entre el dato más alto y el más bajo).888) ⎜ ⎟ = 15. y la diferencia es 40.4) + (1)(39.1. quiere decir que no se llega a probar que el promedio de la región B es mayor que el promedio de la región C. Etapa.33 ⎝ 5⎠ Como 25.En esta etapa se obtiene la ALS (W) con la fórmula que se ha aplicado a nuestro ejemplo: ALS (W) = ( factor _ tabular )(ΣA) (061)(66) = 8.1 = r 5 Compárese esta ALS (W) con la ALS (T) de la Sección (5.4) . en este caso los coeficientes de c son los siguientes: c1 x 1B + c2 x 6B .6)/4= 40.2 supera a 22.65.c3 x 7C = (1)(41. y para B es (161.44)(7 − 1)(14.4%.2/4 = 6. 5ta edición.8 .79 ⎝5⎠ Como 15.44)(7 − 1)(14. Método para más de dos tratamientos.33 podemos decir que en la región A el promedio de los porcentajes de limpieza de la lana es menor que en la región B.6)= 80.888) ⎜ ⎟ = 22. Los promedios obtenidos son: para A es (136...1 = 25.05 con el número de repeticiones (r ó n) y el número de tratamiento (t).7. Link y Wallace (5. José (1982): Métodos Estadísticos para la Investigación.3%. 3ra Etapa.79.10 METODOS ABREVIADOS DE SIGNIFICACION BASADOS EN LA AMPLITUD.24) han ideado un método fácil y rápido para probar la significación estadística entre los promedios de los tratamientos en los diseños Completamente Randomizados y Bloque Completo Randomizado (este último lo veremos en el próximo Capítulo).4-34.2) ⎜ + + + + + ⎟ = ⎝5 5 5 5 5 5⎠ ⎛ 12 ⎞ (207.6. ALS(S) = ⎛ 12 12 12 12 12 12 ⎞ (2. basado en la suma de las "amplitudes" de los datos de las muestras de los tratamientos. Comparación. las demás se dan a continuación: Amplitudes 1A 5 + 2A 9 + 3A 8 + 4A 9 + 5B 9 + 6B 10 + 7C 16 Total amplitudes (ΣA) 66 2da Etapa. 5.. cuyo valor es 7.Calzada Benza.6 La formula general aplicada a esta comparación de contraste da: ALS(S) = ⎛ 12 12 22 ⎞ (2.La suma de las amplitudes se multiplican por un factor tabular buscado en la Tabla IX para 0.4)/4 = 34. Para nuestro ejemplo r = 5 y t = 7. Este método lo vamos a ver aplicado al diseño Completamente Randomizado del Cuadro (5. así para las muestras 1A es 37-32=5. con los que encontramos que el valor tabular es 0.1).8) y se notará que la primera es ligeramente mayor que esta última. decrece a medida que crece el tamaño de la muestra. y la diferencia entre los promedios. Σ X = 182 Rac. A: 26.6 La amplitud de la primera muestra es 18 y de la segunda muestra es 15. 8. se comienza por deducir el promedio de las amplitudes dentro de las 2 muestras. 21.6 − 0) = = 0. Algunas consideraciones sobre estos métodos abreviados. 5ta edición.8 2(14. Para muestras de n = 8. Las conclusiones que se deducen a base de la prueba de t en cambio no son muy afectadas por una moderada divergencia de la normalidad. 14. y el valor de t0. las ganancias en peso. Se desea probar cuál de dos racionamientos de cerdos representados por A y B es mejor. 25. se dan a continuación: Rac. como este valor no supera a 0.5.006.101. esto es d = x1 + x2 .0) A . 24. 25. La amplitud de la muestra constituye un sustituto apropiado de s.585 = 1. 22.6. esto es: A = (A1 + A2)/2.304. El cero corresponde a la hipótesis nula. la amplitud adquiere su máxima 28 de 59 . Cuando las dos muestras son de igual tamaño y los datos no pueden parearse. 24. 18. luego A = (18 + 15) / 2 = 16. Este valor se compara con ta tabular buscado en el lado derecho de la Tabla X con el tamaño de las muestras.05 tampoco queda probado que hay diferencia entre los dos racionamientos. Si ta ' > ta se desecha la hipótesis nula. 16. Si aplicamos la prueba de t a este mismo ejemplo encontramos que t = (2. para esto un grupo de 10 cerdos es alimentado con la ración A y otro con la ración B. La eficiencia de la amplitud. luego: ta ' = (d − 0) (2. 16. 15. B: 23. Σ X = 208 x A = 18. 20. razón por la qué debe tenerse menos confianza en estas pruebas. en caso contrario se acepta.5 A La Tabla X da para n = 10 el valor ta = 0.05. sucediendo lo contrario con la de t. Las conclusiones basadas en la amplitud son pues más sensibles a la anormalidad y en especial a la asimetría.158 16. tal como se indica a continuación: ta ' = ( d . y d = 2. José (1982): Métodos Estadísticos para la Investigación.158. como t < t0. y de hecho esta afectación disminuye a medida que crece el tamaño de la muestra.Calzada Benza. 25. siempre que se trate de muestras provenientes de poblaciones normalmente distribuidas y pueda tolerarse una pérdida de 5 a 10% de la información que pueden dar las muestras. Aquí cabe señalar que no es fácil contar con poblaciones normalmente distribuidas (curva normal).6-0) / 2.2 5) d = 2. Con estos dos valores se calcula ta ' . 29.2 x B = 20. 12. 11.05 para 18 GL en la Tabla III es 2. 16. quiere decir que no se ha probado de que hay diferencia probada estadísticamente al nivel de 0. Método para dos tratamientos. 383. La fórmula que debe emplearse es: ALS (DT) = td sd td : factor que es buscado en la Tabla XI con los GL del error del análisis de la variancia y el número de comparaciones con el control.7. Cuando los experimentos tienen 2 tratamientos (t = 2).4). para n entre 12 y 22. sd : Desviación estándar de las diferencias. En algunos estudios el objetivo principal es determinar si hay diferencias significativas de nuevos tratamientos sobre un testigo o control.05 o 0.383) = 8. en este sentido esta prueba es un poco más severa que la de Duncan.413. Se recomienda dividir al azar la muestra en dos submuestras de igual tamaño y emplear el promedio de las amplitudes de las dos para realizar las pruebas.12 COMENTARIOS SOBRE LAS DIFERENTES PRUEBAS DE SIGNIFICACION. En el artículo publicado por Lord (539) puede encontrarse mayor información sobre el empleo de la amplitud de las muestras y las tablas que se emplean.11 PRUEBA DE SIGNIFICACION CON EL CONTROL DE DUNNETT. Las comparaciones de los nuevos tratamientos con el control. Es por esto que Dunnett ha desarrollado una prueba que da una ALS(D) que sirve para juzgar todas las comparaciones con el control. José (1982): Métodos Estadísticos para la Investigación. lo que se deja para un posterior estudio. requisitos que se requieren para las pruebas de t y de la DLS. el CM del error y el número de comparaciones con el control. CM del error = 14.39. 5ta edición. o sea el número de tratamientos sin incluir el control.01. 5. Para aplicar esta prueba se requiere conocer los GL del error. Si ésta prueba la aplicamos a nuestro ejemplo del Cuadro (5. no son independientes ni al azar. Luego: ALS (DT) = (3. tenemos: GL el error = 28. por lo que tomamos los que corresponden a 24 y 30 GL que son 3. 5.1) y consideramos que el tratamiento 1A es el control.7.8 con lo que obtenemos que para 6 y 28 corresponde td = 3. número de comparaciones con el control = 6. y no dan más fallas en sacar significaciones que lo que indica el nivel 29 de 59 . las pruebas de t y F son equivalentes y recomendables.47 y 3.413) (2. Con el número de comparaciones con el control que es 6 encontramos en la Tabla mencionada que no hay valor de td para 28 GL.2. nótese que sólo 3 diferencias son significativas.13 Las diferencias de los tratamientos con el control de este ejemplo las encontramos en la primera línea del cuerpo del Cuadro (5. Por otra parte determinamos sd = 2( Sc 2 r ) = 2(14.2 5) = 2.Calzada Benza. La prueba es de dos colas y los niveles pueden ser de 0. sin interesar por el momento las comparaciones entre los nuevos tratamientos. para hacer una interpolación armónica en forma semejante a la que hemos visto en la Sección 5. eficiencia. razón por la que se recomienda solo para pruebas de contraste entre promedios de grupos de tratamientos. siendo por lo tanto más severa que las otras dos pruebas La prueba de Duncan tiene un porcentaje de fallas intermedio entre la de t y la de Tukey. DE LOS REQUISITOS PARA QUE TENGA VALIDEZ EL ANALISIS DE VARIANCIA Y LAS PRUEBAS. afirmando en cada una de ellas que hay diferencia significativa.13 5. 5ta edición. entre los promedios de las poblaciones respectivas. dando t mayores porcentajes aún que Duncan. indebidamente. 30 de 59 . La prueba de Tukey y de Scheffé. con la Prueba de Tukey la probabilidad. José (1982): Métodos Estadísticos para la Investigación. R. dan menos errores del tipo I pero más errores del tipo II (aceptar la Ho cuando esta hipótesis es falsa) que las pruebas de t y Duncan. en aquellas comparaciones del mayor promedio con el menor. adoptado para la prueba cuando la Ho es cierta (error I).14 5. las probabilidades de sacar significaciones cuando no las hay entre promedios extremos son: Probabilidades de sacar significaciones en donde Ho es cierta en comparaciones extremas Para : t = 2 t = 3 t = 4 t = 5 t = 6 t = 7 t = 10 Prueba de t 5% ( 5 ) 13% 40% 59% Prueba de Duncan 5% 10% 14% 19% 23% 26% 37% Prueba de Tukey 5% 5% 5% 5% 5% 5% 5% En cambio. en este tipo de comparaciones. La elección de una u otra prueba depende del grado de exigencia que se quiera tener en la obtención de las significaciones. PRUEBAS PARA DETERMINAR SI SE CUMPLEN LOS REQUISITOS (5) De 100 comparaciones en las que la Ho sea cierta. si las pruebas se hacen a nivel de α = 0.15 MODELO ADITIVO LINEAL Y VALORES ESPERADOS COMPONENETES DE LOS CUADRADOS MEDIOS EN EL C. permanece siempre igual a 5%. en 5 de ellas se desechará esta hipótesis. las pruebas de t y Duncan dan más fallas que el indicado por el nivel de significación adoptado. En cuanto a la prueba de Scheffé para las comparaciones entre promedios es aún más severa que la de Tukey. 5. En este sentido es importante que en los informes de los estudios que se hacen se indique el tipo de prueba adoptado para las significaciones. Pero si el número de tratamiento es mayor de 2. Así.05.Calzada Benza. 462 46.0 50. Como ejemplo consideremos el análisis de los resultados de la descendencia de tres reproductores vacunos. En estos casos el análisis es poco afectado por el desigual número de repeticiones por tratamiento.0 34. morir. . pues solo resulta ligeramente más complicado.124 ∑ 2 X ij . 5. siendo desigual el número de repeticiones (datos Kgs. si el experimentador está trabajando con vacas. hecho que suele ocurrir con relativa frecuencia. por ternero).1) Cálculos de la SC de tratamientos. etc.Calzada Benza. Así por ejemplo.464 33. 5ta edición. En el laboratorio también puede ocurrir que un asistente involuntariamente tome algunos resultados equivocadamente. algunas pueden enfermarse.462 = SC 14 = GL Grados de Libertad La SC dentro de tratamientos esta dada por: 31 de 59 .16 DISEÑO COMPLETAMENTE RANDOMIZADO CON DESIGUAL NUMERO DE UNIDADES POR TRATAMIENTO Muchas veces no es posible tener igual número de repeticiones para todos los tratamientos. los dalos se dan en el Cuadro (5.TC = SC 384 6 4. Reproductores 1 2 3 90 73 101 92 Formulas de la SC aplicadas a cada tratamiento 100 83 84 81 76 99 90 101 92 93 528 88. Otra consecuencia es de que las comparaciones entre tratamientos que tienen menos repeticiones son menos precisas. expresados por los pesos de los terneros hijos de cada reproductor a los 4 meses de nacidos. José (1982): Métodos Estadísticos para la Investigación.16.080 5 998 3 5.498 = X . ∑ 2 X ij 2 52.1) en el que se han incluido los cálculos para la determinación de la SC dentro de cada tratamiento (reproductor).544 96 64 103 364 91. sobre todo en los experimentos de ganadería. olvide de tomarlos. Cuadro (5.122 1. o bien el material experimental puede que no alcance por igual para todos los tratamientos.16. ⎟ ⎝ i ⎠ r = TC 52. que entre las que tiene mas repeticiones. ∑X j ij = X i.846 ⎛ ⎞ ⎜ ∑ X i.6 x i. 606 86. . esto es: SC Total = ∑ ij X ij 2 − T C = 902 + 922 + .TC = + .05 y 2 con 14 GL. = El total de las SC dentro de tratamientos. En la misma forma los GL Total se obtienen sumando los GL de cada muestra más los GL del número de muestras.462 + 50 = 5.. X t2 X 12 . con 6 + 5 + 3 = 14 GL 4 SC dentro de Trat. siendo en nuestro ejemplo: 5. La SC Total.132.16.1) 6062 5282 3642 ( 606 + 528 + 364 ) + + = = 132. da la variancia común (error experimental). + xt . pasamos a la prueba de la DLS.) r1 + . .050 – 132. dividido entre el total de GL. + .462 / 14 = 390.1=0. + (1012 + ∑⎜ ∑ ri ⎠ 7 i ⎝ j 2 364 962 + .000 = 5. . que comparado con F tabular para 0.16.0 Dentro de muestras (Error Experimental) 5.2).+ 762 ) + . resulta no superarlo (el valor es 3. siendo en este caso F calculado 25.1) que tiene en cuenta el número de repeticiones que tiene cada tratamiento: SC entre Tratamientos = ∑ X t2. ⎛ X 2. + .1.TC r1 rt ri 2 (5. . . .2) Cuadro (5. .000 La SC entre tratamientos está dado por la Ecuación (5..16. con lo que no queda rechazada la Hipótesis de que las muestras de 105 tratamientos provienen de diferentes poblaciones.16.512. . para lo cual debemos emplear la siguiente ecuación (5.0/390.2) 32 de 59 .462.... .Calzada Benza. esto es: 6 + 5 +3 + 2 = 16.2) Análisis de la variancia de las muestras (tratamientos de desiguales tamaños) Fuentes de Variabilidad SC GL CM Entre muestras (Tratamientos) 50 2 25. ⎞ 6062 X ij 2 − i ⎟ = (902 + 922 + . José (1982): Métodos Estadísticos para la Investigación.1 Total 5. + 642 .. esto es: 5.512 Todos estos resultados están ordenados en el Cuadro (5. 2 y 3 respectivamente. puede obtenerse sumando las SC dentro y entre tratamientos. .512 16 - La prueba de F se realiza en la forma conocida.000 = 50 7 6 4 7+6+4 7. + 1032 ) = 5. 5ta edición.16.74). . La SC Total puede obtenerse también directamente a base de todas las observaciones de las muestras. DLS = s2 s2 + ( tα ) r1 r2 (5. .16..462 14 390. El término de corrección general está dado por: X 2 . 6 y 4 son las repeticiones de los tratamientos 1. + rt 2 = ( 606 + 528 + 364 ) 7+6+4 2 = 132. TC = = Σri ( x1 .81. Pese a esto para completar el ejemplo. 5ta edición.0 y x1 = 86. (en lugar de multiplicarse por s x para obtener un juego intermedio de amplitudes de significación. no hay significación.1 390. x3 = 91. 33 de 59 .145) + 7 6 En caso de aplicar la prueba de Duncan.8 es mayor que la diferencia de x3 - x1 .0 y x 2 = 88.05 tenemos: DLS = 390. no hay significación.03) = 59. Los valores intermedios (I) son: Para dos tratamientos juntos en el orden de mérito I2 = (19.18.x 2 .75) (3.75) (3. debemos indicar que no se dan los modelos aditivos lineales I y II que corresponden al diseño Completamente Randomizado con desigual número de repeticiones.03 y p3 = 3. el valor tabular de t de la Tabla III.32). buscado con los GL de libertad del error experimental.3. Para comparar los reproductores 3 y 2 (juntos. los lectores interesados en estos modelos pueden consultar el Capítulo 7 del libro de Steel y Torrie (5.3) 390. para comparar los reproductores 3 y 1 (separados.22).6). debe multiplicarse el valor intermediario por la Ecuación (5.8 1/ 2 (1/ 4 + 1/ 7 ) = 27. Como 27. Como 27.8. = (5.16.E.1 (2. r1 y r2 el número de repeticiones de los tratamientos puestos en comparación y tα. Igual procedimiento se sigue para la comparación que queda entre los reproductores 2 y 1. ⎛ 1 1 ⎞ 1/ 2⎜ + ⎟ r2 ⎠ ⎝ r1 Aplicando esto a nuestro ejemplo.75. x3 = 91. Este es el procedimiento propuesto por Kramer (5. tenemos que s del E. pero cuya validez no se ha verificado todavía.Calzada Benza. Así. el valor de la ALS(D)2 = 59.8 Para dos tratamientos separado en el orden de mérito I3 = (19. Antes de terminar esta parte.8 Así. debe multiplicarse los valores de la AES de la Tabla VII por el valor s del error experimental. José (1982): Métodos Estadísticos para la Investigación. Los valores de p para 14 GL del error y 0. Siendo s2 el CM del error experimental.16. Para cada comparación deseada. para la comparación entre los tratamientos 1 y 2 al nivel de 0.18) = 62.8 1/ 2 (1/ 4 + 1/ 6 ) = 27.1 = 19.0).3 es mayor que la diferencia entre x3 .05 de la Tabla VII son: p2 = 3. el valor de la ALS(D)3 = 62.3). o aumentar el número de unidades y disminuir el de sub unidades?. el material de la parcela previamente pesado y mezclado. y por consiguiente una muestra resultaría insuficiente para representar a la parcela. es interesante determinar el porcentaje de humedad y otros datos químicos. ya que hay variación en el contenido de una muestra a otra. en este caso puede sacarse al azar 4 muestras de caña por parcela y analizarlas separadamente en lugar de tomar una sola muestra. o ¿Conviene más aumentar el número de sub unidades por unidad. el número de unidades y sub unidades por tratamiento más conveniente. Algunas veces es necesario hacer el muestreo una vez que la parcela esta cosechada.Calzada Benza.. Hay dos fuentes de variabilidad que contribuyen a formar la variancia para las comparaciones entre los promedios de los tratamientos. de la cabecera. en los que además del rendimiento en materia verde. a fin de reducir el Error Experimental. en un experimento de variedades de caña de azúcar en que se estudian rendimientos. por ejemplo. debe ser muestreado del montón y llevado al laboratorio para su análisis inmediato. resolver el problema muestreando cada parcela. surgen las siguientes preguntas: o ¿Cuántas sub unidades por muestra deben tomarse de cada unidad experimental?. cada una al azar. estas son: 1. digamos por ejemplo. en este caso se puede. también suele realizarse algunas determinaciones en los experimentos que serian muy tediosas tomarlas en toda la unidad experimental. 2. parcelas de gran tamaño o toda una fabrica por unidad. Por ejemplo. medio y pie de los surcos. 5. El muestreo debe hacerse al azar o bien con una regularidad anticipadamente establecida. José (1982): Métodos Estadísticos para la Investigación. un experimentador puede tener parcelas de 20 surcos de 40 metros de largo. Las sub unidades que forman la muestra de cada parcela (unidad experimental) no debe tratarse de localizar previo examen de la parcela con la esperanza de obtener un mejor muestreo. para lo cual pueden tomarse cinco secciones de surco de 5 m. Debe recalcarse que las recomendaciones deducidas de esta clase de estudio deben aplicarse a estudios y condiciones similares a la de los datos que han servido para los cálculos. 5ta edición. Para éstos. hay generalmente interés de conocer el porcentaje de sacarosa de las variedades. pongamos otro ejemplo. En el muestreo de las parcelas de los experimentos. Al CM de esta variabilidad se denomina Error experimental..La variabilidad entre las sub unidades de una misma unidad experimental. Hay experimentos que demandan unidades experimentales muy grandes. Esto es corriente en los experimentos de forrajes. Al CM de esta variabilidad se denomina error de muestreo. y determinar para futuros experimentos de la misma naturaleza.La variabilidad entre las unidades experimentales de un mismo tratamiento. se puede estudiar la relación existente entre las unidades y sub unidades para reducir el Error Experimental. 34 de 59 . y no haber tiempo para realizar la cosecha de todo el experimento.17 DISEÑO COMPLETAMENTE RANDOMIZADO CON IGUAL NUMERO DE SUB UNIDADES POR UNIDAD. siendo por esto necesario sacar sub unidades de cada unidad. Mediante los resultados de un experimento analizado previamente con unidades y sub unidades. = x i j . . Los puntos reemplazan a los sub índices para indicar que todos los valores que corresponden a dicho sub índices han sido sumados. La notación de puntos (X i j . 1 2 2 3 Total Unids.959 x . . . ) es una forma abreviada muy útil de representar los totales de un experimento.17.1).17. corresponde al total 653. . 2. . 3. X i . X . denota que todas las unidades experimentales pertenecientes a un mismo tratamiento han sido sumadas. corresponde a 277 del Cuadro (15... corresponde a 1714. denota que todas las sub unidades de una particular unidad experimental han sido sumadas. . j = 1. representamos el número de sub unidades por unidad por s. . . . .17. .17. = 10. mientras que X74. X i j . Total Trats.1). 1 4 2 3 Total Unids.. . . José (1982): Métodos Estadísticos para la Investigación.1) queda representado por X i j k en donde i = 1. en estas condiciones el Término de Corrección (TC) es calculado en la forma siguiente: 35 de 59 . 4 unidades experimentales por tratamiento y 9 tratamientos. = x i j . Por ejemplo X42.. por ejemplo X 8. 9. 21 34 48 103 37 23 45 105 35 41 36 112 30 50 27 107 427 67 77 71 215 96 106 126 328 146 145 167 458 100 80 78 258 1259 41 81 105 227 94 78 67 239 44 54 42 140 46 46 34 126 732 183 52 235 470 183 235 235 653 60 72 49 181 235 203 235 673 1977 59 69 50 178 56 47 235 338 80 51 59 190 54 160 63 277 983 70 68 70 208 180 84 183 447 85 73 41 199 120 65 221 406 1260 44 47 74 165 235 120 66 421 36 36 33 105 73 118 86 277 968 235 235 235 705 88 220 62 370 88 54 70 212 218 110 98 427 1713 113 55 60 228 131 82 193 406 178 235 126 539 216 176 64 456 1639 X .. mientras que X 2. . = 103. Por otra parte. sirve para denotar el total de todas las unidades del estudio o sea 10959. k = 1. . Así también. = x i j . corresponde a 1259. Cuadro (5. .Calzada Benza.1) 3 Sub unidades por unidad experimental. X i. Como ejemplo vamos a considerar los datos del Cuadro (5. . X. 5ta edición. Así. 1 3 2 3 Total Unids. Para el análisis.. Tratamientos (i) Unidades Sub Unidades j k 1 2 3 4 5 6 7 8 9 1 1 2 3 Total Unids. 4. = X i . . el número de unidades (repeticiones) por tratamiento por r y el número de tratamiento por t.16 Una observación o sub unidad experimental cualquiera del Cuadro (5. = x i j . Calzada Benza..957..1) Fuente de Variabilidad SC GL CM El CM es una estimación de: Total unidades Entre Tratamientos Unidades Dentro de Tratamientos = Error Experimental Entre Sub Unidades Dentro de unidades = Error de Muestreo Total entre Sub Unidades 333. .11. 227 srt 3 x 4 x9 ∑X SC Total Unidades = i.200 35 8 20.123 27 6. .034 6. es el número de sub unidades que tiene el total de cada tratamiento..957 - σ2 s = 1. 3 2 i Σt 2 = 8 20. de aquí que el divisor sea sr.165.8 = 27. + 16392 ..227 σ 2 + 3 σ 2ε 140..323 .3. o sea X i. + 4562 . j 2 ij .. La SC Total Unidades.TC = s Debemos indicar que sr = (3)( 4) = 12. = = 1. comprende a SC Entre Tratamientos y SC Unidades dentro de Tratamientos... 227 − 1. 2 6.213 72 107 1.200 = 168. José (1982): Métodos Estadísticos para la Investigación.TC = 333.TC = 165.8. El análisis de la variancia de este experimento puede verse en el Cuadro (5. en nuestro ejemplo resulta: 333.0 3 36 de 59 ..890 474..957 sε = = 1. estos son los GL de Unidades dentro de Tratamientos.200 con 8GL 3x 4 SC Entre Tratamientos = ∑X i ... en donde ti es una estimación de τ Puede comprobarse la SC de Unidades dentro de Tratamientos o Error Experimental deduciendo la SC de las unidades dentro de cada tratamiento y sumando todas las SC.2): Cuadro (5. 5ta edición. . 650 X 2 .323 con 35 GL 3 4272 + 12592 + . TC = 20. 109592.123.17.323 165. Con los grados de libertad se hace lo mismo: 35 . de aquí que esta última SC pueda ser encontrada por simple sustracción entre las dos primeras.423. 227 = 12 1720.12) Análisis de las observaciones dadas en el Cuadro (5. para el tratamiento 1 (suelo) tenemos: SC de Unidades dentro de Tratamientos = (1032 + 1052 + 1122 + 107 2 ) − (103 + 105 + 112 + 107)2 4 = 15.TC = 2 i s 1032 + 2152 + .650 i σ 2 + 3 σ 2ε + (12 στ 2 o 12 8 ) Στ 2 168. así.17.112. 650 − 6. 034 = 474. . . con GL 27 y 72. Para probar esto se realiza la siguiente prueba de F: CM _ del _ Error _ Experimental s + 3sε 6. etc.18. con sólo tener presente que cada total debe dividirse entre su número apropiado de repeticiones.586.416. La SC del Error de Muestreo (entre sub unidades dentro de cada unidad) se obtiene restando.18.213. que es el mismo resultado que tenemos en el Cuadro (5. 5ta edición. . tratamiento (S)=21 + 34 + 48 – = 364. 227 s 2 + 3 sε 2 El Error Experimental tiene un componente adicional que no tiene el Error de Muestreo. . con (3)(9) = 27 GL. A partir de aquí la aplicación de las pruebas de significación se realizan en la forma expuesta para cada prueba. Puede comprobarse esta SC también deduciendo las SC de las Sub Unidades de cada Unidad y sumándolas. con GL 8 y 27.267 – 1. La SC de Total Entre Sub Unidades está dado por: SC Total Entre Sub Unidades = ∑ ijk X 2 ijk – TC = 212 + 672 + .0 = 140. José (1982): Métodos Estadísticos para la Investigación.323 = 140. Para comparaciones entre tratamientos por la prueba de F. . pero no así el Error de Muestreo.890 con 107 – 35 = 72 GL. una prueba válida de la hipótesis nula (de que no hay diferencia entre los tratamientos) es (véase Cuadro 5. de la SC Total entre Sub Unidades la SC Total Unidades. = F= CM _ del _ Error _ Experimental 6. . 650 = 3. 37 de 59 .213 . debido a que la variancia Entre Tratamiento sólo tiene un componente adicional (12Στi2 / 8) más que la variancia del Error Experimental. puede suceder. sin embargo. con (2)(36) = 72 GL. Con 107 GL. este componente adicional se debe a los tratamientos.17. mientras que con respecto al Error de Muestreo tiene dos componentes.0 + .31. que es σ2. en nuestro ejemplo es: SC del Error de Muestreo = 474. .2). Tukey.890. . + 12. 227 = = = 3.2): ⎛ Στ i2 ⎞ s 2 + 3 sε 2 + 1 2 ⎜ ⎟ CM _ de_ Entre _Tratamientos ⎝ 8 ⎠ = 20. .112. esto es 15. que se debe a las diferencias de una unidad respecto a otra de un mismo tratamiento. que este componente no exista y que la variabilidad entre las unidades de un mismo tratamiento se deba a la variabilidad entre las sub unidades dentro de las unidades. El divisor 3 sirve para poner la SC que resulta en base de sub unidades a fin de que la suma de las SC de todos los tratamientos así calculados. Se pueden aplicar las pruebas de Duncan. el Error Experimental es apropiado.7 3 2 2 2 La suma de las SC de las 36 unidades de 364. de los cuales uno solo es común.333.Calzada Benza.957 2 2 En nuestro ejemplo esta prueba resulta altamente significativa. + 71. unidad del 1er.7 + . En nuestro ejemplo.306 = 168. sea igual a la SC de Unidades dentro de Tratamientos o Error Experimental que hemos obtenido por sustracción. esto es a σ2. para la primera unidad es: 1032 SC de la 1ra. que son los mismos resultados que hemos obtenido antes en forma indirecta. +982 + 642 – TC = 1. F= 2 s CM _ del _ Error _ de _ Muestreo 1. .123. µ + τ i representa los promedios de esas poblaciones.08 → δ41 x 4.16 + 61. = 156.08 – 104.33 → δ411 → δ413 X412 – x 41.67 = X413 – x 41. La Στ i 2 no es un estimador de σ τ2. = 103. µ no es solamente el promedio de !as poblaciones representadas en el experimento sino incluye también los promedios de las poblaciones que no están representadas.75 = – 8.59 – 8.16 + 61.67 = – 104..1) a las sub unidades X411 . .75 → µ x 41.08 + 26.67 = 52 X413 = 103. José (1982): Métodos Estadísticos para la Investigación.16 = 61.17.59 – 8. – x … = 164.67 → δ412 Tenemos según esto que: X411 = 103. 5.18.1) Se asume que las distribuciones de los 3 últimos términos de la ecuación son: (a) independientes.33 = 183 X412 = 103. = 52 – 156. Si aplicamos la ecuación (5.Calzada Benza.1). y (c) que cada una de estas tres distribuciones tiene cero como promedio. y τ i representa las diferencias de los promedios de las poblaciones con respecto a µ.75 .59 → τ 4 X411 – x 41.67 = 26. µ representa el promedio de los promedios de las poblaciones. El modelo lineal de una sub unidad es: X ijk = µ+ τi + εij + δ ijk (5.08 + 78. (b) se ajustan a la curva normal. poblaciones representadas por sus respectivas muestras en el experimento. 5ta edición. unidad a la que pertenece. = 235 – 156. x4.33 78.67 – 164.67 = 164.18 MODELO ADITIVO LINEAL PARA SUB-UNlDADES Si los tratamientos de un experimento se ajustan al modelo I (tratamientos seleccionados por el experimentador).18..59 – 8. – x 4. En este caso los τ i de las poblaciones representadas en el experimento constituyen una muestra al azar de la población de τ i y Στ i 2 es un estimador de σ τ2. una por cada tratamiento. Pero si los tratamientos están ajustados al modelo II (tratamientos tomados al azar).33 = 235 Estos valores son estimadores de: X ijk = µ + τi + εij + δ ijk 38 de 59 .103. En este caso Στ i ≠ 0. X412 y X413 del Cuadro (5. εij δijk representa las discrepancias al azar de una unidad con respecto al promedio de la representa las discrepancias de una sub unidad con respecto al promedio de la población a la que pertenece el tratamiento. = 183 – 156. considerando que (donde hay flechas léase estimador): X411 = 183 X412 = 52 X413 = 235 x… x 41.16 = 156.16 + 61. 94 .. de dos del valle B (I y II) y de dos del valle C (I y lI). tres análisis de la hacienda IIA ..94 SC Haciendas sin considerar valles = (7 + 9 )2 + (6 + 9 + 9 )2 + . pero sin que cambie el procedimiento para calcular la SC. Procediendo en la forma conocida tenemos: TC = (7 + 6 + 5 + . 9 5.34 GL = 17 – 6 = 11 La SC de Haciendas sin Considerar Valles. .. 9 10. para cuyo fin se disponen de los análisis provenientes de tres haciendas representativas del valle A (I. en estos casos el análisis se aparta ligeramente del análisis básico. B y C. y finalmente con dos análisis de la hacienda IIC. + (5 + 5)2 − TC = 61.1) en "clave" ( 6 ).. 5. 5ta edición..19. 5 Las letras indican muestras.60 2 3 2 GL = 7 – 1 = 6 Análisis dentro de Haciendas o Error de Muestreo se obtiene como sigue: SC Total – SC Haciendas sin considerar Valles = 82. . es decir.. tal como se puede ver a continuación: SC Valles = (7 + 9 + 6 + 9 + 9 + 5 + 6 + 9 )2 8 (5 + 4 + 5 + 5 + 5)2 + . .19 DISEÑO COMPLETAMENTE RANDOMIZADO CON DESIGUAL NUMERO DE UNIDADES y SUB-UNIDADES. 9 6. . 6. los resultados de los análisis se indican en el Cuadro (5.19..06 SC Total = 72 + 92 + . + 5 − TC = 38 . .. .5 5. 39 de 59 . 9.. 12 8.7. . . II y III). los números romanos unidades y los números latinos corresponden a resultados de cada sub unidad. 4...60 = 21.94 – 61. . En algunos estudios ocurre con frecuencia que no es posible obtener igual número de unidades por muestra y de sub unidades por unidad. .. . 6 5. se divide a continuación en dos componentes: uno asociado con Valles y el otro asociado con Haciendas Dentro de Valles. que cada ΣX2 se divide entre el número de observaciones que forman cada X del numerador. Cuadro (5..TC = 82. así como también de que para el Termino de Corrección (TC) la (ΣX)2 se divide entre el número total de observaciones involucradas en la (ΣX) del numerador en la formula SC = (∑ X / r )− (∑ X ) / rt 2 2 Como ejemplo consideremos el estudio comparativo del tenor de nitrógeno. . .1) Tres muestras con desigual número de unidades por muestra y desigual número de sub unidades por unidad Valles A B C Haciendas I II III I II I II Análisis 7. expresado en porcentaje de los suelos de tres valles que representamos por A. con dos análisis de suelo de la hacienda lA.. GL de Valles = 3 – 1 = 2 SC Haciendas Dentro de Valles o Error Experimental = (6) Los porcentajes de nitrógeno se dan multiplicados por 100 a fin de trabajar con cifras enteras.Calzada Benza. + 52 + 52 +. José (1982): Métodos Estadísticos para la Investigación. + 5 + 5)2 / 18 = 896. .. Los resultados del análisis tampoco evidencia que existe diferencia significativa entre los promedios de nitrógeno de los tres valles. ⎟ ⎟ 2 2 2 2 ⎜ ⎟ ⎡ 2 2 2 ⎤ i ⎝ j ⎠ ⎠ 18 − ⎣( 2 + 3 + 3 ) / 8 + ( 2 + 3 ) / 5 + ( 3 + 2 ) / 5⎦ ⎝ = = 2. es el total de observaciones hechas en el valle i . GL = 6 – 2 = 4 Los resultados del análisis de la variancia están dados en el Cuadro (5. Por otra parte. por ejemplo.19. r.99 no supera al F tabular. es el total de observaciones. = 18.67 1. ya que F = 5. puesto que F = 19.1) Fuentes de Variabilidad SC GL CM CM estimación de: 2 Valles 38. ri.94 σ2 + 2. Esta última prueba es correcta cuando no hay significación del Error Experimental sobre el Error de Muestreo.94 = 22. Dentro de Valles = Error Experimental Análisis Dentro de Hdas.. = 2 + 3 + 3 = 8 y r2. Así.. José (1982): Métodos Estadísticos para la Investigación. pero si hubiera superioridad. El coeficiente de σε2 depende de si es componente del CM de Valles o si es componente del CM de Haciendas dentro de Valles. En los estudios en los que es desigual el número de sub-unidades por unidad.Calzada Benza.66.47 / 5.43 no supera a F tabular. Si k es igual al número de valles. por ejemplo. r13 = 3 y r21 = 2. = Error de Muestreo TOTAL 22. la determinación de los coeficientes de los componentes de la variancia no es tan sencilla.2) Análisis de la variancia de los datos del Cuadro (5. + 3 + 2 ) /18 = 2.. k = 3. entonces recomendamos consultar Anderson y Bancroft (5.67 = 3. el coeficiente de este último es: ⎛ ⎛ ⎞⎞ 2 ⎜ r. Por último.51 GL _ Error _ Exptal.⎟ ∑ j i ⎝ ⎠ ⎝ ij ⎠ = GL _ Valles 2 ( 2 +3 +3 ) /8+ ( 2 + 3 ) /5+(3 + 2 ) /5−( 2 +3 +.67 / 1..84 στ2 Hdas. = 2 + 3 = 5.64 σε2 + 5.19.94 = 2. r1. − ∑ ⎜ ∑ rij / ri . en nuestro ejemplo r.66 21.⎟ − ⎜ ∑rij / r.2) Cuadro (5.50 – 38.64 = 2 2 2 2 2 2 2 2 2 2 2 40 de 59 .94 4 11 17 5. Para comprender mejor su determinación representemos r i j como el número de observaciones (análisis) en la hacienda j del valle i..51 σε2 σ2 Los resultados del análisis estadístico no dan evidencia de que la variación entre los promedios de los análisis de nitrógeno de las haciendas sea mayor que la variación entre los análisis de las haciendas.1) y Snedecor (5.SC Valles = 61.47 σ + 2.24) para realizar esa prueba.34 82.19..94 2 19. SC Haciendas Sin Considerar Valles . 4 El coeficiente de σε2 para Valles es: ⎛ ⎞ ⎛ ⎞ 2 2 ⎜ ∑rij / ri . 5ta edición. Al planear un nuevo experimento. − ∑ X 2 .. La respuesta a esta pregunta puede verse en la página 198 de Ia 2da. surge la pregunta: ¿Conviene más aumentar el número de unidades y disminuir el de sub-unidades o hacer a la inversa? Las sub-unidades pueden representar fáciles determinaciones. etc. equipo. o puede suceder que el aumento del número de unidades demande incrementar valioso material. j GL _ Valles 5.. j / r. José (1982): Métodos Estadísticos para la Investigación. El coeficiente de στ2 es: r. edición de este mismo libro.Calzada Benza. 5ta edición..84 2 s2 Y sε 2 Y EL PLANEAMIENTO DE UN NUEVO RELACION ENTRE EXPERIMENTO. o por el contrario pueden constituir costosas determinaciones o pérdidas de un valioso material como consecuencia. Por otra parte las unidades pueden representar simples modificaciones de labores de rutina. etc.20 − 18 − (82 + 52 + 22 ) /18 = 5. Todo esto hay que tener presente. 41 de 59 . Se denominan pruebas múltiples de medias. emplear pruebas que detecten diferencias pequeñas entre ellos. gl). porque simultáneamente se comparan varios promedios de los tratamientos. para poder declarar diferencias significativas entre los tratamientos. tal es el caso del uso de la prueba de Duncan por ejemplo. Para el cálculo de esta prueba no es necesario realizar un ANVA. y se desea encontrar diferencias más grandes entre las diferentes modalidades. SNK c. Dunnett Una severidad alta hace referencia a que se necesitan diferencias de promedios altas. 5ta edición. Duncan d. enunciadas en grado descendente de severidad son: a. referidos a un diseño completamente al azar. Para el desarrollo de este ejemplo se tomarán datos. Algunas pruebas múltiples de medias. Tukey b. ANEXO 1: Pruebas de Comparación Múltiples de Medias Cuando el análisis de varianza aplicado detecta diferencias entre las modalidades estudiadas se utilizan comparaciones múltiples que diferencien el máximo número de tratamientos. donde P = número de medias a comparar. José (1982): Métodos Estadísticos para la Investigación. La prueba de Dunnett cuando el interés se centra en comparar un conjunto de tratamientos con un testigo o tratamiento control.Calzada Benza. en lugar de emplear Tukey. A N E X O 2: Pruebas Múltiples de Medias Las pruebas múltiples de medias son útiles para seleccionar él o los tratamientos. y se aplican cuando el Análisis de Varianza declara diferencias significativas. El valor se busca en la tabla correspondiente. es decir. pero si no se identifica como tal. La prueba de Tukey cuando interesa efectuar todas las comparaciones entre pares de tratamientos. 42 de 59 . PROCEDIMIENTO PARA REALIZAR LAS PRUEBAS MULTIPLES DE MEDIAS TUKEY • Obtener el valor del comparador WP qα (P. El hecho planteado es justamente un problema de precisión. gl = grados de libertad del error. se corre el riesgo de usar pruebas que proporcionan diferencias pequeñas pero que no conservan el nivel de significancia establecido. (Esta prueba es una modificación o suavización de la prueba de TUKEY.6 26.16.4 57. Regla de decisión: Si la diferencia entre dos promedios es mayor que el comparador WP. los promedios son iguales y se identifican con la misma literal.6 39. y construir una matriz con las diferencias entre ellos. El análisis de varianza demostró que existen diferencias significativas entre los tratamientos. y verticalmente en forma ascendente.0 29. Realizar la comparación múltiple de medias de acuerdo al criterio de Tukey y SNK para seleccionar la (o las) mejor (es) variedades. Si la diferencia entre dos promedios es menor o igual que WP. los promedios son estadísticamente diferentes.2 37. por lo que se emplea la misma tabla) • • SNK • • DUNCAN • Encontrar t-1 comparadores CD TMa: el valor está dado por t-1 comparadores. con una varianza del error (CMee) de 47.Calzada Benza. Se obtiene el valor de TMa en una tabla de t modificada. José (1982): Métodos Estadísticos para la Investigación. Los rendimientos promedio (expresados en kg.8 43 de 59 . Encontrar t-1 comparadores WP Continuar de la misma manera que en TUKEY. 5ta edición.) se presentan a continuación: Variedad A Variedad B Variedad C Variedad D Variedad E Variedad F 48./und. grados de libertad del error y el nivel de significancia. EJEMPLO • En un experimento se comparó el rendimiento de seis variedades de maíz bajo el diseño experimental de completamente al azar con cinco repeticiones. • Después continuar de la misma manera que en las otras pruebas. Error experimental ajustado por el tamaño de la muestra (número de repeticiones) • Ordenar los promedios de los tratamientos en forma descendente horizontalmente. Construir la tabla de presentación final de los resultados. exp. 6 0 V5 26.95 3.4 39.0171 = 13.2 37.6 48.07 12.07 10.2 17.8 48 57.16 5 4.6 31 28.66 *Note que a medida que las medias se separan más.20.6 2.45 WP= 4.07 12.45 * 3.4 18. TUKEY • Cálculo del comparador : qa (6.6 29.07 9.2 2.0 39.8 8.2 26.4 20.99 4 3.8 13.58 3. se utiliza un comparador más grande.06 3 3.66 • Construcción de la matriz de diferencias V4 57.8 10.0.96 3.4 10.2 0 V6 39.4 29.23 3.2 0 V2 29.6 0 V1 48 21.07 13.8 9.45 3.Calzada Benza.8 37.99 6 4.6 0 • Presentación Variedad V4 V1 V6 V3 V2 V5 Rendimiento promedio 57.6 V5 V2 V3 V6 V1 V4 26. • • Construcción de la matriz de diferencias Presentación final 44 de 59 .6 8.05)= 4.4 0 V3 37. 5ta edición.6 Grupo Tukey a ab bc bc c c SNK (Student – Newman – Keuls) • Encontrar t-1 comparadores Rangos Qa Sx WP 2 2. José (1982): Métodos Estadísticos para la Investigación.2 10. Variedad V4 V1 V6 V3 V2 V5 Rendimiento promedio 57. 5ta edición.311 3 3.36 0.041.2 26.75 7./und.336 5 3.66 6.8 37.101 0.33 0.101 0.) son: Tratamiento A Tratamiento B Tratamiento C Tratamiento D Tratamiento E Encontrar t-1 comparadores Rangos TMa Sx CD • • 6.22 2 3.4 29.30 7.40 8.Calzada Benza. con un CMee de 0.23 0. José (1982): Métodos Estadísticos para la Investigación.101 0.6 Grupo SNK a b bc bcd cd d DUNCAN Un experimento donde se empleó un diseño completamente al azar.0 39.101 0. Los promedios de los tratamientos (expresados en kg. 45 de 59 . demostró alta significancia de acuerdo a la prueba de F. con cinco tratamientos y cuatro repeticiones.08 0.339 Construir la matriz de diferencias Elaborar la tabla de presentación final. exp.6 48.326 4 3. cantv. 5ta edición.htm 46 de 59 .net/ssinha/ http://mipagina.net/ssinha/duncan.cantv.net/ssinha/cmtukey.Calzada Benza.htm TUKEY: http://mipagina.cantv. José (1982): Métodos Estadísticos para la Investigación. ANEXO 3: Páginas Web Útiles GENERAL: DUNCAN: http://mipagina. 37 11. ahora debe escribir la siguiente hilera de datos en la caja del texto superior del programa: 6 28. pero como se ha dicho anteriormente.l. separados por uno o más espacios en blanco y consistente en: Número-de-tratamientos Promedios-de-tratamientos Valor-Tabular Cuadrado-medio-errorexperimental Número-efectivo-de-replicaciones Nota: La enumeración anterior ocupó 2 líneas para escribir. 5ta edición. José (1982): Métodos Estadísticos para la Investigación. el número-efectivo-de-replicaciones = número de filas = número de columnas = número de tratamientos.) del error del diseño. el número efectivo de replicaciones también será igual al número de bloques.6 19. iii. ¿Cómo buscar el Valor tabular que será usado por el Método de Tukey? El método de comparación múltiple necesita solamente un valor tabular.7 4. El nivel de significación que será usado. Todos los datos para la entrada al programa deben ser escritos en una sola hilera. (Trascripción de la página Web) COMPARACION MULTIPLE POR EL METODO DE TUKEY Escriba los datos según el formato en la ayuda: Ayuda (Salida de Resultados) Rst1 Rst2 Ejemplo 1 Ejemplo 2 Acerca de . es igual al número de replicaciones del diseño.9 13. Encontrará que el valor tabular es igual a 4. Ud. Ejecuta Tukey Ayuda para la entrada de datos para el programa: Comparación Múltiple por el Método de Tukey: (A) Diseños Básicos: Completamente aleatorio. En el caso de un diseño cuadrado latino. Para buscar el valor tabular en la mencionada tabla. Para un diseño en bloques aleatorios. El número de tratamientos que tiene el diseño. Debe de disponer primero de las 3 informaciones siguientes: i.Calzada Benza.. Consideremos los 3 diseños básicos pero excluyendo el caso cuando se trata del experimento factorial. Este valor tabular se obtiene de una tabla estadística llamada: Percentage points of studentized range statistics (En español: Puntos porcentuales de estadísticas de rangos estudiantizados).. ii. Esta tabla existe para los niveles de significación de 1% y 5%. Número-efectivo-de-replicaciones : para todos los diseños básicos y siempre que el experimento no sea factorial. todos los datos serán entrados en el programa en una sola hilera separados por uno o más espacios en blanco. Bloques aleatorios y Cuadrado Latino.79 5 47 de 59 .3 18. El valor numérico de grados de libertad (abreviatura: g.8 24 14.37 Ya que tenemos toda la información que necesitamos. ≥ Qα . ⎟ − (µ i. haga click sobre DUNCAN en el menú principal y luego haga click sobre la ayuda. − µ i '. Nota: Obsérvese que también será correcto entrar la siguiente hilera de datos en la caja del texto: 6 . − y i '. La información que se presenta acerca del cálculo del número efectivo de replicaciones para experimentos factoriales en la ayuda del Rango múltiple de Duncan en la sección de la Computación estadística por Java Script es aplicable también en el caso de comparaciones múltiples por el método de Tukey. glerror − − CMEE r 48 de 59 .3 18. como por ejemplo A. (B) Experimentos Factoriales: En el caso de los experimentos factoriales. C. t. r = CM EE . Nota: En algunos casos para hallar los valores tabulares. bidimensionales.8 24 14. AC. t. salvo por el hecho de que en lugar de utilizar las distribuciones de t como base para realizar las comparaciones. se emplea la distribución del rango estandarizado o estudientizado: − ⎛− ⎞ ⎜ y i.. ya que la tabla presenta discontinuidades entre los valores presentados.37 11.9 13. y también según los factores que se consideran en los promedios que serán comparados. r Se rechaza H0: µ =µ i i ' si Nosotros comparamos y i. Sucederá esto por ejemplo si un diseño tiene 26 GL para el error experimental y/o hay más de 20 tratamientos. Luego haga click sobre el botón que se llama: Ejecutar Tukey. José (1982): Métodos Estadísticos para la Investigación. glerror CMEE r y i. Para leer esta ayuda. tridimensionales. 4. − y i '. Nota: Para otros diseños tales como Parcela Dividida y Parcela Sub Dividida que tiene más de un tipo del error experimental. B.6 19.) ⎝ ⎠ Qα . 28. será necesario seleccionar el CM del error experimental que sea apropiado para una comparación en el momento de hacer la entrada de datos al programa. en el procesamiento de datos. − y i '.7 . el cálculo del número efectivo de replicaciones dependerá del tipo de promedios que serán comparados que pueden ser promedios unidimensionales. ANEXO 4: DIFERENCIA MÍNIMA SIGNIFICATIVA Método de Tukey o Método de la Diferencia Significativa Honesta de Tukey (DSH) Este procedimiento fue propuesto por Tukey (1952) para probar la hipótesis H0 : µ j = µ k (j ≠ k) Este método es muy similar en la aplicación al de DMS. El Programa no tomará en cuenta el separador . etc.. etc. 5ta edición. para indicar el comienzo y el fin de ciertos subgrupos de datos para una mejor visualización. con − − Qα . tanto en las filas como en las columnas.Calzada Benza. será necesario usar la interpolación lineal. t. AB.79 5 Esta entrada tiene la ventaja que se usa . Rechazar H0 si µi −µi' ≥ Qα . Hochberg and Donde Tamhane (1987). t. r es el α − ésimo percentil de la distribución rango estandarizado. t . Este simplemente reemplaza la expresión dada en Tukey por: y i . 49 de 59 . Este método es conocido como método de Tukey-Kramer. Q α . 5ta edición. El método de comparación de Tukey fue reformado por Kramer (1956) para casos en el que el número de réplicas no es igual. t . ≥ Qα . ri' Cuando las réplicas son muy diferentes este método es menos sensible que el de Scheffé.htm Utilizar Scheffé: • El tamaño de los grupos seleccionados es diferente (ósea en el ejemplo anterior era mejor este test).net/ssinha/cmtukey. y • Otras comparaciones. aunque al parecer aún no hay acuerdo. glerror − − 1⎛ 1 1 ⎞ ⎟CMEE ⎜ + 2 ⎝ ri. el más recomendado por los estadísticos. A este tipo de comparaciones se les llama también contrastes. http://mipagina.Calzada Benza. ri '. En esta prueba se utiliza un sólo valor con el cual se comparan todos los posibles pares de medias. Si el número de repeticiones no es demasiado desigual. t . Tablas para hallar los valores de Q α . glerror son dadas por Harter (1960).A. más que las simples comparaciones de dos promedios son de interés. − y i '. • Cuando el interés fundamental es comparar promedios entre dos grupos y son múltiples las comparaciones que estamos haciendo. ⎠ Donde r = ∑ ri − t en un D. Cuando utilizar el test de Tukey ó el test de Scheffé? Utilizar Tukey: • Cuando el tamaño de las muestras seleccionadas para cada grupo son iguales. Spotuall y Stoline (1973) dieron un método para probar la hipótesis H0 : µ =µ i i' .cantv. José (1982): Métodos Estadísticos para la Investigación. glerror ˆ ˆ CMEE min( ri . Por lo tanto este test de Tukey es el más utilizado. y al parecer.C. APENDICE 1: TABLAS ESTADISTICAS TABLA 1: DISTRIBUCIÓN NORMAL ___________________________________ 51 TABLA 2: DISTRIBUCIÓN t DE STUDENT ______________________________ 52 TABLA 3: DISTRIBUCIÓN X2_________________________________________ 53 TABLA 4: DISTRIBUCIÓN F DE FISHER________________________________ 54 TABLA 5: AMPLITUD ESTUDIANTIZADA SIGNIFICATIVA DE DUNCAN ______ 57 TABLA 6: AMPLITUD ESTUDIANTIZADA SIGNIFICATIVA DE TUKEY ________ 59 50 de 59 .Calzada Benza. José (1982): Métodos Estadísticos para la Investigación. 5ta edición. 0036 0.0071 0.0019 0.0630 0.0329 0.1711 0.0104 0.0166 0.0045 0.1949 0.1 0.0013 0.0162 0.3936 0.2946 0.3557 0.5 0.3 2.0409 0.1056 0.0314 0.0179 0.0102 0.0011 0.0455 0.0014 0.0043 0.0351 0.0749 0.0 0.2119 0.0244 0.3745 0.0011 0.0708 0.0367 0.3520 0.0012 0.0044 0.0384 0.2483 0.0838 0.1190 0.1075 0.6 0.0643 0.1379 0.0681 0.0129 0.0023 0.3264 0.1151 0.2 1.0048 0.0010 51 de 59 .4090 0.2981 0.3707 0.0047 0.4641 0.1251 0.0068 0.2546 0.1736 0.0287 0.1230 0.2206 0.0418 0.0062 0.1446 0.1587 0.0401 0.0013 0.0694 0.1003 0.3015 0.0031 0.0013 0.0023 0.2676 0.1635 0.0020 0.2643 0.0099 0.0037 0.0049 0.4325 0.0113 0.3594 0.1685 0.07 0.0012 0.1210 0.0089 0.1469 0.3632 0.3228 0.4920 0.2810 0.0250 0.0087 0.0091 0.0655 0.2358 0.2 0.0344 0.4 2.0985 0.0010 0.0548 0.0823 0.0026 0.0078 0.0150 0.1515 0.Calzada Benza.8 2.0017 0.0038 0.0968 0.7 2.0505 0.0146 0.2 2.3 0.4761 0.0721 0.0485 0.2033 0.4286 0.0052 0.1867 0.4207 0.4880 0.4522 0.0192 0.0066 0.0094 0.0029 0.2843 0.0033 0.0041 0.9 1.1539 0.7 0.3085 0.0021 0.2514 0.0526 0.0125 0.0869 0.0060 0.1292 0.8 1.0436 0.0035 0. 5ta edición.4562 0.0793 0.4960 0.0307 0.2451 0.1894 0.1401 0.02 0.0918 0.4168 0.9 3.0764 0.2090 0.2236 0.0073 0.0154 0. TABLA 1: DISTRIBUCIÓN NORMAL Desv.0375 0.1357 0.3974 0.0015 0.0170 0.2578 0.0107 0.3669 0.0951 0.2005 0.0537 0.0901 0.3050 0.0233 0.0030 0.0026 0.0571 0.01 0.0040 0.5000 0.0228 0.0188 0.0139 0.1020 0.1093 0.04 0.2611 0.0934 0.0014 0.0606 0.2266 0.0034 0.3783 0.1492 0.0 2.1814 0.1922 0.3409 0.3821 0.0016 0.4681 0.0174 0.0559 0.0336 0.0122 0.2148 0.2389 0.0080 0.3192 0.2743 0.1131 0.6 2.4129 0.3121 0.0039 0.0668 0.09 0.1423 0.0392 0.0197 0.3897 0.0054 0.0212 0.3 1.0110 0.1038 0.0885 0.2177 0.3483 0.0217 0.05 0.2877 0.1335 0.0021 0.0069 0.0032 0.0222 0.3859 0.0015 0.0016 0.0018 0.0808 0.0059 0.4 1.3446 0.0359 0.4721 0.4602 0.4443 0.4801 0.1314 0.4 0.0853 0.0025 0.0096 0.1 1.0256 0.0055 0.2912 0.4404 0.0281 0.3156 0.0427 0.0019 0.7 1.2420 0.4364 0.0446 0.1762 0.3372 0.0207 0.0239 0.0618 0.0274 0.0268 0.0143 0.0183 0. José (1982): Métodos Estadísticos para la Investigación.4483 0.5 1.0084 0.0057 0.0516 0.5 2.0022 0.0011 0.0294 0.03 0.0018 0.4247 0.0322 0.0027 0.06 0.3300 0.0075 0.1841 0.2296 0.1170 0.0582 0.0262 0.0 1.4840 0.0028 0.0778 0.1 2.1271 0.0132 0.0082 0.1977 0.0202 0.0116 0.00 0.0735 0.2776 0.0119 0.4013 0.0 0.2061 0.1788 0.0301 0.08 0.8 0.0158 0. Normal X 0.9 2.0465 0.4052 0.0495 0.0136 0.1611 0.0475 0.2709 0.2327 0.0051 0.1562 0.3336 0.1660 0.1112 0.0594 0.6 1.0024 0.0064 0. 041 4.703 0.015 3.718 2.711 1.100 1.816 0.671 1.290 ∞ 52 de 59 .694 0.896 0.689 0.683 0.05 0.326 63.697 1.355 3.032 3.879 0.683 0.492 2.925 5.076 1.036 3.831 2.650 2. 5ta edición.959 5.965 4.499 3.725 1.646 3.674 3.179 2.145 2.066 1.854 0.858 0.873 0.685 0.190 1.781 4.687 0.311 1.079 1.771 2.604 4.706 4.689 3.067 1.423 2.859 0.108 1.863 0.697 0.021 2.060 2.059 1.131 2.943 1.088 1.143 2.303 1.703 1.878 2.725 3.947 2.460 3.250 1.848 0.333 1.056 1.1 0.083 1.855 0.920 0.064 2.316 1.289 1.050 1.688 0.660 3.390 2.15 0.756 2.708 1.313 1.319 1.645 12.862 0.055 1.812 1.691 0.679 0.624 2.156 1.898 2.861 0.462 2.314 2.745 3.093 1.372 1.101 2.365 3.080 2.025 0.941 0.182 2.106 3.353 2.740 1.015 1.571 2.658 1.528 2.718 0.221 4.057 1.303 3.447 2.282 6.895 1.328 1.078 1.638 1.729 1.508 2.228 2.314 1.201 2.437 4.860 1.386 1.746 1.963 1.093 2.048 2.683 0.750 2.552 2.533 1.063 1.440 1.262 2.337 1.2 0.610 6.787 2.134 1.920 2.587 4.415 1.341 1.866 0.060 1.833 1.041 1.473 2.069 2.058 1.721 1.868 0.600 12.457 2.842 1.350 1.318 1.998 2.779 2.700 0.058 1.467 2.684 0.704 2.345 1.055 1.373 3.315 1.717 1.071 1.857 0.408 5.681 0.792 3.119 1.876 0.906 0.052 2.771 1.045 2.886 1.856 0.845 2.518 2.776 2.850 3.674 1.358 2.960 31.383 1.707 3.074 2.539 2.132 2.056 2.397 1.855 0.688 0.686 0.854 0.706 1.921 2.753 1.656 9.841 4.321 1.01 0.711 0.330 1.617 2.684 1.870 0.576 636.677 0.727 0.250 3.296 1.706 0.860 0.376 1.602 2.747 3.073 4.768 3.714 1.869 5.318 4.865 0.763 2.819 2.500 2.25 0.734 1.883 3.120 2.684 0.541 3.692 0.325 1.Calzada Benza.845 0.856 0.363 1.660 2.000 1.685 0.765 0.069 1.110 2. TABLA 2: DISTRIBUCIÓN t DE STUDENT α r 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 40 60 120 0.821 2.896 2.479 2.356 1.707 3.741 0.160 2.858 0.782 1.681 2.699 1.042 2.701 1.807 2.567 2.064 1.965 3.764 2.061 1.055 3.883 0.000 0. José (1982): Métodos Estadísticos para la Investigación.690 0.005 0.551 3.476 1.074 1.686 0.140 4.045 1.365 2.086 2.978 0.012 2.306 2.977 2.980 1.323 1.0005 1.695 0.861 2.583 2.819 3.169 3.924 8.684 0.797 2.310 1.821 6.061 0.761 1.889 0.578 31.485 2.851 0.922 3.796 1. 84 9.1 22.0 106.65 12.91 12.2 27.30 10.5 48.3 24.923 2.34 11.0 59.025 5.56 3.0 26.81 18.3 79.26 8.8 32.75 0.18 2.2 74.1 28.36 4.711 1. José (1982): Métodos Estadísticos para la Investigación.1 -2.12 18.0 35.68 15.9 48.79 24.34 9.71 18.93 17.34 18.99 7.89 6.24 10.07 12.3 32.26 9.3 128.59 14.05 3.09 13.4 40.35 7.3 29.6 109.34 15.58 8.63 7.297 0.17 2.3 25.2 65.2 29.6 28.9 30.09 16.77 4.34 10.6 22.6 56.51 16.99 17.39 12.63 6.3 67.2 2.8 79.455 1.645 0.647 2.8 67.01E-02 0.3 23.03 8.8 44.34 14.26 6.5 32.85 11.49 11.83 3.67 9.43 8.37 20.5 92.3 27.3 73.9 43.56 14.37 3.9 113.4 42.57 5.3 51.0 52.35 5.44 9.6 50.89 10.2 24.07 3.84 5.4 69.000 0.70 3.28 15.64 9.115 0.3 69.7 23.44 13.064 1.55 9.8 57.86 11.7 23.34 8.5 1.7 42.68 21.20 12.2 31.93E-03 0.59 12.005 7.7 28.4 -1.3 1.64 12.6 36.28 0.14 12.9 1.34 17.74 7.85 15.64 0.3 49.60 12.07 4.1 0.9 39.211 0.5 43.6 51.48 20.7 71.26 6.4 85.28 10.33 0.7 23.4 53.7 37.4 29.6 30.8 24.31 10.674 0.04 7.3 45.49 26.7 37.102 0.25 1.58 6.8 70.3 26.02 20.207 0.14 19.8 38.5 34.05 16.81 12.6 29.0 27.45 16.63 8.5 21.23 5.6 74.3 95.9 34.79 20.4 100.1 77.14 5.78 9.635 2.9 40.56 8.11 4.81 6.98 17.24 18.31 16.06E-02 0.213 1.3 82.07 5.8 30.94 19.2 36.872 1.7 33.8 2.1 80.15 16.6 118.90 6.31 19.3 35.05 3.73 3.412 0.0 33.57 4.5 36.07 15.2 28.3 71.4 35.34 19.8 31.2 45.3 49.6 32.8 36.0 27.77 20.0 22.66 5.63 9.41 7.33 0.3 124.66 16.79 13.2 29.67 3. 5ta edición.3 51.1 40.1 124.5 32.4 37.2 34.23 5.5 55.831 1.989 1.34 20.01 7.1 135.2 88.54 10.6 33.5 24.85 14.34 12.46 13.81 21.23 8.94 20.5 21.55 20.11 18.282 0.39 10.70 14.92 18.3 42.99 1.216 0.3 59.3 0.6 90.0 104.2 35.87 5.29 18.02 7.20 2.11 5.12 10. TABLA 3: DISTRIBUCIÓN X 2 ϕ π 0.6 118.40 5.3 53.3 64.86 16.17 4.6 1.386 2.91 9.8 55.690 2.1 129.1 21.88 13.4 34.584 1.2 -1.2 59.79 8.84 14.95 3.09 2.674 0.12 13.53 19.93E-05 1.6 25.1 2.8 34.2 116.3 24.0 77.4 31.9 35.83 14.2 44.36 14.7 25.52 11.58 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 40 50 60 70 80 90 100 Zα Zα 53 de 59 .5 79.81 9.34 16.57 7.1 98.2 37.9 26.09 10.02 13.4 23.34 13.35 6.20 10.3 41.1 27.49 4.103 0.57 15.6 107.84 14.58E-02 0.7 26.45 16.40 13.9 23.3 99.26 7.3 22.575 1.1 90.7 22.9 40.5 33.9 63.6 43.7 26.7 38.38 16.5 45.95 22.975 9.24 14.55 19.17E-02 0.1 37.34 17.484 0.75 18.04 11.1 39.7 46.71 4.16 2.8 21.96 8.3 22.38 9.145 1.25 7.554 0.3 23.2 51.0 41.3 21.Calzada Benza.3 28.344 1.6 46.8 63.04 10.8 45.82E-04 5.1 31.69 12.01 17.0 33.52 12.56 15.9 52.7 29.6 40.82 4.4 83.239 1.94 4.995 3.61 15.3 140.68 14.04 14.3 29.2 26.7 76.30 7.00E-02 7.7 37.90 9.35 11.33 3.6 47.96 0.39 6.3 30.88 10.57 4.3 -2.1 30.4 112.610 2.01 5.5 28.5 45.01 6.1 41.4 32.6 24.70 6.16 11.57E-04 2.735 2.60 3.61 6.1 -0.3 27.26 14.6 41.6 43.0 44.45 4.3 39.12 13.84 7.2 38.55 13.59 10.0 48.91 7.352 0.25 3.237 1.5 96.25 5.676 0.8 26.323 2.2 67.0 23.8 28.7 34.6 38.5 61.7 66.5 101.58 π ϕ 1 2 3 4 5 6 7 8 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 40 50 60 70 80 90 100 0.17 11.04 19.47 17.7 60.22 11.4 40.8 43.86 11.4 32.3 61.28 18.98 11.9 -1.60 5.25 19.6 88.3 89.34 13.34 13.85 15.7 47.96 0.21 11.5 0.3 49. TABLA 4: DISTRIBUCIÓN F DE FISHER 54 de 59 . José (1982): Métodos Estadísticos para la Investigación.Calzada Benza. 5ta edición. Calzada Benza. 55 de 59 . 5ta edición. José (1982): Métodos Estadísticos para la Investigación. 5ta edición.Calzada Benza. 56 de 59 . José (1982): Métodos Estadísticos para la Investigación. 46 5.56 5.26 4.00 4.28 3.68 5.04 3.0 4.0 4.50 8.0 90.66 5.41 4.01.11 3.0 90.21 3.50 3.01 6.84 3.83 6.47 5.30 4.09 14.46 5.51 3.43 4. 8 9 10 12 14 16 18 20 p = número de promedios del ordenamiento que se esta probando 18.80 3.41 4.00 3.61 5.38 3.44 5.20 3.5 0.64 5.22 3.10 3.47 5.50 9.41 4.02 7.70 3.50 8.83 6.09 14.0 4.86 3.52 5.35 4.50 9.07 3.43 4.56 5.38 4.0 90.90 3.46 5.44 4.47 5.39 4.0 90.02 7.45 5.56 5.99 18.80 3.52 5.46 4.50 3.50 8.52 5.46 5.81 18.0 90.09 14.32 3.09 14.38 4.50 9.75 3.0 90.08 3.25 4.47 5.45 5.42 4.5 0.50 8.1 0.96 3.03 4.61 5.50 9.0 6.37 4.02 7.76 3.68 6.5 0.47 3.30 3.83 6.69 3.35 4.61 5.0 6.0 90.40 3.95 3.00 3.15 3.44 4.26 3. 5ta edición.72 18.09 14.83 6.02 7.19 4.44 4.1 0.0 4.34 4.00 57 de 59 .45 5.Calzada Benza.5 0.0 6.09 14.17 3.1 0.52 5.36 4.85 3.61 5.61 6.09 14.97 18.37 4.07 3.68 5.1 0.68 6.35 4. José (1982): Métodos Estadísticos para la Investigación.73 3.00 4.0 6.0 90.42 4.68 6.52 5.36 5.20 3.47 5.56 5.5 0.79 3.51 3.70 3.64 18.45 4.17 18.56 5.00 4.99 3.65 3.10 3.02 7.30 4.50 3.00 3.10 4.09 14.62 3.73 3.0 90.13 3.5 0.70 3.47 5.53 3.12 3.83 6.80 3.90 4.50 5.50 9.47 5.39 3.31 4.81 3.06 3.47 5.66 3.83 6.46 5.83 6.46 5.36 4.45 4.47 4.52 5.11 4.94 18.00 3.47 5.61 5.1 0.68 5.0 4.09 14.61 5.20 3.0 6.40 3.88 3.09 14.02 7.15 3.04 3.09 14.42 3.30 3.0 4.02 7.09 14.15 4.29 3.50 3.70 3.46 5.28 3.16 4.30 4.1 0.02 7.58 18.95 3.60 3.0 4.89 3.28 3.10 3.20 3.61 6.68 6.47 5.47 5.83 6.46 5.05 y 0.70 4.98 4.5 0.46 3.44 5.0 90.1 0.48 5.5 0.94 3.1 0.70 3.64 5.1 2 3 4 5 6 7 Amplitudes Estudiantizadas Significativas para 0.35 3.17 3.0 6.0 6.02 7.84 18.87 3.80 3.39 4.23 3.08 3.5 0.36 3.26 3.40 3.54 5.13 3.83 6.40 3.68 3.08 3.26 3.56 5.46 5.56 5.05 3.42 3.60 3.80 3.80 4.05 3.55 3.80 3.45 5.02 6.09 14.47 5.5 0.13 3.41 4.79 6.54 3.5 0.48 5.5 0.0 4.68 6.50 3.60 5.30 3.20 4.52 5.0 90.20 3.52 5.0 4.30 4.60 4.93 3.06 4.24 3.27 4.0 4.93 6.0 90.60 3.74 3.0 90.47 5.86 3.02 7.50 8.30 4.96 3.0 6.47 5.0 6.77 3.36 4.50 18.55 3.30 3.63 3.00 3.28 3.1 0.47 5. TABLA 5.48 5.46 5.90 4.56 5.52 5.40 4.90 18.1 0.0 4.74 3.40 3.0 4.61 3.46 4.56 5.24 3.90 3.02 3.00 3.30 3.89 3.92 3.09 14.22 3.95 3.24 3.47 5.36 3.0 4.0 6.54 3.32 3.50 9.70 3.56 5.5 0.44 4.23 4.14 3.14 3.18 3.36 3.21 4.55 5.50 9.63 3.47 5.91 3.20 4.68 6.48 3.00 3.47 5.61 5.5 0.46 5.1 0.68 6.40 4.50 8.50 3.01 4.83 6.0 6.02 7.0 4.0 6.27 4.60 3.1 0.60 3.90 3.1 0.98 3.52 5.48 3.51 3.50 8.48 5.41 4.37 18.30 3.74 5.0 90.84 3.42 4.45 3.83 6. PRUEBA DE DUNCAN GL Error 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 Nivel 0.56 5.0 6.77 18.46 5.1 0.0 6.76 3.33 4.5 0.70 3.24 3.40 3.34 3. 45 3.44 4.91 2.20 3.45 3.90 3.98 3.14 3.70 3.85 3.27 4.74 3.41 4.36 4.72 3.47 4.46 3.41 3.72 3.34 4.26 4.33 4.71 2.55 3.30 4.65 3.25 4.1 0.42 4.31 3.1 0.39 4.04 4.46 4.93 3.47 4.75 3.99 2.47 4.33 3.40 4.47 3.91 3.5 0.1 0.40 3.88 3.10 3.63 3.32 4. José (1982): Métodos Estadísticos para la Investigación.17 3.23 3.45 4.5 0.67 3.06 2.48 3.75 3.30 4.47 4.12 4.1 0.44 3.54 3.67 3.22 4.21 4.65 3.40 4.67 3.79 3.86 3.44 4.46 4.50 3.46 4.29 4.60 3.43 4.44 3.14 3.38 4.00 3.48 3.42 4.35 4.45 4.71 3.1 0. 5ta edición.54 3.45 4.56 3.75 3.45 4.1 0.44 4.22 4.24 3.05 3.79 3.58 3.26 4.47 4.24 3.96 2.30 3.41 4.24 4.01 3.33 4.Calzada Benza.39 4.37 4.71 3.46 4.12 4.22 4.17 3.38 3.45 3.44 4.32 4.64 3.06 3.47 4.17 4.34 4.69 3.31 4.1 0.06 4.91 3.27 4.04 4.76 2.1 0.16 3.14 4.19 4.38 3.19 4.42 4.5 0.58 3.42 4.1 0.46 4.85 2.43 4.89 3.11 3.31 16 3.47 4.34 3.55 3.26 4.47 4.45 3.46 4.37 3.08 4.38 4.26 3.36 3.44 4.06 3.10 4.72 3.5 0.10 4.27 3.39 4.53 3.30 4.45 4.13 4.20 4.38 4.51 3.96 4.44 4.45 3.39 2.59 3.40 3.1 0.33 4.34 3.34 18 3.28 4.24 4.12 4.46 4.29 3.44 4.40 4.45 4.37 4.07 2.68 3.64 3.17 3.5 0.37 4.55 3.57 3.47 4.35 4.31 4.95 4.42 4.12 3.36 3.40 4.46 4.11 3.34 3.25 4.18 4.11 4.47 4.17 4.29 4.56 3.47 4.33 4.37 4.47 4.65 3.76 3.39 3.65 3.36 4.34 4.32 4.43 4.93 2.02 2.15 4.38 4.5 0.38 4.46 4.07 4.85 3.34 3.33 4.37 4.22 4.36 4.41 3.68 3.51 3.32 3.17 3.47 3.68 3.90 p = número de promedios del ordenamiento que se esta probando 5 6 7 8 9 10 12 14 3.45 4.64 3.5 0.34 4.82 3.22 3.49 3.98 4.41 ∞ 58 de 59 .42 3.72 3.36 3.30 4.5 0.50 3.78 3.43 3.92 3.21 3.1 0.27 4.38 20 3.62 3.20 4.47 4.18 4.80 3.92 3.57 3.74 3.28 4.16 3.44 4.37 4.02 3.47 4.94 3.09 3.5 0.63 3.64 3 3.25 4.47 4.35 4.95 3.46 4.15 4.67 3.58 3.25 4.62 3.31 4.86 3.98 3.05 3. GL Error 16 17 18 19 20 22 24 26 28 30 40 60 100 Nivel 0.30 4.29 4.54 3.34 4.46 4.10 2.41 4.92 2.27 3.41 3.82 3.73 3.41 3.04 3.42 3.28 4.79 3.98 3.46 4.58 3.25 3.17 3.61 3.81 3.80 3.23 3.47 4.25 3.21 4.08 4.47 4.55 3.85 3.35 4.92 3.55 3.57 3.45 4.5 0.42 4.37 4.43 4.13 2.88 3.84 3.56 3.5 0.43 4.62 2.5 0.41 4.47 3.09 3.37 4.50 3.33 3.5 0.22 3.40 4.15 4.67 3.41 4.41 4.38 4.60 3.39 4.5 0.44 4.14 4.88 3.75 3.22 4.61 3.35 3.83 3.45 3.36 4.48 3.45 4.1 2 3.30 3.60 3.99 2.21 3.20 4.66 3.97 4.77 3.35 4.44 4.28 3.65 3.00 4.1 0.40 4.61 3.24 3.39 3.47 4.80 4 3.71 3.35 3.23 4.15 4.1 0.60 3.50 3.31 4. 80 6.15 8.16 5.66 5.12 5.65 4.80 5.74 15 55.79 7.11 5.72 8.49 3.93 5.10 6.23 5.23 4.25 4.35 5.86 6 40.32 5.00 4.33 4.61 5.01 4.80 6.68 3.63 5.78 4.17 5.51 7.33 6.95 3.35 6.03 4.21 6.92 4.57 5.44 6.59 5.70 5.96 2.47 6.30 4.82 4.94 4.90 5.91 5.03 7.60 4.Calzada Benza.82 3.76 6.97 6.38 10.90 4.83 4.41 4.52 4.80 16 56.08 4.33 5.34 6.88 5.35 5.11 5.44 5.52 4.72 5.39 5.95 5.27 5.74 5.78 5.32 15.23 4.99 9.68 4.04 4.92 4.39 5.24 6.86 4.40 5.53 3.36 5.44 4.88 3.46 7.90 4.39 10 49.03 7 43.44 3.33 15.39 5.10 4.77 11.44 5.12 5.94 6.20 6.51 4.69 8.29 5.11 9.17 6.98 8.63 5 37.98 4.71 5.46 5.61 5.17 4.65 6.39 9.31 4.11 5.98 3.04 3.92 4.75 4.62 13 53.90 4.53 5.10 5.40 13.46 3.85 17 57.64 4.15 3.55 5.32 5.48 7.21 7.99 4.70 4.16 5.74 4.25 5.31 5.04 4.59 4.18 5.97 5.81 5.99 5.33 5.82 4.39 4.63 4. José (1982): Métodos Estadísticos para la Investigación.60 6.71 5.66 5.87 5.95 8.82 6.83 7.04 5.36 13.96 14.95 4.05 4.63 3.73 4.27 6.20 3.43 5.04 4.73 5.85 5.46 5.65 6.23 8.79 5.47 11 50.53 8.83 16.24 5.92 5.51 5.31 5.61 5.77 3 26.63 5.03 5.85 3.98 3.51 6.37 4.02 4.12 7.08 5.52 5.24 9.30 4.17 6.26 3.70 3.05 5.67 3. TABLA DE TUKEY Grados de libertad del error Amplitudes Estudiantizadas Significativas de Tukey (AES (T).04 3.71 6.14 5.53 4.19 6.03 8.56 4.64 6.29 6.47 5.91 10.75 9.95 2.02 6.09 5.69 5.97 2.40 3.35 8.55 5.16 4.83 2.11 6.26 5.15 5. Número de Tratamientos 2 17.03 5.10 4.17 5.38 5.84 8.82 5.20 5. TABLA 6.86 5.00 4.73 6.50 6.27 5.25 5.57 6.00 3.52 7.67 5.21 7.64 4.61 5.88 7.90 5.13 5.34 7.67 4.60 4.15 5.59 5.67 5.08 4.03 5.73 3.14 6.20 5.30 6.90 3.75 5.55 4.86 2.08 10.65 4.77 5.65 4.71 4.12 12.80 2.66 7.43 6.43 5.60 5.40 5.54 4.32 6.72 7.89 18 58.44 8.54 5.91 7.13 6.59 7.09 4.88 4.12 5.37 7.03 6.24 5.31 4 32.98 5.78 4.00 4.33 5.79 6.27 5.47 6.74 8.82 5.27 5.92 3.93 3.65 3.88 4.30 5.11 3.47 4.68 14 54.56 4.45 4.37 10.30 5.95 4.06 3.59 3.47 4.08 4.96 4.59 3.91 5.81 4.15 4.02 4.98 9.18 5.61 3.61 5.58 6.04 6.94 4.98 2.15 5.82 4.49 5.28 5.20 4.21 5.82 9.71 5. al 5% de probabilidad.91 4.29 9 47.27 6.96 3.03 8.11 4.28 6.34 6.83 5.74 5.53 5.59 5.45 4.49 5.84 5.43 5.28 4.73 5.20 5.41 11.57 5.98 5.01 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 24 30 40 60 120 Inf 59 de 59 .83 6.89 4.73 4.69 4.07 5.58 6.05 5.56 16.03 3.05 6.34 3.84 5.79 3.46 5.49 6.77 3.80 6.59 14.76 4.85 5.90 4.03 7.13 8.81 4.57 4.93 5.99 4.20 5.71 5.74 3.18 7.20 18.35 5.89 2.38 5.90 5.24 4.02 5.00 5.72 4.00 2.36 3.36 5.21 5.19 5.60 7.97 20 59.07 13.68 4.76 5.90 4.33 4.16 4.79 5.92 6.64 3.19 6.46 4.54 9.37 4.99 6.11 5.93 19 58.43 5.50 5.36 15.14 10.31 5.31 5.03 4.04 16.62 4.85 6.50 3.65 10.96 5.60 5.47 5.36 5.26 4.71 5.64 5.32 5.08 10.01 3.79 4.57 11.41 4.22 4.49 5.01 4.63 5.79 5.36 6.93 7.11 5.36 4.39 6.59 5.82 4.87 6.05 4.15 6.06 5.90 5.77 4.65 5.85 7.55 6.49 5.06 4.17 8 45.48 6.40 6.94 4.43 5.22 16.92 2.55 5.79 5.06 4.65 5.36 5. 5ta edición.55 12 51.08 3.34 4.09 5.72 5.79 5.49 4.22 5.66 6. Documents Similar To Apuntes de Estadistica - 2012Skip carouselcarousel previouscarousel nextAPUNTES DE DISEÑOS EXPERIMENTALESPanorama Andino Sobre Cambio Climaticotransformacion de datosManual de Analisis de SuelosExp. AgricolaDCA Factorial,EjerciciosDiseno Completamente Al Azar Pruebas de ContrasteProyecto de Investigacion de Paprikafitopatologia 2.2ANOVA-TUCKEY-SCHEFFE-Seminario DR. GUSTAVO RUÏZModulo de FruticulturaFicha TécnicaANALISIS COVARIANZA DBCA - WAGNER - copia.docx1. Det.area FoliarExperimentos factorialesVisión General de Variables TipificadasPractica 3 Calificación Por Velocidad y Numero de Ciclos a ObservarCálculos hidrológicos e hidráulicos Maximo VillonDISTRIBUCIÓN NORMALAnálisis de Capabilidad de Proceso SEGUNDA PARTEConcepto de Analisis de SistemasIntegracion NumericaRegla EmpiricaDesarenador 10 NOVTaller 5Cultivo de PaprikaControl de Plagas y Enfermedades Cultivo de DuraznoMÉTODO DE NEWTON-COTEProblemas Distribucic3b3n de Probabilidad NormalCULTIVO DE MAIZ 4More From Carlos Egoavil De la CruzSkip carouselcarousel previouscarousel nextInterpretacion de Analisis de Suelos para el cultivo de caféManual de Análisis Quimico de Suelos Para El TropicoAnalisis de Suelos de SatipoBoletin Muestreo Suelos y Costo 2015Fertilizacion del café.pptxExperiencias Agrofor Alto Mayo PeruPNT CAAM_Julio 2014Interpretacion Analisis de SuelosSacha Inchifases-lunareslFundo San Juanito-corregido 11-09-12Informe Tecnico Variedad La_EsperanzaFotosintesis C3_C4_CAM.pdfLectura 1 ToxicReforestacion Del BPAM(Yuracyacu)_SanMartinFooter MenuBack To TopAboutAbout ScribdPressOur blogJoin our team!Contact UsJoin todayInvite FriendsGiftsLegalTermsPrivacyCopyrightSupportHelp / FAQAccessibilityPurchase helpAdChoicesPublishersSocial MediaCopyright © 2018 Scribd Inc. .Browse Books.Site Directory.Site Language: English中文EspañolالعربيةPortuguês日本語DeutschFrançaisTurkceРусский языкTiếng việtJęzyk polskiBahasa indonesiaSign up to vote on this titleUsefulNot usefulYou're Reading a Free PreviewDownloadClose DialogAre you sure?This action might not be possible to undo. Are you sure you want to continue?CANCELOK
Copyright © 2024 DOKUMEN.SITE Inc.