Artículos

5.1: Preludio a la distribución chi-cuadrado

5.1: Preludio a la distribución chi-cuadrado


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

OBJETIVOS DEL CAPÍTULO

Al final de este capítulo, el estudiante debería poder:

  • Interprete la distribución de probabilidad de chi-cuadrado a medida que cambia el tamaño de la muestra.
  • Realizar e interpretar pruebas de hipótesis de bondad de ajuste de chi-cuadrado.
  • Realizar e interpretar la prueba de chi-cuadrado de las pruebas de hipótesis de independencia.
  • Realizar e interpretar pruebas de hipótesis de homogeneidad de chi-cuadrado.
  • Realizar e interpretar pruebas de hipótesis de varianza simple de chi-cuadrado.

¿Se ha preguntado alguna vez si los números de la lotería se distribuyen de manera uniforme o si algunos números aparecen con mayor frecuencia? ¿Qué tal si los tipos de películas preferidas por las personas fueran diferentes en los diferentes grupos de edad? ¿Qué pasa si una máquina de café dispensa aproximadamente la misma cantidad de café cada vez? Puede responder a estas preguntas realizando una prueba de hipótesis.

Ahora estudiará una nueva distribución, una que se utiliza para determinar las respuestas a tales preguntas. Esta distribución se llama distribución chi-cuadrado.

Figura ( PageIndex {1} ): la distribución chi-cuadrado se puede usar para encontrar relaciones entre dos cosas, como los precios de los comestibles en diferentes tiendas. (crédito: Pete / flickr)

En este capítulo, aprenderá las tres aplicaciones principales de la distribución chi-cuadrado:

  1. la prueba de bondad de ajuste, que determina si los datos se ajustan a una distribución particular, como en el ejemplo de la lotería
  2. la prueba de independencia, que determina si los eventos son independientes, como en el ejemplo de la película
  3. la prueba de una sola varianza, que prueba la variabilidad, como en el ejemplo del café

Aunque la distribución de chi-cuadrado depende de calculadoras o computadoras para la mayoría de los cálculos, hay una tabla disponible (ver [enlace]). Las instrucciones de las calculadoras TI-83 + y TI-84 se incluyen en el texto.

EJERCICIO COLABORATIVO EN EL AULA

Busque en la sección de deportes de un periódico o en Internet algunos datos deportivos (promedios de béisbol, puntajes de baloncesto, puntajes de torneos de golf, probabilidades de fútbol, ​​tiempos de natación, etc.). Trace un histograma y un diagrama de caja usando sus datos. Vea si puede determinar una distribución de probabilidad que se ajuste a sus datos. Tenga una discusión con la clase sobre su elección.


5.1: Preludio a la distribución chi-cuadrado

La notación para el distribución de chi-cuadrado es [látex] Displaystyle chi sim chi ^ 2_[/ látex], donde df = grados de libertad que dependen de cómo se utilice chi-cuadrado. (Si quieres practicar el cálculo de probabilidades de chi-cuadrado, usa [látex] displaystyle= n-1 [/ látex]. Los grados de libertad para los tres usos principales se calculan cada uno de manera diferente).

Para el χ 2, la media de la población es μ = df y la desviación estándar de la población es [latex] displaystyle sigma _ < chi ^ 2> = sqrt <2 (df)> [/ latex].

La variable aleatoria se muestra como χ 2, pero puede ser cualquier letra mayúscula.

La variable aleatoria para una distribución de chi-cuadrado con k grados de libertad es la suma de k variables normales estándar cuadradas independientes.

  1. La curva no es simétrica y está sesgada hacia la derecha.
  2. Hay una curva de chi-cuadrado diferente para cada gl.
  3. La estadística de prueba para cualquier prueba es siempre mayor o igual a cero.
  4. Cuándo df & gt 90, la curva de chi-cuadrado se aproxima a la distribución normal. Para [látex] Displaystyle sim chi ^ 2_ <1,000> [/ latex] la media, [latex] displaystyle mu = df = 1,000 [/ latex] y la desviación estándar, [latex] displaystyle sigma = sqrt <2 (1,000 )> [/ látex]. Por lo tanto, [látex] displaystyle sim(1.000, 44,7) [/ látex], aproximadamente.
  5. La media, μ, se encuentra justo a la derecha del pico.

Vista previa del contenido

Tenemos un tema teórico más que abordar antes de volver a algunas aplicaciones prácticas en la página siguiente, y es la relación entre la distribución normal y la distribución chi-cuadrado. El siguiente teorema aclara la relación.

Si (X ) se distribuye normalmente con media ( mu ) y varianza ( sigma ^ 2 & gt0 ), entonces:

se distribuye como una variable aleatoria de chi-cuadrado con 1 grado de libertad.

Prueba

Para probar este teorema, necesitamos demostrar que el p.d.f. de la variable aleatoria (V ) es el mismo que el p.d.f. de una variable aleatoria de chi-cuadrado con 1 grado de libertad. Es decir, debemos demostrar que:

La estrategia que tomaremos es encontrar (G (v) ), la función de distribución acumulativa de (V ), y luego diferenciarla para obtener (g (v) ), la función de densidad de probabilidad de (V ). Dicho esto, comenzamos con la definición de la función de distribución acumulativa de (V ):

Esa segunda igualdad proviene, por supuesto, del hecho de que (V = Z ^ 2 ). Ahora, tomando nota del comportamiento de una función parabólica:

podemos simplificar (G (v) ) para obtener:

Ahora, para encontrar la probabilidad deseada, necesitamos integrar, en el intervalo dado, la función de densidad de probabilidad de una variable aleatoria normal estándar (Z ). Eso es:

Por la simetría de la distribución normal, podemos integrar solo sobre la parte positiva de la integral y luego multiplicar por dos:

Bien, ahora hagamos el siguiente cambio de variables:

para (v & gt0 ). Ahora, por una forma del teorema fundamental del cálculo:

podemos tomar la derivada de (G (v) ) para obtener la función de densidad de probabilidad (g (v) ):

para (0 & ltv & lt infty ). Si comparas esta (g (v) ) con la primera (g (v) ) que dijimos que necesitábamos encontrar el camino de regreso al comienzo de esta demostración, deberías ver que hemos terminado si lo siguiente es cierto:

De hecho, es cierto, como ilustra el siguiente argumento. Como (g (v) ) es un p.d.f., la integral del p.d.f. sobre el soporte debe ser igual a 1:

Ahora, cambie las variables dejando (v = 2x ), de modo que (dv = 2dx ). Haciendo el cambio, obtenemos:

Reescribiendo las cosas un poco, obtenemos:

Ahora, es solo una cuestión de reconocer que la integral es la función gamma de ( frac <1> <2> ):

Entonces, ahora que nos hemos ocupado del argumento teórico. Echemos un vistazo a un ejemplo para ver que el teorema es, de hecho, creíble en un sentido práctico.


5.1: Preludio a la distribución chi-cuadrado

Tutorial de chi-cuadrado para biología 231/425

La prueba de chi-cuadrado se usa para probar "bondad de ajuste" de datos a un modelo. Hay varios tipos diferentes de prueba de "chi-cuadrado", así como otras pruebas que utilizan la "distribución de chi-cuadrado". Todos ellos tienen una cosa en común. Calculan la probabilidad de observar sus resultados (o resultados que son menos probables) dada su hipótesis subyacente. Si esa probabilidad es baja, entonces se sentiría más seguro al rechazar la hipótesis.

La distribución de chi-cuadrado.

Antes de hablar sobre la prueba de "chi-cuadrado", que se llama lamentablemente, es necesario hablar sobre la distribución de chi-cuadrado . La distribución de chi-cuadrado, en sí misma, se basa en una fórmula matemática complicada. Hay muchas otras distribuciones utilizadas por los estadísticos (por ejemplo, F y t) que también se basan en complicadas fórmulas matemáticas. Afortunadamente, este no es nuestro problema. Mucha gente ya ha realizado los cálculos relevantes y las computadoras pueden hacerlos muy rápidamente en la actualidad.

Cuando realizamos una prueba estadística utilizando un Estadística de prueba , asumimos que el estadístico de prueba sigue una distribución de probabilidad conocida. De alguna manera comparamos nuestros resultados observados y esperados, resumimos estas comparaciones en una única estadística de prueba y comparamos el valor de la estadística de prueba con su supuesta distribución subyacente. Las buenas estadísticas de prueba son fáciles de calcular y siguen de cerca una distribución conocida. Las diversas pruebas de chi-cuadrado (y las relacionadas GRAMO-pruebas) suponen que el estadístico de prueba sigue la distribución de chi-cuadrado.

Supongamos que realiza una prueba y calcula un valor estadístico de prueba de 4,901. Supongamos también que el estadístico de prueba sigue una distribución de chi-cuadrado. Supongamos también que tiene 2 grados de libertad (discutiremos esto más adelante). [Hay una distribución de chi-cuadrado separada para cada número de grados de libertad.] El valor de chi-cuadrado puede variar entre 0 e infinito positivo. 91,37% de la distribución de chi-cuadrado real para 2 d.f. se toma en valores inferiores a 4,901. Por el contrario, el 8,63% de la distribución está ocupado por valores de 4,901 o superiores.

Sabemos que nuestra estadística de prueba puede no seguir perfectamente la distribución de chi-cuadrado. Con suerte, lo sigue bastante bien. Estimamos nuestra probabilidad de calcular un valor estadístico de prueba de 4,901 o más como 8,63%, asumiendo que nuestra hipótesis es correcta y que cualquier desviación de la expectativa se debe al azar. Por convención, si usamos un estadístico de prueba para estimar la probabilidad de que nuestra hipótesis sea incorrecta, rechazamos la hipótesis si esa probabilidad es del 95% o mayor. Para decirlo de otra manera, optamos por rechazar la hipótesis si hay un 5% o menos de probabilidad de que cometamos un error al hacerlo. Este umbral no es estricto ni rápido, pero es probablemente el umbral más utilizado por las personas que realizan pruebas estadísticas.

Cuando realizamos una prueba estadística, nos referimos a esta probabilidad de "rechazar erróneamente nuestra hipótesis" como "alfa". Por lo general, equiparamos alfa con un pag-valor . Por lo tanto, usando los números de antes, diríamos pag= 0.0863 para un valor de chi-cuadrado de 4.901 y 2 d.f. No rechazaríamos nuestra hipótesis, ya que pag es mayor que 0.05 (es decir, pag& gt0.05).

Debe tener en cuenta que muchos paquetes estadísticos para computadoras pueden calcular pag-valores para estadísticos de prueba distribuidos por chi-cuadrado. Sin embargo, es común que las personas se refieran simplemente a tablas de chi-cuadrado. Considere la siguiente tabla:

d.f. pag=0.9 pag=0.5 pag=0.1 pag=0.05 pag=0.01
1 0.016 0.455 2.706 3.841 6.635
2 0.211 1.386 4.605 5.991 9.210
3 0.584 2.366 6.251 7.815 11.345

La primera columna enumera los grados de libertad. La fila superior muestra el pag-valor en cuestión. Las celdas de la tabla dan el valor crítico de chi-cuadrado para un dado pag-valor y un número dado de grados de libertad. Por tanto, el valor crítico de chi-cuadrado para pag= 0.05 con 2 d.f. es 5,991. Antes, recuerde, consideramos un valor de 4,901. Observe que esto es menos de 5.991 y que los valores críticos de chi-cuadrado aumentan a medida que pag-los valores disminuyen. Incluso sin una computadora, entonces, podríamos decir con seguridad que para un valor de chi-cuadrado de 4.901 con 2 d.f., 0.05 & ltpag& lt0.10. Eso es porque, para la fila correspondiente a 2 d.f., 4.901 cae entre 4.605 y 5.991 (los valores críticos para pag= 0,10 y pag= 0,05, respectivamente).

Una prueba de chi-cuadrado de bondad de ajuste simple.

Considere el siguiente experimento de lanzamiento de una moneda. Lanzamos una moneda 20 veces, obteniendo 12 "caras" y 8 "cruces". Usando la distribución binomial, podemos calcular la probabilidad exacta de obtener 12H / 8T y cualquiera de los otros resultados posibles. Recuerde, para la distribución binomial, debemos definir k (el número de éxitos), norte (el número de ensayos de Bernoulli) y pag (la probabilidad de éxito). Aquí, norte tiene 20 años y pag es 0,5 (si nuestra hipótesis es que la moneda es "justa"). La siguiente tabla muestra la probabilidad exacta (pag(k|pN) para todos los posibles resultados del experimento. Se resalta la probabilidad de 12 caras / 8 cruces.

k (# cabezas) pag(k|pN)
0 0.00000095
1 0.00001907
2 0.00018120
3 0.00108719
4 0.00462055
5 0.01478577
6 0.03696442
7 0.07392883
8 0.12013435
9 0.16017914
10 0.17619705
11 0.16017914
12 0.12013435
13 0.07392883
14 0.03696442
15 0.01478577
16 0.00462055
17 0.00108719
18 0.00018120
19 0.00001907
20 0.00000095

Ahora, probemos la hipótesis de que la moneda es justa. Para hacer esto, necesitamos calcular la probabilidad de ver nuestro resultado observado (12 caras / 8 cruces) o cualquier otro resultado que esté tan lejos o más lejos del resultado esperado (10 caras / 10 cruces). Esto es bastante simple, porque todos esos resultados son mutuamente excluyentes, por lo tanto, podemos usar la regla de la suma y sumar sus probabilidades individuales para obtener una pag-valor para nuestra prueba. La tabla binomial se repite a continuación, esta vez resaltando todas las filas que se deben sumar para obtener nuestro pag-valor.

k (# cabezas) pag(k|pN)
0 0.00000095
1 0.00001907
2 0.00018120
3 0.00108719
4 0.00462055
5 0.01478577
6 0.03696442
7 0.07392883
8 0.12013435
9 0.16017914
10 0.17619705
11 0.16017914
12 0.12013435
13 0.07392883
14 0.03696442
15 0.01478577
16 0.00462055
17 0.00108719
18 0.00018120
19 0.00001907
20 0.00000095

Usando la regla de la suma, obtenemos un pag-valor de 0,50344467. Siguiendo la convención de no rechazar una hipótesis si pag& gt0.05, no rechazamos la hipótesis de que la moneda es justa.

Sucede que hacer este tipo de cálculo, aunque tedioso, se puede realizar con bastante facilidad, especialmente si sabemos cómo utilizar un programa de hoja de cálculo. Sin embargo, nos encontramos con problemas prácticos una vez que los números comienzan a aumentar. Es posible que tengamos que calcular cientos o miles de probabilidades binomiales individuales. Considere probar la misma hipótesis lanzando la moneda 10,000 veces. ¿Cuál es la probabilidad exacta, basada en la distribución binomial, de obtener 4865 caras / 5135 cruces o cualquier resultado que esté tan lejos o más lejos de 5000 caras / 5000 cruces? Debe reconocer que sumará 9,732 probabilidades individuales para obtener el pag-valor. También encontrará que obtener esas probabilidades en primer lugar a menudo es imposible. ¡Intente calcular 10,000! (1 x 2 x 3 x. X 9.998 x 9.999 x 10.000).

A medida que el tamaño de la muestra aumenta, podemos sustituirlo por un estadístico de prueba simple que siga la distribución de chi-cuadrado. Incluso con tamaños de muestra pequeños (como los 20 lanzamientos de moneda que usamos para probar la hipótesis de que la moneda era justa), el prueba de bondad de ajuste de chi-cuadrado funciona bastante bien. La estadística de prueba que generalmente se conoce como "chi-cuadrado" (desafortunadamente, en mi opinión) se calcula comparando los resultados observados con los resultados esperados. El cálculo es sencillo. Para cada resultado posible, primero restamos el número esperado del número observado. Nota: no restamos porcentajes, ¡sino los números reales! Esto es muy importante. Después de hacer esto, cuadramos el resultado (es decir, lo multiplicamos por sí mismo). Luego dividimos este resultado por el número esperado. Sumamos estos valores en todas las clases de resultados posibles para calcular el estadístico de la prueba de chi-cuadrado.

La fórmula para la estadística de prueba es básicamente la siguiente:

N es el número de posibles resultados. En el experimento de lanzamiento de monedas, N = 2. Cuando i = 1, podríamos estar hablando de "cabezas". Por lo tanto, cuando i = 2, estaríamos hablando de "colas". Para cada resultado, hay un valor observado (obsI ) y un valor esperado (expI ). Estamos sumando (obsI - ExpI ) 2 / expI para cada resultado.

¿Cuál es el valor del estadístico de la prueba de chi-cuadrado si nuestros valores observados y esperados son los mismos? Si obsI - ExpI = 0 para todos los resultados, entonces el estadístico de prueba tendrá un valor de 0. Observe que, debido a que el numerador está al cuadrado, siempre estamos sumando números positivos. Por lo tanto, a medida que los valores observados divergen más de los valores esperados, el estadístico de la prueba de chi-cuadrado se vuelve más grande. Por lo tanto, los valores grandes de chi-cuadrado se asocian con grandes diferencias entre los valores observados y esperados.

Aquí está la tabla anterior, con dos columnas agregadas para que podamos calcular la estadística de prueba de chi-cuadrado. Uno es para nuestros datos observados, el otro para el cálculo.

Clase de resultado Observado
Número de
Ocurrencias
de resultado
Probabilidad
de la clase de resultado
Esperado
Número de
Ocurrencias
de resultado
(obs-exp) 2 / exp
"cabezas"120.5 0,5 x 20 = 10.0(12-10) 2 / 10 = 0.4.
"cruz"80.5 0,5 x 20 = 10.0(8-10) 2 / 10 = 0.4.
Suma 20 . 20.0 0.8

Observe que los totales de los números observados y esperados son los mismos (ambos son 20). Si alguna vez hace esta prueba y las columnas no suman el mismo total, ¡ha hecho algo mal!

En este caso, la suma de la última columna es 0,8. Para este tipo de prueba, el número de grados de libertad es simplemente el número de clases de resultados menos uno. Dado que tenemos dos clases de resultados ("cara" y "cruz"), tenemos 1 grado de libertad. Yendo a la tabla de chi-cuadrado, buscamos en la fila 1 d.f. para ver dónde se encuentra el valor 0.8. Se encuentra entre 0,455 y 2,706. Por tanto, diríamos que 0,1 & ltpag& lt0.5. Si tuviéramos que calcular el pag-valor exactamente, usando una computadora, diríamos pag= 0,371. Entonces, la prueba de chi-cuadrado no nos da exactamente la respuesta correcta. Sin embargo, a medida que aumenta el tamaño de la muestra, hace un trabajo cada vez mejor. También, pag-los valores de 0.371 y 0.503 no son cualitativamente muy diferente. En ningún caso estaríamos inclinados a rechazar nuestra hipótesis.

Podemos repetir la prueba de bondad de ajuste de chi-cuadrado para el tamaño de muestra más grande (4.865 caras / 8.135 colas). Recuerde, en este caso, es virtualmente imposible calcular un pag-valor de la distribución binomial.

Clase de resultado Observado
Número de
Ocurrencias
de resultado
Probabilidad
de la clase de resultado
Esperado
Número de
Ocurrencias
de resultado
(obs-exp) 2 / exp
"cabezas"4,8650.5 0,5 x 10.000 = 5,000.0(4,865-5,000) 2 / 5,000 = 3.645
"cruz"5,1350.5 0,5 x 10.000 = 5,000.0(5,135-5,000) 2 / 5,000 = 3.645
Suma 10,000 . 10,000.0 7.290

Si regresamos a la tabla de valores críticos para la distribución de chi-cuadrado (1 d.f.), encontramos que un valor estadístico de prueba de 7.290 está fuera del lado derecho de la tabla. Es decir, es mayor que el valor crítico de la estadística de prueba para pag= 0,01. Por tanto, podemos decir que pag& lt0.01, y rechace la hipótesis de que la moneda es justa. Observe que la desviación de los datos esperados es proporcionalmente menor en este ejemplo que en el ejemplo de 20 volteos: (135/5000 = 0.027 2/10 = 0.2). Sin embargo, debido a que el tamaño de nuestra muestra es mucho mayor, tenemos una mayor Poder estatico para probar la hipótesis.

PRUEBA TU COMPRENSIÓN.

Hay 110 casas en un barrio en particular. Los liberales viven en 25 de ellos, los moderados en 55 y los conservadores en los 30 restantes. Un avión que transporta sacos de harina de 65 libras pasa sobre el vecindario. Por alguna razón, 20 sacos caen del avión, cada uno golpeando milagrosamente el techo de una casa diferente. Ninguno golpeó los patios o la calle, ni aterrizó en los árboles, ni nada por el estilo. Cada uno atraviesa un techo. De todos modos, 2 atraviesan un techo liberal, 15 atraviesan un techo moderado y 3 atraviesan un techo conservador. ¿Deberíamos rechazar la hipótesis de que los sacos de harina golpean las casas al azar?

Surtido independiente de genes.

El enfoque estándar para probar el surtido independiente de genes implica cruzar individuos heterocigotos para cada gen con individuos homocigotos recesivos para ambos genes (es decir., una cruz de prueba de dos puntos).

Considere a un individuo con el AaBb genotipo. Independientemente del vínculo, esperamos que la mitad de los gametos tengan la A alelo y la mitad del a alelo. De manera similar, esperamos que la mitad tenga la B alelo y la mitad del B alelo. Estas expectativas se extraen de la Primera Ley de Mendel: que los alelos en heterocigotos se segregan igualmente en gametos. Si los alelos son surtido de forma independiente (e igualmente segregando), esperamos que el 25% de la descendencia tenga cada uno de los tipos gaméticos: AB, Ab, aB y ab. Por lo tanto, dado que solo se proporcionan alelos recesivos en los gametos del progenitor recesivo homocigótico, esperamos que el 25% de la descendencia tenga cada uno de los cuatro fenotipos posibles. Si los genes no se clasifican de forma independiente, esperamos que las combinaciones de alelos parentales permanezcan juntas más del 50% del tiempo. Por tanto, si el heterocigoto tiene la AB / ab genotipo, esperamos que más del 50% de los gametos sean AB o ab (parental), y esperamos que menos del 50% sea Ab o aB (recombinante). Alternativamente, si el heterocigoto tiene la Ab / aB genotipo, esperamos lo contrario: más del 50% Ab o aB y menos del 50% AB o ab.

La forma antigua de probar el surtido independiente mediante la cruz de prueba de dos puntos implica dos pasos. Primero, se determina que hay más descendientes parentales que descendientes recombinantes. Si bien es posible ver lo opuesto (más recombinante que parental), esto no se puede explicar por enlace, la explicación más simple sería que la selección favorezca a los recombinantes. El segundo paso es determinar si hay significativamente más parental que la descendencia recombinante, ya que algunos siempre se espera una desviación de las expectativas. Si el testcross produjo norte descendencia, se esperaría un 25% x norte de cada fenotipo. La prueba de chi-cuadrado se realizaría como antes.

Sin embargo, hay un pequeño defecto en esta prueba estadística. Supone una segregación igual de alelos. Es decir, asume que el A El alelo se encuentra exactamente en el 50% de la descendencia, y se supone que el B El alelo se encuentra exactamente en el 50% de la descendencia. Sin embargo, podrían surgir desviaciones del 25% de cada fenotipo porque los alelos no están representados por igual. Como ejemplo extremo, considere la descendencia de 100 testcross, donde 1/5 tiene el alelo en minúscula de cada gen. Si los genes se clasifican de forma independiente, en realidad esperaríamos los fenotipos en las siguientes frecuencias: 1/25 ab, 4/25 aB, 4/25 Ab y 16/25 AB. Digamos que observamos exactamente 25 de cada fenotipo. Si hiciéramos la prueba de chi-cuadrado asumiendo una segregación igual, configuraríamos la siguiente tabla:

FenotipoObservadoEsperadoObs - Exp (Obs - Exp) 2
Exp
AB2564.00-39.0023.77
Ab2516.009.005.06
aB2516.009.005.06
ab254.0021.00110.25

El valor de chi-cuadrado sería 23,77 + 5,06 + 5,06 + 110,25 = 144,14. Hay cuatro resultados posibles y perdemos un grado de libertad por tener una muestra finita. Por lo tanto, comparamos el valor de 144,14 con la distribución de chi-cuadrado para 3 grados de libertad. Esto es mucho mayor que los valores asociados con el 1% superior de la distribución (11,345 y más). Si asumimos que el estadístico de prueba sigue la distribución de chi-cuadrado, la probabilidad es menor del 1% de obtener un valor de chi-cuadrado de 144,14 o más por casualidad. Por lo tanto, rechazaríamos la hipótesis del surtido independiente, ¡aunque los cuatro fenotipos están igualmente representados en la descendencia de prueba cruzada! Hay un error menor relacionado con los grados de libertad, pero se solucionará en breve.

Debe quedar claro que una prueba adecuada de surtido independiente debe tener en cuenta el muestreo desigual de alelos, de modo que no rechacemos (o aceptemos) accidentalmente la Segunda Ley de Mendel debido a la desobediencia de la Primera Ley de Mendel. Esto complica nuestra prueba estadística, pero solo un poco. Básicamente, como hicimos anteriormente, necesitamos calcular las frecuencias fenotípicas esperadas después de tener en cuenta las frecuencias alélicas. Considere un caso en el que observamos 22 AB individuos, 18 aB individuos, 27 Ab individuos y 33 ab individuos. Asumiremos que sabemos que AB y ab son los tipos gaméticos parentales. La forma más sencilla de hacer Prueba chi-cuadrado de independencia es configurar una tabla de 2 x 2 de la siguiente manera:

A fenotipo genético
Aa
B
gene
fenotipo
escribe
B 22
AB descendencia
18
aB descendencia
22 + 18 = 40
B descendencia
Frecuencia de B alelo
40/100 = 0.40
B 27
Ab descendencia
33
ab descendencia
27 + 33 = 60
B descendencia
Frecuencia de B alelo
60/100 = 0.60
22 + 27 = 49
A descendencia
18 + 33 = 51
a descendencia
100
Descendencia total
Frecuencia de A alelo = 49/100 = 0,49 Frecuencia de a alelo = 51/100 = 0,51

  • Esperamos 0.49 x 0.40 x 100 = 19.60 AB
  • Esperamos 0,49 x 0,60 x 100 = 29,40 Ab
  • Esperamos 0,51 x 0,40 x 100 = 20,40 aB
  • Esperamos 0,51 x 0,60 x 100 = 30,60 ab

FenotipoObservadoEsperadoObs - Exp (Obs - Exp) 2
Exp
AB2219.602.400.29
Ab2729.40-2.400.20
aB1820.40-2.400.28
ab3330.602.400.19

El valor del estadístico de la prueba de chi-cuadrado es 0,29 + 0,20 + 0,28 + 0,19 = 0,96. Hay cuatro resultados posibles y perdemos cierto grado de libertad debido al muestreo finito. Sin embargo, resulta que perdemos dos grados más de libertad. Esto se debe a que los valores esperados en la prueba de chi-cuadrado se basaron, en parte, en los valores observados. Dicho de otra manera: si tuviéramos diferentes valores observados, habríamos calculado diferentes valores esperados, porque las frecuencias alélicas se calcularon a partir de los datos. Perdemos un grado de libertad por cada parámetro independiente calculado a partir de los datos utilizados para luego calcular los valores esperados. Calculamos dos parámetros independientes: la frecuencia de la A alelo y la frecuencia de la B alelo. [Sí, también calculamos las frecuencias de los alelos recesivos. Sin embargo, estos son automáticamente 1,00 menos la frecuencia de los alelos dominantes, por lo que no son independiente de los otros dos parámetros.] Por lo tanto, tenemos 4 menos (1 + 2) = 1 grado de libertad. Nuestro valor estadístico de prueba de 0.96 cae entre 0.455 y 2.705, los valores críticos para pag= 0,5 y pag= 0,1, respectivamente (asumiendo 1 grado de libertad). Por lo tanto, podemos decir que 0.1 & ltpag& lt0.5, y no rechazamos la hipótesis del surtido independiente. Tenga en cuenta que observamos más descendientes parentales de lo esperado. Es decir, esperábamos 19.60 + 30.60 = 50.20 AB o ab descendencia, y observamos 22 + 33 = 55. Independientemente del resultado de la prueba de independencia de chi-cuadrado, no se nos habría permitido rechazar la hipótesis del surtido independiente si hubiéramos observado más descendencia recombinante que parental.

Una nota final sobre esta última prueba. Digamos que elegimos hacer la prueba antigua. Habríamos esperado 25 de cada fenotipo. Nuestra estadística de prueba de chi-cuadrado habría sido (22-25) 2/25 + (18-25) 2/25 + (27-25) 2/25 + (33-25) 2/25 = 9/25 + 49 / 25 + 4/25 + 64/25 = 4,92. Tendríamos tres grados de libertad y encontraríamos que 0,1 & ltpag& lt0.5. Todavía no hubiéramos rechazado la hipótesis del surtido independiente. Pero no siempre será así.

PRUEBA TU COMPRENSIÓN.

Como arriba, un individuo con el AaBb el genotipo se aparea con un individuo con el aabb genotipo. Las crías se observan en los siguientes números: 114 AB, 97 ab, 78 Ab y 71 aB. ¿Deberíamos rechazar la hipótesis de que los alelos del A y B los genes se clasifican independientemente?

Equilibrio de Hardy-Weinberg.

En una población real de organismos entrecruzados, los diferentes alelos de un gen pueden no estar representados con la misma frecuencia. Esto no significa que haya algo mal con respecto a las leyes de Mendel. Se esperaría que los cruces individuales que produjeron la descendencia, en general, siguieran las leyes de Mendel, pero muchos otros factores determinan las frecuencias de los alelos. Algunos alelos pueden conferir, en promedio, una ventaja selectiva. Algunos alelos pueden salir o entrar en la población de forma desproporcionada (emigración e inmigración). Un alelo puede mutar en el otro con más frecuencia que al revés. Y, finalmente, los individuos con ciertos alelos podrían, por casualidad, sobrevivir y dejar más descendencia, un fenómeno que llamamos "deriva genética".

  • SIN SELECCIÓN NATURAL: ninguno de los alelos confiere una ventaja o desventaja selectiva
  • NO MIGRACIÓN: nadie entra ni sale de la población
  • SIN MUTACIÓN: un A El alelo nunca mutará en un a alelo, y viceversa
  • TAMAÑO DE POBLACIÓN INFINITO: sin deriva genética
  • ACOPLAMIENTO ALEATORIO

Si se cumplen todas estas suposiciones, no esperamos cambios en la frecuencia de los alelos con el tiempo. Podemos probar esto matemáticamente de la siguiente manera:

    Dejar pag ser la frecuencia inicial del A alelo.

  • pag' = pag 2 + 50% x 2pq = pag 2 + pq = pag(pag + q).
  • q' = q 2 + 50% x 2pq = q 2 + pq = q(pag + q).

Considere una población de flores. Digamos que el A El gen determina el color de los pétalos y que existe una dominancia incompleta. Automóvil club británico los individuos tienen flores rojas, Automóvil club británico los individuos tienen flores blancas, y Automóvil club británico los individuos tienen flores rosadas. Hay 200 individuos con flores rojas, 400 con flores blancas y 400 con flores rosas. ¿Parece la población estar en equilibrio de Hardy-Weinberg con respecto a la A ¿gene?

  • pag = frecuencia(Automóvil club británico) + 50% x frecuencia(Automóvil club británico) = (200 + 50% x 400) / 1000 = 0,400.
  • q = frecuencia(Automóvil club británico) + 50% x frecuencia(Automóvil club británico) = (400 + 50% x 400) / 1000 = 0,600.

La frecuencia esperada del Automóvil club británico el genotipo es pag 2 = 0,400 2 = 0,160. La frecuencia esperada del Automóvil club británico el genotipo es q 2 = 0,600 2 = 0,360. La frecuencia esperada del Automóvil club británico el genotipo es 2pq = 2 (0,400) (0,600) = 0,480. Por lo tanto, si tenemos un total de 1000 flores (200 + 400 + 400), esperamos 160 flores rojas, 360 flores blancas y 480 flores rosas. Ahora podemos configurar una tabla para la prueba de chi-cuadrado:

FenotipoObservadoEsperadoObs - Exp (Obs - Exp) 2
Exp
rojo2001604010.00
blanco400360404.44
Rosado400480-8013.33

Nuestro estadístico de prueba de chi-cuadrado es 10,00 + 4,44 + 13,33 = 27,77. Tenemos tres resultados posibles y perdemos un grado de libertad para el muestreo finito. Al igual que en el caso del surtido independiente, resulta que también usamos los datos aquí para determinar nuestros resultados esperados. Sabemos que esto debe ser cierto, porque diferentes resultados observados podrían dar diferentes frecuencias de alelos, y estos darían diferentes frecuencias de genotipos esperadas. En este caso, calculamos solo un parámetro, pag. Sí, también calculamos q, pero no tuvimos que hacerlo (excepto para verificar nuestra aritmética), porque sabemos que q es completamente dependiente de pag. Por tanto, tenemos 3 menos (1 + 1) = 1 grado de libertad. Al comparar el valor de 27,77 con la distribución de chi-cuadrado para 1 grado de libertad, estimamos que la probabilidad de obtener este valor o más de la estadística es menor al 1%. Por tanto, rechazaremos la hipótesis de que la población se encuentra en equilibrio de Hardy-Weinberg con respecto a la A gene.

No hemos terminado del todo. Cuando rechazamos el equilibrio de Hardy-Weinberg, vale la pena reflexionar sobre las posibles explicaciones. Vemos un déficit de flores rosadas y un exceso de flores rojas y blancas. Una explicación simple es la selección contra rosa (o para rojo y blanco). Si bien la emigración es difícil de imaginar para las flores, la inmigración no es demasiado difícil de visualizar (piense en la dispersión de semillas). La deriva es una posibilidad, pero probablemente no tendría un efecto tan fuerte en una generación. La mutación es poco probable, porque la mutación es rara nuevamente, las desviaciones son demasiado grandes. El apareamiento selectivo sigue siendo una posibilidad. Quizás exista compatibilidad reproductiva asociada con el color de la flor, de modo que las plantas con flores del mismo color sean más compatibles. Esto conduciría a un déficit de heterocigotos. No podemos decidir objetivamente cuál de estas explicaciones es la mejor, pero podría planifique experimentos para probarlos. Nuestra prueba nos ha ayudado a acotar nuestra búsqueda de una explicación para la frecuencia del color de las flores en esta población.

PRUEBA TU COMPRENSIÓN.

En las moscas de la fruta, la actividad enzimática difiere para dos alelos de la alcohol deshidrogenasa ("rápida" y "lenta"). Se toma una muestra de una población de moscas de la fruta y se prueba la actividad enzimática. De esta forma, determina que la muestra está representada por 60 individuos rápidos / rápidos, 572 rápidos / lentos y 921 lentos / lentos. ¿Parece que la población está en equilibrio de Hardy-Weinberg?


5.1: Preludio a la distribución chi-cuadrado

Chi-cuadrado es una prueba estadística que se usa comúnmente para comparar datos observados con datos que esperaríamos obtener de acuerdo con una hipótesis específica. Por ejemplo, si, de acuerdo con las leyes de Mendel, esperabas que 10 de los 20 descendientes de una cruza fueran machos y el número real observado era de 8 machos, entonces es posible que desees conocer la & quot; bondad para encajar & quot entre lo observado y lo esperado. ¿Fueron las desviaciones (diferencias entre las observadas y las esperadas) el resultado de la casualidad o se debieron a otros factores? Cuánta desviación puede ocurrir antes de que usted, el investigador, deba concluir que algo más que el azar está en juego, lo que hace que lo observado difiera de lo esperado. La prueba de chi-cuadrado siempre está probando lo que los científicos llaman hipótesis nula, que establece que no existe una diferencia significativa entre el resultado esperado y el observado.

La fórmula para calcular chi-cuadrado (2) es:

Es decir, chi-cuadrado es la suma de la diferencia al cuadrado entre (o) y lo esperado (mi) datos (o la desviación, D), dividido por los datos esperados en todas las categorías posibles.

Por ejemplo, suponga que un cruce entre dos plantas de guisantes produce una población de 880 plantas, 639 con semillas verdes y 241 con semillas amarillas. Se le pide que proponga los genotipos de los padres. Tu hipótesis es que el alelo del verde es dominante sobre el alelo del amarillo y que las plantas parentales eran heterocigotas para este rasgo. Si su hipótesis es cierta, entonces la proporción predicha de descendencia de este cruce sería 3: 1 (según las leyes de Mendel) como se predice a partir de los resultados del cuadro de Punnett (Figura B.1).

Figura B.1 - Cuadrado de Punnett. Descendencia prevista del cruce entre plantas de semillas verdes y amarillas. Verde (GRAMO) es dominante (3/4 verde 1/4 amarillo).

Para calcular 2, primero determine el número esperado en cada categoría. Si la relación es 3: 1 y el número total de individuos observados es 880, entonces el valores numéricos esperados debe ser 660 verde y 220 amarillo.

Chi-cuadrado requiere que use valores numéricos, no porcentajes o razones.


Luego calcule 2 usando esta fórmula, como se muestra en la Tabla B.1. Tenga en cuenta que obtenemos un valor de 2.668 para 2. Pero, ¿qué significa este número? A continuación, se explica cómo interpretar el valor 2:

1. Determine los grados de libertad (gl). Los grados de libertad se pueden calcular como el número de categorías en el problema menos 1. En nuestro ejemplo, hay dos categorías (verde y amarillo), por lo tanto, hay un grado de libertad.

2. Determine un estándar relativo que sirva de base para aceptar o rechazar la hipótesis. El estándar relativo comúnmente utilizado en la investigación biológica es p & gt 0,05. El valor p es el probabilidad that the deviation of the observed from that expected is due to chance alone (no other forces acting). In this case, using pag & gt 0.05, you would expect any deviation to be due to chance alone 5% of the time or less.

3. Refer to a chi-square distribution table (Table B.2). Using the appropriate degrees of 'freedom, locate the value closest to your calculated chi-square in the table. Determine the closestpag (probability) value associated with your chi-square and degrees of freedom. In this case ( 2 =2.668), the p value is about 0.10, which means that there is a 10% probability that any deviation from expected results is due to chance only. Based on our standard p & gt 0.05, this is within the range of acceptable deviation. In terms of your hypothesis for this example, the observed chi-squareis not significantly different from expected. The observed numbers are consistent with those expected under Mendel's law.

Step-by-Step Procedure for Testing Your Hypothesis and Calculating Chi-Square

1. State the hypothesis being tested and the predicted results. Gather the data by conducting the proper experiment (or, if working genetics problems, use the data provided in the problem).

2. Determine the expected numbers for each observational class. Remember to use numbers, not percentages.

Chi-square should not be calculated if the expected value in any category is less than 5.

3. Calculate 2 using the formula. Complete all calculations to three significant digits. Round off your answer to two significant digits.

  1. Determine degrees of freedom and locate the value in the appropriate column.
  2. Locate the value closest to your calculated 2 on that degrees of freedom df row.
  3. Move up the column to determine the p value.
  1. If the pag value for the calculated 2 is p > 0.05, accept your hypothesis. 'The deviation is small enough that chance alone accounts for it. A pag value of 0.6, for example, means that there is a 60% probability that any deviation from expected is due to chance only. This is within the range of acceptable deviation.
  2. If the p value for the calculated 2 is p < 0.05, reject your hypothesis, and conclude that some factor other than chance is operating for the deviation to be so great. For example, a p value of 0.01 means that there is only a 1% chance that this deviation is due to chance alone. Therefore, other factors must be involved.

The chi-square test will be used to test for the "goodness to fit" between observed and expected data from several laboratory investigations in this lab manual.


Chi-Square Test for Goodness of Fit

We use a chi-square goodness of fit test when we want to test whether or not a categorical variable follows a hypothesized distribution.

Ejemplo: An owner of a shop claims that 30% of all his weekend customers visit on Friday, 50% on Saturday, and 20% on Sunday. An independent researcher visits the shop on a random weekend and finds that 91 customers visit on Friday, 104 visit on Saturday, and 65 visit on Sunday. Using a 0.10 level of significance, we conduct a chi-square test for goodness of fit to determine if the data is consistent with the shop owner’s claim.

In this case, the test statistic turns out to be 10.616.

Next, we can find the critical value for the test in the Chi-Square distribution table. The degrees of freedom is equal to (#outcomes-1) = 3-1 = 2 and the problem told us that we are to use a 0.10 alpha level. Thus, according to the Chi-Square distribution table, the critical value of the test is 4.605.

Since our test statistic is greater than our critical value, we reject the null hypothesis. This means we have sufficient evidence to say the true distribution of customers who come in to this shop on weekends is not equal to 30% on Friday, 50% on Saturday, and 20% on Sunday.


Contenido

First generation (SN)
Overview
Production1978–1982
DiseñadorShinya Iwakura, Hiroshi Kizawa (1976)
Powertrain
Engine1,602 cc EL 8-valve I4
1,751 cc EK CVCC 12-valve I4
Transmission2-speed automatic
3-speed automatic
5-speed manual
Dimensiones
Wheelbase2,320 mm (91.3 in)
Largo4,090 mm (161.0 in)
Width1,635 mm (64.4 in)
Height1,290 mm (50.8 in)
Curb weight900 kg (1,984 lb)

On 24 November 1978, the Prelude was launched to the Japanese market. [1] It had its world premier at the 1979 AutoRAI in Amsterdam, two months later. [2] In Japan it was only available at the newly established dealership sales channel Honda Verno. This dealership chain also introduced the Honda Quint, the Honda Ballade and the Accord-based Honda Vigor as its largest sedan and hatchback. The four-wheel independent struts, brakes, and engine were all borrowed from the first generation Accord, but the chassis was all new and developed by chief engineer Hiroshi Kizawa expressly for the sporting Prelude. [3] At 4,090 mm (length) x 1,635 mm (width) x 1,290 mm (height), it had quite a low and wide profile. The wheelbase was 2,320 mm, and was 60 mm shorter than that of the original Accord. [4] Honda appears to have followed the successful introduction of the Toyota Celica example by taking a small car, like the Accord, installing a more powerful engine, and giving the body a short trunk, and a long engine hood. The Prelude (and period Accord) were the first cars under two liters to receive standard power steering. [5] The Prelude also benefited from Honda's experience with sporting cars like the Honda S800 and Coupé 1300.

The Prelude was the first Honda model to offer a power moonroof as standard equipment, which eventually became a Prelude trademark. In Japan, the Prelude was available with a sliding metal sunroof, while US versions received a glass top which freed up more headroom. [3] Japanese buyers were liable for slightly more annual road taxes over the smaller Civic, which also had a smaller engine. While marketed as a 2+2, the rear seat was not usable for anyone larger than a small child. [2]

Initial reviews for the Prelude were favorable. "It is," wrote Brock Yates for Motor Trend, "by any sane measurement, a splendid automobile. The machine, like all Hondas, embodies fabrication that is, in my opinion, surpassed only by the narrowest of margins by Mercedes-Benz. It is a relatively powerful little automobile by anybody's standards." Motor Trend measured an early Prelude completing the quarter-mile in 18.8 seconds at 70 mph. In terms of underpinnings it was mostly a Honda Accord, although its more compact package and lower weight allowed for a marginally higher top speed and gas mileage. [2]

The standard engine at the time of introduction was the "EL" SOHC eight-valve 1,602 cc (non-CVCC) inline-four rated at 80 PS (59 kW) at 5,000 rpm and 12.9 kg⋅m (127 N⋅m 93 lb⋅ft) at 3,500 rpm. [1] It remained the only engine available for most markets, aside from the US and Japan. It featured a non-automatic choke with three positions and a two-barrel carburetor. In September 1978 the larger "EK" SOHC 12-valve 1,751 cc CVCC inline-four was introduced in Japan, rated at 90 PS (66 kW) at 5,300 rpm (SAE gross). [1] Automatics had five less horsepower. [4] It took until March 1979 for the Prelude to appear in the United States, then with 72 hp (54 kW) at 4,500 rpm and 94 lb⋅ft (127 N⋅m) at 3,000 rpm (SAE net) from the larger 1.8 engine. [6] The EK engine made use of an engine oil cooler and transistor-controlled ignition system.

Transmission choices were either the standard five-speed manual or initially a two-speed "Hondamatic" semi-automatic, which by October 1979 had been replaced by a three-speed automatic that used the final gear as the overdrive. In addition to the standard fabrics offered in most models, an 'Executive' option was offered in some markets which added power steering and Connolly leather upholstery. Honda used a single central gauge cluster design in this car which housed the speedometer and tachometer in one combined unit where both instrument's needles swept along the same arc. They also placed the compact AM/FM radio unit up high next to the gauge cluster. The Prelude featured intermittent wipers, tinted glass, and a remote trunk release. 1980 saw the introduction of the CVCC-II engine which employed the use of a catalytic converter and several other refinements that improved driveability, the Prelude also received a mild facelift in 1981. This facelift meant a return to a more traditional dashboard, rather than the much critiqued "Concentrated Target Meter" used before. [7] The 1981 Prelude also received a stainless steel trim strip along the bumpers and side moldings, as well as a new grille. 313,000 units were manufactured by Honda from 1978-1982, with 80% being sold outside of Japan.

The Prelude was introduced in Europe during 1979, but was not a strong seller, its high asking price not helping its chances of sales success.

  • 1829 cc A18A/ET 12-valve I4
  • 1829 cc ESCVCC 12-valve I4
  • 1955 cc A20A3 12-valve I4
  • 1958 cc B20ADOHC 16-valve I4

The second-generation Prelude was released in Japan on 25 November 1982 and worldwide in the spring of 1983. Riding on an all-new platform, the Prelude was initially available with an A18A or ET-2, 1.8 L 12-valve twin carburetor engine, producing 105 PS (77 kW). [9] In Japan, Asia and Europe, it later became available with a 2-liter DOHC 16-valve PGM-FI engine (JDM = BA1, EU = BA2) although this engine was not released in Europe until 1986. The JDM B20A produced 160 PS (118 kW) at 6300 rpm, while the European B20A1 produced only 137 hp (102 kW). This was the first generation of Prelude to have pop-up headlights, which allowed for a more aerodynamic front clip, reducing drag. Opening the headlights, however, especially at higher speeds, produced significantly more drag. The design retained nothing of the first generation, being considerably more aerodynamic and with large glass surfaces. As with the predecessor, it was amply equipped, with an air of "mini-gran turismo" rather than that of a sports car. [10] It also offered, as an option, Honda's new "A.L.B." anti-lock brakes. [9]

In Japan, the Prelude was one of the key models sold at Japanese Honda dealership sales channels, called Honda Verno, which offered performance-oriented products. All Honda Verno products, like the Vigor, initially shared the concealed headlights introduced with this generation Prelude that would help identify "sports" products from Honda in Japan however, the approach was short-lived. The model with the 2.0 liter engine was regarded as the top level car in Japan because Japanese buyers were liable for a higher annual road tax over the car with the 1.8 liter engine. The Japanese 1.8 had CVCC and claimed 125 PS (92 kW), considerably more than export models.

When the 2-liter 16-valve DOHC engine came out the hood had to be slightly modified since the larger engine could not fit under the original hood. The original 1.8-liter engine was developed specifically for the Prelude to allow a low hoodline, even tilting the engine backward to make it lower yet. [9] The European version also saw slight modifications to the rear lights and revised front and rear bumpers which were now color-matched. Due to the fairly low weight of the car (1,025 kg or 2,260 lb) and high power (the 16-valve engine produced 160 PS or 118 kW in Japanese trim), the car was relatively nimble in comparison to its competitors, which most Preludes had not been up to that time.

The North American 1983 model is identifiable by its standard painted steel wheels with bright trim rings (although alloy rims were optional). The 1984-87 base models had Civic-style full wheel covers. In Canada, a "Special Edition" trim was created, which is essentially the same as the USA 2.0Si "sport injected" model. Fuel injection was introduced in the "Si" models in 1985. North American 1.8's offered 100 hp (75 kW), while the later 2.0 has 110 hp (82 kW).


Chi-square and closely related tests

One might ask if, in this case, the Chi-square was the best or only test the researcher could have used. Nominal variables require the use of non-parametric tests, and there are three commonly used significance tests that can be used for this type of nominal data. The first and most commonly used is the Chi-square. The second is the Fisher’s exact test, which is a bit more precise than the Chi-square, but it is used only for 2 × 2 Tables (4). For example, if the only options in the case study were pneumonia versus no pneumonia, the table would have 2 rows and 2 columns and the correct test would be the Fisher’s exact. The case study example requires a 2 × 3 table and thus the data are not suitable for the Fisher’s exact test.

The third test is the maximum likelihood ratio Chi-square test which is most often used when the data set is too small to meet the sample size assumption of the Chi-square test. As exhibited by the table of expected values for the case study, the cell expected requirements of the Chi-square were met by the data in the example. Specifically, there are 6 cells in the table. To meet the requirement that 80% of the cells have expected values of 5 or more, this table must have 6 × 0.8 = 4.8 rounded to 5. This table meets the requirement that at least 5 of the 6 cells must have cell expected of 5 or more, and so there is no need to use the maximum likelihood ratio chi-square. Suppose the sample size were much smaller. Suppose the sample size was smaller and the table had the data in Table 4 .


13.1: Prelude to The Chi-Square Distribution

  • OpenStax
  • Social Sciences at OpenStax CNX
  • Published by OpenStax

By the end of this chapter, the student should be able to:

  • Interpret the chi-square probability distribution as the sample size changes.
  • Conduct and interpret chi-square goodness-of-fit hypothesis tests.
  • Conduct and interpret chi-square test of independence hypothesis tests.
  • Conduct and interpret chi-square homogeneity hypothesis tests.
  • Conduct and interpret chi-square single variance hypothesis tests.

Have you ever wondered if lottery numbers were evenly distributed or if some numbers occurred with a greater frequency? How about if the types of movies people preferred were different across different age groups? What about if a coffee machine was dispensing approximately the same amount of coffee each time? You could answer these questions by conducting a hypothesis test.

You will now study a new distribution, one that is used to determine the answers to such questions. This distribution is called the chi-square distribution.

Figure (PageIndex<1>): The chi-square distribution can be used to find relationships between two things, like grocery prices at different stores. (credit: Pete/flickr)

In this chapter, you will learn the three major applications of the chi-square distribution:

  1. the goodness-of-fit test, which determines if data fit a particular distribution, such as in the lottery example
  2. the test of independence, which determines if events are independent, such as in the movie example
  3. the test of a single variance, which tests variability, such as in the coffee example

Though the chi-square distribution depends on calculators or computers for most of the calculations, there is a table available (see [link]). TI-83+ and TI-84 calculator instructions are included in the text.

COLLABORATIVE CLASSROOM EXERCISE

Look in the sports section of a newspaper or on the Internet for some sports data (baseball averages, basketball scores, golf tournament scores, football odds, swimming times, and the like). Plot a histogram and a boxplot using your data. See if you can determine a probability distribution that your data fits. Have a discussion with the class about your choice.


Properties of Chi-Square Distribution

  1. The chi-square distribution is a continuous probability distribution with the values ranging from 0 to(infinity) in the positive direction. The χ2 can never assume negative values.
  2. The shape of the chi-square distribution depends on the number of grados de libertad ‘ν’. When ‘ν’ is small, the shape of the curve tends to be skewed to the right, and as the ‘ν’ gets larger, the shape becomes more symmetrical and can be approximated by the normal distribution.
  3. The mean of the chi-square distribution is equal to the degrees of freedom, i.e. E(χ 2 )= ‘ν’. While the variance is twice the degrees of freedom, Viz. norte(χ 2 ) = 2ν.
  4. The χ2 distribution approaches the normal distribution as ν gets larger with mean ν and standard deviation as √2χ 2 . It has been determined that quantity √2χ 2 gives a better approximation to normality than the χ 2 itself if the values are about 30 or more. Thus, the mean and standard deviation of the distribution of √2χ 2 is equal to2ν-1 and one respectively.
  5. The sum of independent χ 2 is itself a χ 2 variate. Suppose, χ1 2 is a χ 2 variate with degrees of freedom ν1 and χ2 2 is another χ 2 variate with degrees of freedom ν2, then their sum χ1 2 + χ2 2 will be equal to χ 2 variate with ν1+ ν2 degrees of freedom. This property is called as the additive property of Chi-square.

Thus, χ 2 distribution depends on the degrees of distribution as its shape changes with the change in the ‘ν’, and as ‘ν’ becomes greater, χ 2 gets approximated by the normal distribution.


Watch the video: Preludio (Julio 2022).


Comentarios:

  1. Reynolds

    maravillosamente, muy entretenida opinión

  2. Jerah

    es compatible

  3. Kedalion

    Perdón por interferir... Estoy familiarizado con esta situación. Escribe aquí o en PM.

  4. Wotan

    Estás cometiendo un error. Propongo discutirlo. Envíeme un correo electrónico a PM, hablaremos.

  5. Akinolar

    Considero, que estás equivocado. Discutamos esto. Envíeme un correo electrónico a PM.

  6. Palaemon

    Esta frase, es incomparable))))



Escribe un mensaje