Fisterra

    Métodos paramétricos para la comparación de dos medias. t de Student

    Introducción

    En muchos estudios, incluidos la mayoría de los ensayos clínicos, es necesario comparar ciertas características en dos o más grupos de sujetos. Tal sería el caso, por ejemplo, si pensamos que un tratamiento nuevo puede tener un porcentaje de mejoría mayor que otro estándar, o cuando nos planteamos si los niños de las distintas comunidades autónomas tienen o no la misma altura. En este artículo se analizará únicamente el problema de la comparación de dos grupos con respecto a una variable continua. La elección de un método de análisis apropiado en este caso dependerá de la naturaleza de los datos y la forma en la que estos hayan sido obtenidos. Fundamentalmente, cuando se comparan dos o más grupos de observaciones pueden darse dos tipos de diseño: aquel en el que las observaciones se refieren a dos grupos independientes de individuos, o el caso en el que cada serie de datos se recoge en los mismos sujetos bajo condiciones diferentes. El tipo de metodología será distinto según el caso en el que nos encontremos. Otro aspecto a tener en consideración será el tipo y distribución de los datos. Para grupos independientes, los métodos paramétricos requieren que las observaciones en cada grupo provengan de una distribución aproximadamente normal con una variabilidad semejante, de modo que si los datos disponibles no verifican tales condiciones, puede resultar útil una transformación de los mismos (aplicación del logaritmo, raíz cuadrada, etc.) o, en todo caso, se debería recurrir a la utilización de procedimientos no paramétricos.

    Normalmente en este tipo de análisis podremos establecer una hipótesis de partida (hipótesis nula), que generalmente asume que el efecto de interés es nulo, por ejemplo que la tensión arterial es la misma en hombres y mujeres o que dos tratamientos para la hipercolesterolemia son igualmente efectivos. Posteriormente se puede evaluar la probabilidad de haber obtenido los datos observados si esa hipótesis es correcta. El valor de esta probabilidad coincide con el valor-p que nos proporciona cada test estadístico, de modo que cuanto menor sea éste más improbable resulta que la hipótesis inicial se verifique.

    En un primer apartado, se presentará el test t de Student para dos muestras independientes, introduciendo las modificaciones necesarias en el caso de que la variabilidad de ambos grupos sea distinta. A continuación se introducirá el test t de Student para el caso de dos muestras dependientes.

    t de Student para dos muestras independientes

    Uno de los análisis estadísticos más comunes en la práctica es probablemente el utilizado para comparar dos grupos independientes de observaciones con respecto a una variable numérica. Como ejemplo, consideremos los datos que se muestran en la Tabla 1, correspondientes a 75 individuos con sobrepeso sometidos a dos dietas alimenticias distintas, de modo que se desea comparar el peso de los individuos que iniciaron cada una de las dietas.

    Como ya se ha adelantado, la aplicación de un contraste paramétrico requiere la normalidad de las observaciones para cada uno de los grupos. La comprobación de esta hipótesis puede realizarse tanto por métodos gráficos (por medio de histogramas, diagramas de cajas o gráficos de normalidad) como mediante tests estadísticos (test de Kolmogorov-Smirnov, test de Shapiro-Wilks). Un número suficiente de observaciones (digamos mayor de 30) como ocurre en el ejemplo planteado justifica, no obstante, la utilización del mismo www. Así mismo, este tipo de metodología exigirá que la varianza en ambos grupos de observaciones sea la misma. En primer lugar se desarrollará el test t de Student para el caso en el que se verifiquen ambas condiciones, discutiendo posteriormente el modo de abordar formalmente el caso en el que las varianzas no sean similares.

    Bajo las hipótesis de normalidad e igual varianza la comparación de ambos grupos puede realizarse en términos de un único parámetro como el valor medio (Figura 1a), de modo que en el ejemplo planteado la hipótesis de partida será, por lo tanto:

    H0: La media de peso inicial es igual en ambos grupos

    Se denotará por {X1, X2,...,Xn} e {Y1,Y2,...,Ym} al peso observado en cada uno de los sujetos sometidos a la dieta A y a la dieta B respectivamente. En general no se exigirá que coincida el número de observaciones en cada uno de los grupos que se comparan, de modo que en el ejemplo n=40 y m=35.

    El t test para dos muestras independientes se basa en el estadístico:

    (1)

    donde e denotan el peso medio en cada uno de los grupos:

    y , las cuasivarianzas muestrales correspondientes:

    Con lo cual, en este caso particular, el valor utilizado para el contraste será:

    Si la hipótesis de partida es cierta el estadístico (1) seguirá una distribución t de Student con n+m-2 grados de libertad. De ser así, el valor obtenido debería estar dentro del rango de mayor probabilidad según esta distribución (Figura 2). Usualmente se toma como referencia el rango de datos en el que se concentra el 95% de la probabilidad. El valor-p que usualmente reportan la mayoría de paquetes estadísticos no es más que la probabilidad de obtener, según esa distribución, un dato más extremo que el que proporciona el www. Como ya se dijo, refleja también la probabilidad de obtener los datos observados si fuese cierta la hipótesis inicial. Si el valor-p es muy pequeño (usualmente se considera p<0.05) es poco probable que se cumpla la hipótesis de partida y se debería de rechazar. La región de aceptación corresponde por lo tanto a los valores centrales de la distribución para los que p>0.05. En el ejemplo planteado el valor-p correspondiente es de 0.425, de modo que no existe evidencia estadística de que el peso medio en ambos grupos sea diferente. En la Tabla 2, se determina los grados de libertad (en la primera columna) y el valor de α (en la primera fila). El número que determina su intersección es el valor crítico correspondiente. De este modo, si el estadístico que se obtiene toma un valor mayor se dirá que la diferencia es significativa.

    Otro modo de obtener esta misma información es mediante el cálculo de intervalos de confianza para la diferencia de la respuesta media en ambos grupos. A mayores, el intervalo de confianza constituye una medida de la incertidumbre con la que se estima esa diferencia a partir de la muestra, permitiendo valorar tanto la significación estadística como la magnitud clínica de esa diferencia. En el caso que nos ocupa, el intervalo de confianza vendrá dado como:

    donde denota el valor que según la distribución t de Student con n+m-2 grados de libertad deja a su derecha el 2.5% de los datos. En el ejemplo, el intervalo de confianza con una seguridad del 95% para la diferencia de peso viene dado por:

    que expresa en definitiva un rango de valores entre los que se puede encontrar el valor real de la diferencia entre los pesos de ambos grupos. Proporciona además la misma información que obteníamos del contraste estadístico. El hecho de que el valor cero pertenezca al intervalo indica que no se dispone de evidencia para concluir que el peso sea distinto en ambos grupos.

    A medida que el tamaño muestral aumenta, la distribución del estadístico (1) se hace más próxima a la de una variable Normal estándar. De este modo, en algunos textos se opta por utilizar esta distribución para realizar la comparación de medias. Aunque esta aproximación es correcta para muestras suficientemente grandes, ambos métodos proporcionan en este caso resultados prácticamente idénticos, por lo que resulta más simple utilizar, independientemente del tamaño de la muestra, la misma metodología a partir de la distribución t. El mismo planteamiento podría utilizarse en el caso de varianzas distintas o de muestras apareadas.

    Dos muestras independientes con Varianza distinta

    El caso en el que se dispone de dos grupos de observaciones independientes con diferentes varianzas, la distribución de los datos en cada grupo no puede compararse únicamente en términos de su valor medio (Figura 1b). El contraste estadístico planteado en el apartado anterior requiere de alguna modificación que tenga en cuenta la variabilidad de los datos en cada población. Obviamente, el primer problema a resolver es el de encontrar un método estadístico que nos permita decidir si la varianza en ambos grupos es o no la misma. El F test o test de la razón de varianzas viene a resolver este problema. Bajo la suposición de que las dos poblaciones siguen una distribución normal y tienen igual varianza se espera que la razón de varianzas:

    siga una distribución F de Snedecor con parámetros (n-1) y (m-1).

    Supongamos que en el ejemplo anterior se desee comparar la pérdida de peso en los sujetos sometidos a cada una de las dos dietas. La aplicación del estadístico (1) no será factible, ya que las varianzas en ambos grupos son sustancialmente distintas. En este caso la razón de varianzas es de 3.97 / 0.80 = 4.96, valor que se debe comparar con una distribución F39,34. El valor-p asociado será p<0.01, siendo muy poco probable que las observaciones provengan de poblaciones con igual variabilidad.

    En este tipo de situaciones, donde no se debe aplicar el contraste basado en (1), podemos utilizar una modificación del t test para el caso de varianzas desiguales, conocido como el test de Welch basada en el estadístico:

    que, bajo la hipótesis nula seguirá una distribución t de Student con un número f de grados de libertad que dependerá de las varianzas muestrales según la expresión:

    La técnica para realizar el contraste es análoga a la vista anteriormente cuando las varianzas son desconocidas e iguales. Por ejemplo, en el caso planteado, la pérdida media de peso para los individuos en cada una de las dietas fue de e con las variabilidades anteriormente expresadas. Esto conduce a un valor del estadístico de t=5.58 a relacionar con una distribución t de Student con aproximadamente 56 grados de libertad. El valor-p resultante es, por lo tanto, p<0.001 con lo cual podemos rechazar la hipótesis de partida y concluir que la reducción de peso experimentada es distinta según la dieta que se siga.

    Al igual que en el caso anterior, podrá optarse por calcular el correspondiente 95% intervalo de confianza para la diferencia de medias dado por:

    Dos muestras dependientes

    Ya se ha comentado que cuando se trata de comparar dos grupos de observaciones, es importante distinguir el caso en el que son independientes de aquel en el que los datos están apareados. Las series dependientes surgen normalmente cuando se evalúa un mismo dato más de una vez en cada sujeto de la muestra. También se puede encontrar este tipo de observaciones en estudios de casos y controles donde cada caso se aparea individualmente con un control.

    Supongamos que queremos comprobar, en los datos de la Tabla 1 si realmente se produce una pérdida de peso significativa en esos individuos, para lo que se recoge en cada sujeto su peso antes y después de someterse a la dieta. En este tipo de análisis el interés no se centra en la variabilidad que puede haber entre los individuos, sino en las diferencias que se observan en un mismo sujeto entre un momento y otro. Por este motivo, resulta intuitivo trabajar con la diferencia de ambas observaciones (en el ejemplo será la pérdida de peso), de modo que se quiere contrastar la hipótesis:

    H0: La pérdida de peso es nula

    frente a la alternativa de que la pérdida de peso sea importante (es decir, distinta de cero).

    La veracidad de dicha hipótesis puede ser contrastada igualmente mediante el test t de Student. Como se ha dicho, este tipo de métodos tienen como hipótesis fundamental la normalidad de los datos. En este caso, sin embargo, no será necesario que las observaciones en ambos grupos provengan de poblaciones normales, sino que únicamente se requiere verificar la normalidad de su diferencia. Denotando por la pérdida media de peso la hipótesis de la que se parte es que:

    frente a la alternativa

    A partir de las observaciones muestrales {Y1,Y2,...,Yn} e {Y1,Y2,...,Yn} en cada uno de los grupos se calcula la diferencia de peso para cada sujeto {d1,d2,...,dn} con dj=Xj-Yj j=1,2,...,n. Nótese que en este caso un requisito fundamental es que se tenga un número igual de observaciones en ambos grupos. A partir de estos datos, el contraste se basa en el estadístico:

    o en el cálculo del 95% intervalo de confianza:

    donde denota la media de la pérdida de peso estimada a partir de la muestra:

    y denota la cuasivarianza muestral de la diferencia dada por:

    En nuestro ejemplo el valor del estadístico vendría dado por:

    a comparar del modo habitual con la distribución t de Student con n-1=74 grados de libertad. El intervalo de confianza para la pérdida media de peso correspondiente a una seguridad del 95% es de (3.56;4.41), lo cual se traduce en una pérdida de peso significativamente distinta de cero, tal y como indica el valor-p correspondiente de p<0.001.

    Figuras

    Figura 1. Comparación de dos poblaciones normales

    a) Poblaciones normales con igual varianza y medias distintas

    Figura 1a

    b) Poblaciones normales con igual y diferentes varianzas.

    Figura 1b


    Figura 2. Regiones de aceptación y rechazo en el contraste de hipótesis


    Figura 2


    Tablas

    Tabla 1. Datos de 75 pacientes con sobrepeso sometidos a dos dietas alimenticias.

    Dieta

    Peso inicial

    Peso final

    Dieta

    Peso inicial

    Peso final

    A

    94,07

    86,59

    B

    88,02

    84,12

    A

    96,79

    93,08

    B

    88,22

    86,13

    A

    92,15

    87,85

    B

    103,45

    101,21

    A

    92,30

    86,83

    B

    82,94

    79,08

    A

    96,50

    92,70

    B

    89,71

    86,19

    A

    83,11

    76,80

    B

    94,83

    91,93

    A

    91,16

    83,40

    B

    81,93

    78,97

    A

    90,81

    86,74

    B

    83,41

    78,89

    A

    81,37

    77,67

    B

    73,59

    69,76

    A

    89,81

    85,70

    B

    108,47

    104,20

    A

    84,92

    79,96

    B

    72,67

    70,01

    A

    84,43

    79,80

    B

    96,84

    93,66

    A

    86,33

    81,15

    B

    88,48

    87,00

    A

    87,60

    81,92

    B

    89,57

    87,24

    A

    81,08

    76,32

    B

    85,22

    82,09

    A

    92,07

    90,20

    B

    103,76

    102,24

    A

    81,14

    73,34

    B

    87,84

    84,66

    A

    96,87

    93,58

    B

    91,50

    88,95

    A

    99,59

    92,36

    B

    93,04

    88,73

    A

    83,90

    77,23

    B

    92,14

    88,07

    A

    89,41

    85,45

    B

    85,26

    81,36

    A

    85,31

    84,59

    B

    89,42

    86,64

    A

    89,25

    84,89

    B

    92,42

    88,99

    A

    93,20

    93,10

    B

    93,13

    89,73

    A

    89,17

    86,87

    B

    80,86

    77,81

    A

    93,51

    86,36

    B

    88,75

    85,93

    A

    88,85

    83,24

    B

    95,02

    91,90

    A

    88,40

    81,20

    B

    92,29

    91,28

    A

    82,45

    77,18

    B

    89,43

    87,22

    A

    96,47

    88,61

    B

    93,32

    89,77

    A

    99,48

    94,67

    B

    92,88

    89,38

    A

    99,95

    93,87

    B

    89,88

    88,00

    A

    100,05

    94,15

    B

    82,25

    80,81

    A

    87,33

    82,17

    B

    88,99

    86,87

    A

    87,61

    86,01

    B

    82,07

    79,74

    A

    89,28

    83,78

    A

    89,72

    83,56

    A

    95,57

    89,58

    A

    97,71

    91,35

    A

    98,73

    97,82


    Tabla 2. Distribución t de Student


    Bibliografía

    1. Bland JM, Altman DG. Statistics Notes: Transforming data. BMJ 1996; 312: 770. [Medline][Texto completo]
    2. Altman DG, Bland JM. Detecting skewness from summary information, BMJ 1996; 313:1200. [Medline]
    3. Bland JM, Altman DG. Statistics Notes: The use of transformations when comparing two means. BMJ 1996; 312:1153. [Medline] [texto completo]
    4. Moreno V, Vallescar R, Martín M. Las pruebas no paramétricas en el análisis estadístico de datos. Aten Primaria 1991; 8 (1): 58-60. [Medline]
    5. Altman D. G. Preparing to analyse data. En: Practical statistics for medical research. London: Chapman and Hall; 1991. p.132-145.
    6. Braitman LE. Confidence intervals asses both clinical significance and statistical significance [editorial]. Ann Intern Med 1991; 114 (6): 515-517. [Medline]
    7. Berry G., Armitage P. Statistical Methods in Medical Research. 3 rd. ed. Oxford: Blackwell Science; 1994.

    Autores

    Pértega Díaz S., Pita Fernández S.
    Unidad de Epidemiología Clínica y Bioestadística. Complexo Hospitalario Universitario de A Coruña (España)
    CAD ATEN PRIMARIA 2001; 8: 37-41.

    Métodos paramétricos para la comparación de dos medias. t de Student

    Fecha de revisión: 23/03/2001
    • Documento
    • Imágenes 4
    Índice de contenidos

    Introducción

    En muchos estudios, incluidos la mayoría de los ensayos clínicos, es necesario comparar ciertas características en dos o más grupos de sujetos. Tal sería el caso, por ejemplo, si pensamos que un tratamiento nuevo puede tener un porcentaje de mejoría mayor que otro estándar, o cuando nos planteamos si los niños de las distintas comunidades autónomas tienen o no la misma altura. En este artículo se analizará únicamente el problema de la comparación de dos grupos con respecto a una variable continua. La elección de un método de análisis apropiado en este caso dependerá de la naturaleza de los datos y la forma en la que estos hayan sido obtenidos. Fundamentalmente, cuando se comparan dos o más grupos de observaciones pueden darse dos tipos de diseño: aquel en el que las observaciones se refieren a dos grupos independientes de individuos, o el caso en el que cada serie de datos se recoge en los mismos sujetos bajo condiciones diferentes. El tipo de metodología será distinto según el caso en el que nos encontremos. Otro aspecto a tener en consideración será el tipo y distribución de los datos. Para grupos independientes, los métodos paramétricos requieren que las observaciones en cada grupo provengan de una distribución aproximadamente normal con una variabilidad semejante, de modo que si los datos disponibles no verifican tales condiciones, puede resultar útil una transformación de los mismos (aplicación del logaritmo, raíz cuadrada, etc.) o, en todo caso, se debería recurrir a la utilización de procedimientos no paramétricos.

    Normalmente en este tipo de análisis podremos establecer una hipótesis de partida (hipótesis nula), que generalmente asume que el efecto de interés es nulo, por ejemplo que la tensión arterial es la misma en hombres y mujeres o que dos tratamientos para la hipercolesterolemia son igualmente efectivos. Posteriormente se puede evaluar la probabilidad de haber obtenido los datos observados si esa hipótesis es correcta. El valor de esta probabilidad coincide con el valor-p que nos proporciona cada test estadístico, de modo que cuanto menor sea éste más improbable resulta que la hipótesis inicial se verifique.

    En un primer apartado, se presentará el test t de Student para dos muestras independientes, introduciendo las modificaciones necesarias en el caso de que la variabilidad de ambos grupos sea distinta. A continuación se introducirá el test t de Student para el caso de dos muestras dependientes.

    t de Student para dos muestras independientes

    Uno de los análisis estadísticos más comunes en la práctica es probablemente el utilizado para comparar dos grupos independientes de observaciones con respecto a una variable numérica. Como ejemplo, consideremos los datos que se muestran en la Tabla 1, correspondientes a 75 individuos con sobrepeso sometidos a dos dietas alimenticias distintas, de modo que se desea comparar el peso de los individuos que iniciaron cada una de las dietas.

    Como ya se ha adelantado, la aplicación de un contraste paramétrico requiere la normalidad de las observaciones para cada uno de los grupos. La comprobación de esta hipótesis puede realizarse tanto por métodos gráficos (por medio de histogramas, diagramas de cajas o gráficos de normalidad) como mediante tests estadísticos (test de Kolmogorov-Smirnov, test de Shapiro-Wilks). Un número suficiente de observaciones (digamos mayor de 30) como ocurre en el ejemplo planteado justifica, no obstante, la utilización del mismo www. Así mismo, este tipo de metodología exigirá que la varianza en ambos grupos de observaciones sea la misma. En primer lugar se desarrollará el test t de Student para el caso en el que se verifiquen ambas condiciones, discutiendo posteriormente el modo de abordar formalmente el caso en el que las varianzas no sean similares.

    Bajo las hipótesis de normalidad e igual varianza la comparación de ambos grupos puede realizarse en términos de un único parámetro como el valor medio (Figura 1a), de modo que en el ejemplo planteado la hipótesis de partida será, por lo tanto:

    H0: La media de peso inicial es igual en ambos grupos

    Se denotará por {X1, X2,...,Xn} e {Y1,Y2,...,Ym} al peso observado en cada uno de los sujetos sometidos a la dieta A y a la dieta B respectivamente. En general no se exigirá que coincida el número de observaciones en cada uno de los grupos que se comparan, de modo que en el ejemplo n=40 y m=35.

    El t test para dos muestras independientes se basa en el estadístico:

    (1)

    donde e denotan el peso medio en cada uno de los grupos:

    y , las cuasivarianzas muestrales correspondientes:

    Con lo cual, en este caso particular, el valor utilizado para el contraste será:

    Si la hipótesis de partida es cierta el estadístico (1) seguirá una distribución t de Student con n+m-2 grados de libertad. De ser así, el valor obtenido debería estar dentro del rango de mayor probabilidad según esta distribución (Figura 2). Usualmente se toma como referencia el rango de datos en el que se concentra el 95% de la probabilidad. El valor-p que usualmente reportan la mayoría de paquetes estadísticos no es más que la probabilidad de obtener, según esa distribución, un dato más extremo que el que proporciona el www. Como ya se dijo, refleja también la probabilidad de obtener los datos observados si fuese cierta la hipótesis inicial. Si el valor-p es muy pequeño (usualmente se considera p<0.05) es poco probable que se cumpla la hipótesis de partida y se debería de rechazar. La región de aceptación corresponde por lo tanto a los valores centrales de la distribución para los que p>0.05. En el ejemplo planteado el valor-p correspondiente es de 0.425, de modo que no existe evidencia estadística de que el peso medio en ambos grupos sea diferente. En la Tabla 2, se determina los grados de libertad (en la primera columna) y el valor de α (en la primera fila). El número que determina su intersección es el valor crítico correspondiente. De este modo, si el estadístico que se obtiene toma un valor mayor se dirá que la diferencia es significativa.

    Otro modo de obtener esta misma información es mediante el cálculo de intervalos de confianza para la diferencia de la respuesta media en ambos grupos. A mayores, el intervalo de confianza constituye una medida de la incertidumbre con la que se estima esa diferencia a partir de la muestra, permitiendo valorar tanto la significación estadística como la magnitud clínica de esa diferencia. En el caso que nos ocupa, el intervalo de confianza vendrá dado como:

    donde denota el valor que según la distribución t de Student con n+m-2 grados de libertad deja a su derecha el 2.5% de los datos. En el ejemplo, el intervalo de confianza con una seguridad del 95% para la diferencia de peso viene dado por:

    que expresa en definitiva un rango de valores entre los que se puede encontrar el valor real de la diferencia entre los pesos de ambos grupos. Proporciona además la misma información que obteníamos del contraste estadístico. El hecho de que el valor cero pertenezca al intervalo indica que no se dispone de evidencia para concluir que el peso sea distinto en ambos grupos.

    A medida que el tamaño muestral aumenta, la distribución del estadístico (1) se hace más próxima a la de una variable Normal estándar. De este modo, en algunos textos se opta por utilizar esta distribución para realizar la comparación de medias. Aunque esta aproximación es correcta para muestras suficientemente grandes, ambos métodos proporcionan en este caso resultados prácticamente idénticos, por lo que resulta más simple utilizar, independientemente del tamaño de la muestra, la misma metodología a partir de la distribución t. El mismo planteamiento podría utilizarse en el caso de varianzas distintas o de muestras apareadas.

    Dos muestras independientes con Varianza distinta

    El caso en el que se dispone de dos grupos de observaciones independientes con diferentes varianzas, la distribución de los datos en cada grupo no puede compararse únicamente en términos de su valor medio (Figura 1b). El contraste estadístico planteado en el apartado anterior requiere de alguna modificación que tenga en cuenta la variabilidad de los datos en cada población. Obviamente, el primer problema a resolver es el de encontrar un método estadístico que nos permita decidir si la varianza en ambos grupos es o no la misma. El F test o test de la razón de varianzas viene a resolver este problema. Bajo la suposición de que las dos poblaciones siguen una distribución normal y tienen igual varianza se espera que la razón de varianzas:

    siga una distribución F de Snedecor con parámetros (n-1) y (m-1).

    Supongamos que en el ejemplo anterior se desee comparar la pérdida de peso en los sujetos sometidos a cada una de las dos dietas. La aplicación del estadístico (1) no será factible, ya que las varianzas en ambos grupos son sustancialmente distintas. En este caso la razón de varianzas es de 3.97 / 0.80 = 4.96, valor que se debe comparar con una distribución F39,34. El valor-p asociado será p<0.01, siendo muy poco probable que las observaciones provengan de poblaciones con igual variabilidad.

    En este tipo de situaciones, donde no se debe aplicar el contraste basado en (1), podemos utilizar una modificación del t test para el caso de varianzas desiguales, conocido como el test de Welch basada en el estadístico:

    que, bajo la hipótesis nula seguirá una distribución t de Student con un número f de grados de libertad que dependerá de las varianzas muestrales según la expresión:

    La técnica para realizar el contraste es análoga a la vista anteriormente cuando las varianzas son desconocidas e iguales. Por ejemplo, en el caso planteado, la pérdida media de peso para los individuos en cada una de las dietas fue de e con las variabilidades anteriormente expresadas. Esto conduce a un valor del estadístico de t=5.58 a relacionar con una distribución t de Student con aproximadamente 56 grados de libertad. El valor-p resultante es, por lo tanto, p<0.001 con lo cual podemos rechazar la hipótesis de partida y concluir que la reducción de peso experimentada es distinta según la dieta que se siga.

    Al igual que en el caso anterior, podrá optarse por calcular el correspondiente 95% intervalo de confianza para la diferencia de medias dado por:

    Dos muestras dependientes

    Ya se ha comentado que cuando se trata de comparar dos grupos de observaciones, es importante distinguir el caso en el que son independientes de aquel en el que los datos están apareados. Las series dependientes surgen normalmente cuando se evalúa un mismo dato más de una vez en cada sujeto de la muestra. También se puede encontrar este tipo de observaciones en estudios de casos y controles donde cada caso se aparea individualmente con un control.

    Supongamos que queremos comprobar, en los datos de la Tabla 1 si realmente se produce una pérdida de peso significativa en esos individuos, para lo que se recoge en cada sujeto su peso antes y después de someterse a la dieta. En este tipo de análisis el interés no se centra en la variabilidad que puede haber entre los individuos, sino en las diferencias que se observan en un mismo sujeto entre un momento y otro. Por este motivo, resulta intuitivo trabajar con la diferencia de ambas observaciones (en el ejemplo será la pérdida de peso), de modo que se quiere contrastar la hipótesis:

    H0: La pérdida de peso es nula

    frente a la alternativa de que la pérdida de peso sea importante (es decir, distinta de cero).

    La veracidad de dicha hipótesis puede ser contrastada igualmente mediante el test t de Student. Como se ha dicho, este tipo de métodos tienen como hipótesis fundamental la normalidad de los datos. En este caso, sin embargo, no será necesario que las observaciones en ambos grupos provengan de poblaciones normales, sino que únicamente se requiere verificar la normalidad de su diferencia. Denotando por la pérdida media de peso la hipótesis de la que se parte es que:

    frente a la alternativa

    A partir de las observaciones muestrales {Y1,Y2,...,Yn} e {Y1,Y2,...,Yn} en cada uno de los grupos se calcula la diferencia de peso para cada sujeto {d1,d2,...,dn} con dj=Xj-Yj j=1,2,...,n. Nótese que en este caso un requisito fundamental es que se tenga un número igual de observaciones en ambos grupos. A partir de estos datos, el contraste se basa en el estadístico:

    o en el cálculo del 95% intervalo de confianza:

    donde denota la media de la pérdida de peso estimada a partir de la muestra:

    y denota la cuasivarianza muestral de la diferencia dada por:

    En nuestro ejemplo el valor del estadístico vendría dado por:

    a comparar del modo habitual con la distribución t de Student con n-1=74 grados de libertad. El intervalo de confianza para la pérdida media de peso correspondiente a una seguridad del 95% es de (3.56;4.41), lo cual se traduce en una pérdida de peso significativamente distinta de cero, tal y como indica el valor-p correspondiente de p<0.001.

    Figuras

    Figura 1. Comparación de dos poblaciones normales

    a) Poblaciones normales con igual varianza y medias distintas

    Figura 1a

    b) Poblaciones normales con igual y diferentes varianzas.

    Figura 1b


    Figura 2. Regiones de aceptación y rechazo en el contraste de hipótesis


    Figura 2


    Tablas

    Tabla 1. Datos de 75 pacientes con sobrepeso sometidos a dos dietas alimenticias.

    Dieta

    Peso inicial

    Peso final

    Dieta

    Peso inicial

    Peso final

    A

    94,07

    86,59

    B

    88,02

    84,12

    A

    96,79

    93,08

    B

    88,22

    86,13

    A

    92,15

    87,85

    B

    103,45

    101,21

    A

    92,30

    86,83

    B

    82,94

    79,08

    A

    96,50

    92,70

    B

    89,71

    86,19

    A

    83,11

    76,80

    B

    94,83

    91,93

    A

    91,16

    83,40

    B

    81,93

    78,97

    A

    90,81

    86,74

    B

    83,41

    78,89

    A

    81,37

    77,67

    B

    73,59

    69,76

    A

    89,81

    85,70

    B

    108,47

    104,20

    A

    84,92

    79,96

    B

    72,67

    70,01

    A

    84,43

    79,80

    B

    96,84

    93,66

    A

    86,33

    81,15

    B

    88,48

    87,00

    A

    87,60

    81,92

    B

    89,57

    87,24

    A

    81,08

    76,32

    B

    85,22

    82,09

    A

    92,07

    90,20

    B

    103,76

    102,24

    A

    81,14

    73,34

    B

    87,84

    84,66

    A

    96,87

    93,58

    B

    91,50

    88,95

    A

    99,59

    92,36

    B

    93,04

    88,73

    A

    83,90

    77,23

    B

    92,14

    88,07

    A

    89,41

    85,45

    B

    85,26

    81,36

    A

    85,31

    84,59

    B

    89,42

    86,64

    A

    89,25

    84,89

    B

    92,42

    88,99

    A

    93,20

    93,10

    B

    93,13

    89,73

    A

    89,17

    86,87

    B

    80,86

    77,81

    A

    93,51

    86,36

    B

    88,75

    85,93

    A

    88,85

    83,24

    B

    95,02

    91,90

    A

    88,40

    81,20

    B

    92,29

    91,28

    A

    82,45

    77,18

    B

    89,43

    87,22

    A

    96,47

    88,61

    B

    93,32

    89,77

    A

    99,48

    94,67

    B

    92,88

    89,38

    A

    99,95

    93,87

    B

    89,88

    88,00

    A

    100,05

    94,15

    B

    82,25

    80,81

    A

    87,33

    82,17

    B

    88,99

    86,87

    A

    87,61

    86,01

    B

    82,07

    79,74

    A

    89,28

    83,78

    A

    89,72

    83,56

    A

    95,57

    89,58

    A

    97,71

    91,35

    A

    98,73

    97,82


    Tabla 2. Distribución t de Student


    Bibliografía

    1. Bland JM, Altman DG. Statistics Notes: Transforming data. BMJ 1996; 312: 770. [Medline][Texto completo]
    2. Altman DG, Bland JM. Detecting skewness from summary information, BMJ 1996; 313:1200. [Medline]
    3. Bland JM, Altman DG. Statistics Notes: The use of transformations when comparing two means. BMJ 1996; 312:1153. [Medline] [texto completo]
    4. Moreno V, Vallescar R, Martín M. Las pruebas no paramétricas en el análisis estadístico de datos. Aten Primaria 1991; 8 (1): 58-60. [Medline]
    5. Altman D. G. Preparing to analyse data. En: Practical statistics for medical research. London: Chapman and Hall; 1991. p.132-145.
    6. Braitman LE. Confidence intervals asses both clinical significance and statistical significance [editorial]. Ann Intern Med 1991; 114 (6): 515-517. [Medline]
    7. Berry G., Armitage P. Statistical Methods in Medical Research. 3 rd. ed. Oxford: Blackwell Science; 1994.

    Autores

    Pértega Díaz S., Pita Fernández S.
    Unidad de Epidemiología Clínica y Bioestadística. Complexo Hospitalario Universitario de A Coruña (España)
    CAD ATEN PRIMARIA 2001; 8: 37-41.
    Figura 1a
    Figura 1b
    Figura 2

    Métodos paramétricos para la comparación de dos medias. t de Student

    Fecha de revisión: 23/03/2001

    Introducción

    En muchos estudios, incluidos la mayoría de los ensayos clínicos, es necesario comparar ciertas características en dos o más grupos de sujetos. Tal sería el caso, por ejemplo, si pensamos que un tratamiento nuevo puede tener un porcentaje de mejoría mayor que otro estándar, o cuando nos planteamos si los niños de las distintas comunidades autónomas tienen o no la misma altura. En este artículo se analizará únicamente el problema de la comparación de dos grupos con respecto a una variable continua. La elección de un método de análisis apropiado en este caso dependerá de la naturaleza de los datos y la forma en la que estos hayan sido obtenidos. Fundamentalmente, cuando se comparan dos o más grupos de observaciones pueden darse dos tipos de diseño: aquel en el que las observaciones se refieren a dos grupos independientes de individuos, o el caso en el que cada serie de datos se recoge en los mismos sujetos bajo condiciones diferentes. El tipo de metodología será distinto según el caso en el que nos encontremos. Otro aspecto a tener en consideración será el tipo y distribución de los datos. Para grupos independientes, los métodos paramétricos requieren que las observaciones en cada grupo provengan de una distribución aproximadamente normal con una variabilidad semejante, de modo que si los datos disponibles no verifican tales condiciones, puede resultar útil una transformación de los mismos (aplicación del logaritmo, raíz cuadrada, etc.) o, en todo caso, se debería recurrir a la utilización de procedimientos no paramétricos.

    Normalmente en este tipo de análisis podremos establecer una hipótesis de partida (hipótesis nula), que generalmente asume que el efecto de interés es nulo, por ejemplo que la tensión arterial es la misma en hombres y mujeres o que dos tratamientos para la hipercolesterolemia son igualmente efectivos. Posteriormente se puede evaluar la probabilidad de haber obtenido los datos observados si esa hipótesis es correcta. El valor de esta probabilidad coincide con el valor-p que nos proporciona cada test estadístico, de modo que cuanto menor sea éste más improbable resulta que la hipótesis inicial se verifique.

    En un primer apartado, se presentará el test t de Student para dos muestras independientes, introduciendo las modificaciones necesarias en el caso de que la variabilidad de ambos grupos sea distinta. A continuación se introducirá el test t de Student para el caso de dos muestras dependientes.

    t de Student para dos muestras independientes

    Uno de los análisis estadísticos más comunes en la práctica es probablemente el utilizado para comparar dos grupos independientes de observaciones con respecto a una variable numérica. Como ejemplo, consideremos los datos que se muestran en la Tabla 1, correspondientes a 75 individuos con sobrepeso sometidos a dos dietas alimenticias distintas, de modo que se desea comparar el peso de los individuos que iniciaron cada una de las dietas.

    Como ya se ha adelantado, la aplicación de un contraste paramétrico requiere la normalidad de las observaciones para cada uno de los grupos. La comprobación de esta hipótesis puede realizarse tanto por métodos gráficos (por medio de histogramas, diagramas de cajas o gráficos de normalidad) como mediante tests estadísticos (test de Kolmogorov-Smirnov, test de Shapiro-Wilks). Un número suficiente de observaciones (digamos mayor de 30) como ocurre en el ejemplo planteado justifica, no obstante, la utilización del mismo www. Así mismo, este tipo de metodología exigirá que la varianza en ambos grupos de observaciones sea la misma. En primer lugar se desarrollará el test t de Student para el caso en el que se verifiquen ambas condiciones, discutiendo posteriormente el modo de abordar formalmente el caso en el que las varianzas no sean similares.

    Bajo las hipótesis de normalidad e igual varianza la comparación de ambos grupos puede realizarse en términos de un único parámetro como el valor medio (Figura 1a), de modo que en el ejemplo planteado la hipótesis de partida será, por lo tanto:

    H0: La media de peso inicial es igual en ambos grupos

    Se denotará por {X1, X2,...,Xn} e {Y1,Y2,...,Ym} al peso observado en cada uno de los sujetos sometidos a la dieta A y a la dieta B respectivamente. En general no se exigirá que coincida el número de observaciones en cada uno de los grupos que se comparan, de modo que en el ejemplo n=40 y m=35.

    El t test para dos muestras independientes se basa en el estadístico:

    (1)

    donde e denotan el peso medio en cada uno de los grupos:

    y , las cuasivarianzas muestrales correspondientes:

    Con lo cual, en este caso particular, el valor utilizado para el contraste será:

    Si la hipótesis de partida es cierta el estadístico (1) seguirá una distribución t de Student con n+m-2 grados de libertad. De ser así, el valor obtenido debería estar dentro del rango de mayor probabilidad según esta distribución (Figura 2). Usualmente se toma como referencia el rango de datos en el que se concentra el 95% de la probabilidad. El valor-p que usualmente reportan la mayoría de paquetes estadísticos no es más que la probabilidad de obtener, según esa distribución, un dato más extremo que el que proporciona el www. Como ya se dijo, refleja también la probabilidad de obtener los datos observados si fuese cierta la hipótesis inicial. Si el valor-p es muy pequeño (usualmente se considera p<0.05) es poco probable que se cumpla la hipótesis de partida y se debería de rechazar. La región de aceptación corresponde por lo tanto a los valores centrales de la distribución para los que p>0.05. En el ejemplo planteado el valor-p correspondiente es de 0.425, de modo que no existe evidencia estadística de que el peso medio en ambos grupos sea diferente. En la Tabla 2, se determina los grados de libertad (en la primera columna) y el valor de α (en la primera fila). El número que determina su intersección es el valor crítico correspondiente. De este modo, si el estadístico que se obtiene toma un valor mayor se dirá que la diferencia es significativa.

    Otro modo de obtener esta misma información es mediante el cálculo de intervalos de confianza para la diferencia de la respuesta media en ambos grupos. A mayores, el intervalo de confianza constituye una medida de la incertidumbre con la que se estima esa diferencia a partir de la muestra, permitiendo valorar tanto la significación estadística como la magnitud clínica de esa diferencia. En el caso que nos ocupa, el intervalo de confianza vendrá dado como:

    donde denota el valor que según la distribución t de Student con n+m-2 grados de libertad deja a su derecha el 2.5% de los datos. En el ejemplo, el intervalo de confianza con una seguridad del 95% para la diferencia de peso viene dado por:

    que expresa en definitiva un rango de valores entre los que se puede encontrar el valor real de la diferencia entre los pesos de ambos grupos. Proporciona además la misma información que obteníamos del contraste estadístico. El hecho de que el valor cero pertenezca al intervalo indica que no se dispone de evidencia para concluir que el peso sea distinto en ambos grupos.

    A medida que el tamaño muestral aumenta, la distribución del estadístico (1) se hace más próxima a la de una variable Normal estándar. De este modo, en algunos textos se opta por utilizar esta distribución para realizar la comparación de medias. Aunque esta aproximación es correcta para muestras suficientemente grandes, ambos métodos proporcionan en este caso resultados prácticamente idénticos, por lo que resulta más simple utilizar, independientemente del tamaño de la muestra, la misma metodología a partir de la distribución t. El mismo planteamiento podría utilizarse en el caso de varianzas distintas o de muestras apareadas.

    Dos muestras independientes con Varianza distinta

    El caso en el que se dispone de dos grupos de observaciones independientes con diferentes varianzas, la distribución de los datos en cada grupo no puede compararse únicamente en términos de su valor medio (Figura 1b). El contraste estadístico planteado en el apartado anterior requiere de alguna modificación que tenga en cuenta la variabilidad de los datos en cada población. Obviamente, el primer problema a resolver es el de encontrar un método estadístico que nos permita decidir si la varianza en ambos grupos es o no la misma. El F test o test de la razón de varianzas viene a resolver este problema. Bajo la suposición de que las dos poblaciones siguen una distribución normal y tienen igual varianza se espera que la razón de varianzas:

    siga una distribución F de Snedecor con parámetros (n-1) y (m-1).

    Supongamos que en el ejemplo anterior se desee comparar la pérdida de peso en los sujetos sometidos a cada una de las dos dietas. La aplicación del estadístico (1) no será factible, ya que las varianzas en ambos grupos son sustancialmente distintas. En este caso la razón de varianzas es de 3.97 / 0.80 = 4.96, valor que se debe comparar con una distribución F39,34. El valor-p asociado será p<0.01, siendo muy poco probable que las observaciones provengan de poblaciones con igual variabilidad.

    En este tipo de situaciones, donde no se debe aplicar el contraste basado en (1), podemos utilizar una modificación del t test para el caso de varianzas desiguales, conocido como el test de Welch basada en el estadístico:

    que, bajo la hipótesis nula seguirá una distribución t de Student con un número f de grados de libertad que dependerá de las varianzas muestrales según la expresión:

    La técnica para realizar el contraste es análoga a la vista anteriormente cuando las varianzas son desconocidas e iguales. Por ejemplo, en el caso planteado, la pérdida media de peso para los individuos en cada una de las dietas fue de e con las variabilidades anteriormente expresadas. Esto conduce a un valor del estadístico de t=5.58 a relacionar con una distribución t de Student con aproximadamente 56 grados de libertad. El valor-p resultante es, por lo tanto, p<0.001 con lo cual podemos rechazar la hipótesis de partida y concluir que la reducción de peso experimentada es distinta según la dieta que se siga.

    Al igual que en el caso anterior, podrá optarse por calcular el correspondiente 95% intervalo de confianza para la diferencia de medias dado por:

    Dos muestras dependientes

    Ya se ha comentado que cuando se trata de comparar dos grupos de observaciones, es importante distinguir el caso en el que son independientes de aquel en el que los datos están apareados. Las series dependientes surgen normalmente cuando se evalúa un mismo dato más de una vez en cada sujeto de la muestra. También se puede encontrar este tipo de observaciones en estudios de casos y controles donde cada caso se aparea individualmente con un control.

    Supongamos que queremos comprobar, en los datos de la Tabla 1 si realmente se produce una pérdida de peso significativa en esos individuos, para lo que se recoge en cada sujeto su peso antes y después de someterse a la dieta. En este tipo de análisis el interés no se centra en la variabilidad que puede haber entre los individuos, sino en las diferencias que se observan en un mismo sujeto entre un momento y otro. Por este motivo, resulta intuitivo trabajar con la diferencia de ambas observaciones (en el ejemplo será la pérdida de peso), de modo que se quiere contrastar la hipótesis:

    H0: La pérdida de peso es nula

    frente a la alternativa de que la pérdida de peso sea importante (es decir, distinta de cero).

    La veracidad de dicha hipótesis puede ser contrastada igualmente mediante el test t de Student. Como se ha dicho, este tipo de métodos tienen como hipótesis fundamental la normalidad de los datos. En este caso, sin embargo, no será necesario que las observaciones en ambos grupos provengan de poblaciones normales, sino que únicamente se requiere verificar la normalidad de su diferencia. Denotando por la pérdida media de peso la hipótesis de la que se parte es que:

    frente a la alternativa

    A partir de las observaciones muestrales {Y1,Y2,...,Yn} e {Y1,Y2,...,Yn} en cada uno de los grupos se calcula la diferencia de peso para cada sujeto {d1,d2,...,dn} con dj=Xj-Yj j=1,2,...,n. Nótese que en este caso un requisito fundamental es que se tenga un número igual de observaciones en ambos grupos. A partir de estos datos, el contraste se basa en el estadístico:

    o en el cálculo del 95% intervalo de confianza:

    donde denota la media de la pérdida de peso estimada a partir de la muestra:

    y denota la cuasivarianza muestral de la diferencia dada por:

    En nuestro ejemplo el valor del estadístico vendría dado por:

    a comparar del modo habitual con la distribución t de Student con n-1=74 grados de libertad. El intervalo de confianza para la pérdida media de peso correspondiente a una seguridad del 95% es de (3.56;4.41), lo cual se traduce en una pérdida de peso significativamente distinta de cero, tal y como indica el valor-p correspondiente de p<0.001.

    Figuras

    Figura 1. Comparación de dos poblaciones normales

    a) Poblaciones normales con igual varianza y medias distintas

    Figura 1a

    b) Poblaciones normales con igual y diferentes varianzas.

    Figura 1b


    Figura 2. Regiones de aceptación y rechazo en el contraste de hipótesis


    Figura 2


    Tablas

    Tabla 1. Datos de 75 pacientes con sobrepeso sometidos a dos dietas alimenticias.

    Dieta

    Peso inicial

    Peso final

    Dieta

    Peso inicial

    Peso final

    A

    94,07

    86,59

    B

    88,02

    84,12

    A

    96,79

    93,08

    B

    88,22

    86,13

    A

    92,15

    87,85

    B

    103,45

    101,21

    A

    92,30

    86,83

    B

    82,94

    79,08

    A

    96,50

    92,70

    B

    89,71

    86,19

    A

    83,11

    76,80

    B

    94,83

    91,93

    A

    91,16

    83,40

    B

    81,93

    78,97

    A

    90,81

    86,74

    B

    83,41

    78,89

    A

    81,37

    77,67

    B

    73,59

    69,76

    A

    89,81

    85,70

    B

    108,47

    104,20

    A

    84,92

    79,96

    B

    72,67

    70,01

    A

    84,43

    79,80

    B

    96,84

    93,66

    A

    86,33

    81,15

    B

    88,48

    87,00

    A

    87,60

    81,92

    B

    89,57

    87,24

    A

    81,08

    76,32

    B

    85,22

    82,09

    A

    92,07

    90,20

    B

    103,76

    102,24

    A

    81,14

    73,34

    B

    87,84

    84,66

    A

    96,87

    93,58

    B

    91,50

    88,95

    A

    99,59

    92,36

    B

    93,04

    88,73

    A

    83,90

    77,23

    B

    92,14

    88,07

    A

    89,41

    85,45

    B

    85,26

    81,36

    A

    85,31

    84,59

    B

    89,42

    86,64

    A

    89,25

    84,89

    B

    92,42

    88,99

    A

    93,20

    93,10

    B

    93,13

    89,73

    A

    89,17

    86,87

    B

    80,86

    77,81

    A

    93,51

    86,36

    B

    88,75

    85,93

    A

    88,85

    83,24

    B

    95,02

    91,90

    A

    88,40

    81,20

    B

    92,29

    91,28

    A

    82,45

    77,18

    B

    89,43

    87,22

    A

    96,47

    88,61

    B

    93,32

    89,77

    A

    99,48

    94,67

    B

    92,88

    89,38

    A

    99,95

    93,87

    B

    89,88

    88,00

    A

    100,05

    94,15

    B

    82,25

    80,81

    A

    87,33

    82,17

    B

    88,99

    86,87

    A

    87,61

    86,01

    B

    82,07

    79,74

    A

    89,28

    83,78

    A

    89,72

    83,56

    A

    95,57

    89,58

    A

    97,71

    91,35

    A

    98,73

    97,82


    Tabla 2. Distribución t de Student


    Bibliografía

    1. Bland JM, Altman DG. Statistics Notes: Transforming data. BMJ 1996; 312: 770. [Medline][Texto completo]
    2. Altman DG, Bland JM. Detecting skewness from summary information, BMJ 1996; 313:1200. [Medline]
    3. Bland JM, Altman DG. Statistics Notes: The use of transformations when comparing two means. BMJ 1996; 312:1153. [Medline] [texto completo]
    4. Moreno V, Vallescar R, Martín M. Las pruebas no paramétricas en el análisis estadístico de datos. Aten Primaria 1991; 8 (1): 58-60. [Medline]
    5. Altman D. G. Preparing to analyse data. En: Practical statistics for medical research. London: Chapman and Hall; 1991. p.132-145.
    6. Braitman LE. Confidence intervals asses both clinical significance and statistical significance [editorial]. Ann Intern Med 1991; 114 (6): 515-517. [Medline]
    7. Berry G., Armitage P. Statistical Methods in Medical Research. 3 rd. ed. Oxford: Blackwell Science; 1994.

    Autores

    Pértega Díaz S., Pita Fernández S.
    Unidad de Epidemiología Clínica y Bioestadística. Complexo Hospitalario Universitario de A Coruña (España)
    CAD ATEN PRIMARIA 2001; 8: 37-41.
    © Descargado el 29/09/2022 7:09:46 Para uso personal exclusivamente. No se permiten otros usos sin autorización. Copyright © . Elsevier Inc. Todos los derechos reservados.