jueves, 31 de mayo de 2018

SEMINARIO 5: Presentación del proyecto de investigación

En el último seminario de la asignatura se han expuesto los trabajos de investigación que cada grupo ha realizado.

El tema de nuestro trabajo era sobre la calidad de vida en personas que presentaban alergia a alimentos. Se nos encomendó la tarea de estudiar una determinada población, el cual presente esta enfermedad para poder estudiar su calidad de vida.


Primero tuvimos que obtener ciertos cuestionarios rellenos para poder introducirlos en el EPI INFO, como ya he explicado en seminarios anteriores, una vez grabado todos ellos pudimos realizar la estadística descriptiva e inferencial aplicando el tes de Chi-cuadrado y Anova, para poder sacar las respectivas conclusiones de los datos obtenidos:

  • La calidad de vida influye mucho en pacientes con alergias alimentarias.
  • Hay una gran cantidad de personas alérgicas en el mundo, por lo tanto provoca un gran impacto social y económico.
  • Existe una estrecha relación entre la evitación del alérgeno y la preocupación por la salud.
  • Existe un gran impacto emocional el ser alérgico a alimentos que varía dependiendo de la persona (sobre todo en jóvenes).

TEMA 12: CONCORDANCIA Y CORRELACIÓN Correlación paramétrica: Pearson. Correlación no paramétrica: Spearman


Reflexión sobre lo aprendido semana del 7 de mayo

El termino regresión fue introducido por Galton en su libro “Natural inheritance” (1889) refiriéndose a la “ley de la regresión universal”.  Su trabajo se centraba en la descripción de los rasgos físicos de los descendientes (una variable) a partir de los de sus padres (otra variable). Hoy en día el sentido de regresión es el de predicción de una medida basándonos en el conocimiento de otra.

Los datos obtenidos de dos variables en varios individuos de una muestra pueden ser representadas en un diagrama de dispersión. En ellos, cada individuo es un punto cuyas coordenadas son los valores de las variables. Ejemplo:


RELACION ENTRE VARIABLES


  • Incorreción: para valores de X por encima de la media tenemos valores de Y por encima y por debajo en proporciones similares.









  • Relación directa: Para valores de X mayores que la media le corresponde valores de Y mayores también.  Para los valores de X menores que la media le corresponden valores de Y menores también.




  • Relación inversa: para valores de X mayores que la media le corresponde valores de Y menores. 

Posteriormente dimos el análisis de correlación que se utiliza con el propósito de disponer de un indicador cuantitativo que permite sintetizar el grado de la asociación entre variables.

  • Coeficiente de Correlación r de Pearson (r), (Rxy): Es un coeficiente que mide el grado de la relación de dependencia que existe entre las variables (x,y), cuyos valores van desde –1, correspondiente a una correlación negativa perfecta, hasta 1, correspondiente a una correlación positiva perfecta.

El coeficiente de Correlación por Rango de o rho de Spearman es una medida de asociación que requiere que ambas variables en estudio sean medidas por lo menos en una escala ordinal.


Por último se explicó la regresión lineal simple que trata de estudiar la asociación lineal entre dos variables cuantitativas
.

Para construir un modelo de regresión lineal hace falta conocer: Punto de intersección con el eje de coordenadas=β0 y la Pendiente de la recta a = β1

Y = β1· x + β0

Como calcular β0 y β1











Coeficiente de correlación (Pearson y Spearman): Número adimensional (entre -1 y 1) que mide la fuerza y el sentido de la relación lineal entre dos variables.

r= β1 • sx/sy

Coeficiente de determinación: número adimensional (entre 0 y 1) que dá idea de la relación entre las variables relacionadas linealmente. Es r2

A continuación presento un ejercicio para aplicar lo explicado anteriormente.

Un grupo de investigadores se plantea una investigación para saber si, en un grupo de pacientes de una unidad médica de hospitalización, las cifras de urea plasmática tienen algún tipo de relación con los valores de la hemoglobina. Para ello, se estudiaron ambos parámetros en una muestra de 8 pacientes de esta unidad, obteniéndose los siguientes valores:


Plantear la hipótesis adecuada y realizar el modelo que mejor explique el tipo de relación existente entre ambos variables, realizando el test de hipótesis más pertinente.

El profesor también nos facilitó la siguiente tabla para los cálculos correspondientes.

Valores de urea
plasmática (mg/dl)
(xi-)
(xi-)2
Valores de
hemoglobina en
sangre (g/dl)
(yi-)
(xi-) · (yi-)
38,0
10,3
106,5
20,5
-4,4
-45,1
33,5
5,8
33,9
41,0
16,1
93,9
43,5
15,8
250,3
11,5
-13,4
-211,5
14,0
-13,7
187,1
28,0
3,1
-42,8
24,0
-3,7
13,5
28,0
3,1
-11,5
38,0
10,3
106,5
3,5
-21,4
-220,5
24,0
-3,7
13,5
35,5
10,6
-39,1
6,5
-21,2
448,6
31,0
6,1
-129,8
= 27,68 mg/dl
sx = 12,87 mg/dl

Σ (xi-)2 = 1160
= 24,87 g/dl
sy = 12,45 g/dl

Σ(xi-) · (yi-) =
-606,6


Primero se crea la nube de dispersión de la urea y la hemoglobina para visualizar mejor los datos, planteamos las hipótesis, detectamos la variable dependiente/ independiente y formulamos la formula correspondiente.

Ho: no hay relación entre las cifras de urea plasmática y los valores de la hemoglobina.

Hi: hay relación entre las cifras de urea plasmática y los valores de la hemoglobina.

VI = x (urea)

VD = y (orina)

Hb = β1 x urea + β0

Ahora se procede a calcular β1 y β0 con la ayuda de la tabla que nos ha proporcionado el profesor.


 a medida que va aumentado la urea baja la hemoglobina.

β0 = - β1 x = 24,87 x (-0,52) x 27,68 = 39,26

Hb = (-0,52) U + 39,26

Posteriormente se podría dar dos valores a Hb para calcular x y así poder dibujar una recta para una interpretación más correcta, pero en este caso no lo voy a representar.
Ahora calculamos el coeficiente de correlación con los respectivos datos que nos da la tabla.

Sx= 12,8

Sy = 12,4

r = - 0,52 * 12,8/12,4 = -0,53 nos indica que la relación lineal es negativa y intermedia porque esta entre -1 y 1.

Por ultimo calculamos el coeficiente de determinación.

r2  = 0,28 por lo que el 28% de la Hb depende de la urea.


SEMINARIO 4: ESTADISTICA DESCRIPTIVA Y INFERENCIAL


A lo largo de este seminario el profesor nos explicó la estadística descriptiva y la inferencial aunque nos hemos centrado en la estadística inferencial y como analizarla y realizarla en el EPI INFO

ESTADÍSTICA DESCRIPTIVA

Se nos explicó un breve resumen puesto que ya lo habíamos dado en clase:      




Posteriormente se explicó brevemente como aplicar la estadística descriptiva en el EPI INFO

ESTADÍSTICA INFERENCIACIAL

El profesor se centró más en este apartado ya que no se había dado anteriormente en clase, el cual nos explicó los tipos de errores al tomar una decisión:

  • Error tipo I (alfa): El investigador rechaza la Ho siendo esta verdadera en la población.
  • Error tipo II (beta): El investigador no rechaza la Ho siendo esta falsa en la población.

Siendo de mayor gravedad cometer un error tipo beta ya que aceptamos la nula cuando verdaderamente es cierta y debemos rechazarla.

Posteriormente se explicaron los diferentes tes de hipótesis que depende de las variables estudiadas utilizamos uno u otro.


Variable Independiente
Variable dependiente
Pruebas de contraste de hipótesis
Cualitativa
Cualitativa
Chi- cuadrado
Cualitativa
Cuantitativa
T- de Student
Cuantitativa
Cualitativa
Regresión logística simple
Cuantitativa
Cuantitativa
Regresión lineal simple



Por último también se explicó cómo aplicarlo al EPI INFO.

TEMA 11: PRUEBAS NO PARAMÉTRICAS MÁS UTILIZADAS EN ENFERMERÍA La prueba de Chi Cuadrado. Corrección de Yates. Prueba exacta de Fisher. Prueba de McNemar


Reflexión sobre lo aprendido semana del 30 de abril

Aquí ya empezamos viendo una de la pruebas paramétricas de análisis bivariado de variables cualitativas llama TEST DE HIPÓTESIS CHI-CUADRADO que nos sirve para comparar y analizar la asociación de dos variables cualitativas (nos dice si aceptar la hipótesis nula o no).

Esta prueba nos va a servir para si la diferencia en los datos que observamos es debida al azar o es debida a algo más, por ejemplo una asociación entre las variables que estudiamos.

Condiciones para aplicar la Chi cuadrado

  • Las observaciones deben ser independientes.
  • Utilizar en variables cualitativas
  • Más de 50 casos
  • Las frecuencias teóricas o esperadas en cada casilla de clasificación no deben ser inferiores a 5. Si son menores que 5, no podemos sacar conclusiones del contraste de hipótesis con Chi-cuadrado.
  • Si no cumplen los requisitos. Se usan pruebas paramétricas.

CÁLCULO

A partir de ciertos estudios se tiene la idea de que operando inmediatamente a los enfermos que ingresan en estado de shock en un determinado servicio de un hospital existe mayor probabilidad de que el enfermo reaccione favorablemente. Para comprobar esta hipótesis se tomaron dos grupos de pacientes, a uno de los cuales se les opero inmediatamente mientras que al otro se esperó a que se recuperen del shock, obteniéndose:



Recuperación  completa
Mejora
Exitus

Operación Inmediata
40 / 50%
28/25%
12/15%
80
Operación tardía
20/ 50%
12/30%
8/20%
40

60
40
20
120


A priori parece que los pacientes que no se operan inmediatamente presentan un porcentaje mayor de mejoría.

Primeramente observamos la frecuencia observada (tabal) que son los datos que se recogen, luego planteamos la hipótesis nula y la alternativa:

Ho: no se presenta relación entre los enfermos que son operados inmediatamente y la mejoría del paciente.

HI: se presenta relación entre los enfermos que son operados inmediatamente y la mejoría del paciente.

Una vez planteadas las hipótesis podemos calcular los grados de libertad.

Grados de libertad = (filas-1)*(columanas-1) / Grados de libertad =  (2-1)* (3-1)= 2

Luego debemos de calcular los datos esperados:





Recuperación completa
Mejora
Extitus

Operación inmediata
60*80/120 = 40
40*80/120= 26,67
20*80/120= 13,3
80
Operación tardía
60*40/120= 20
40*40/120= 13,33
20*40/120= 6,6
40

60
40
20
120

Después procedemos al cálculo del valor estadístico chi-cuadrado (𝑋2):

Como X2 < p por lo tanto aceptamos la hipótesis nula, así que podemos decir que no se presenta relación entre los enfermos que son operados inmediatamente y la mejoría del paciente.

Por ultimo podemos calcular la Odds ratio como ya vimos en temas anteriores que nos permite cuantificar la importancia/fuerza de la asociación entre dos variables, por lo tanto en este caso:

RR = 20/1,5 =1,3 por lo que aparentemente hay por el azar 1,3 veces más de muertes cuando se opera tardíamente que cuando se opera inmediatamente.