EPIDEMIOLOGÍA Medidas de frecuencia de la enfermedad Estas medidas solo se pueden obtener de estudios transversales Prevalencia Es el número de casos (antiguos y recientes) de una determinada enfermedad que existen en una población. Al no tener en cuenta el factor tiempo, no puede considerarse una tasa. Disminuye cuando aumenta el número de fallecimientos. Las series de casos no son adecuadas para determinar la prevalencia. Son estudios longitudinales que contienen información recogida a lo largo del tiempo. El tipo de estudio apropiado para determinar la prevalencia en una población es aquel que estudie la población en un momento determinado y único, por ejemplo, el estudio transversal o de corte. Foto puntual en un momento del tiempo. Que proporción de enfermos hay en un momento determinado en una población. Incidencia acumulada Requiere un seguimiento, evalúa el riesgo individual de enfermar. Necesito conocer los casos nuevos de la enfermedad durante un periodo de tiempo determinado y dividirlo entre el total de la población que estaba en riesgo para desarrollar la enfermedad. (A diferencia del riesgo relativo, que comparaba entre un grupo y otro cuantas veces más tiene una persona el riesgo de desarrollar una enfermedad por estar expuesto). Densidad de incidencia: es la medida de frecuencia que habla de la velocidad de aparición de lo casos, es decir, de la velocidad de aparición de los sujetos. El numero de casos nuevos en una población dividido entre el los periodos sumatorios del tiempo. La diferencia entre la incidencia acumulada (todos los sujetos cuentan lo mismo) y la densidad de incidencia (cada sujeto suma su periodo individual de riesgo). No es lo mismo enfermar antes o al principio que enfermar al final del seguimiento). Estudio de un test – parámetros de uso Sensibilidad y especificidad En general para una prueba de screening es preferible una prueba con una alta sensibilidad, pero existe una excepción a esta regla: enfermedades con prevalencia muy baja (observa el dato que nos dan en el enunciado: “prevalencia muy baja”, 1/10.000). En estos casos es preferible elegir una prueba altamente específica, ya que una prueba muy sensible produciría un número descabellado de falsos positivos. Reproducibilidad de un test: La reproductibilidad es un concepto emparejado con la precisión y la fiabilidad, es decir, el grado de ausencia de error aleatorio. Esto significa que, repitiendo la prueba en numerosas ocasiones, se obtiene siempre el mismo resultado (o con variaciones mínimas, es decir, con muy poca dispersión). Aceptabilidad de un método diagnóstico – Área bajo la curva
Es lógico que se haya decidido optar por la prueba A, ya que recoge un mayor área bajo la curva que la prueba B en la curva ROC. Sobre la pregunta que nos hacen, debemos observar un detalle importante: aunque se trata de una prueba de screening, estamos ante una situación muy particular. En general, en las pruebas de Screening se prefiere la sensibilidad, pero en este caso hay un dato que lo cambia todo: el objetivo de esta prueba es INTRODUCIR DIRECTAMENTE a los pacientes en un protocolo de quimioterapia en altas dosis; se trata, por tanto, de un tratamiento altamente tóxico que puede tener gravísimas consecuencias sobre el paciente, por lo que en este caso buscaremos la especificidad más alta posible (manteniendo, por supuesto, una sensibilidad aceptable). Recuerda que, a mayor especificidad, podemos estar más seguros de que un resultado positivo corresponda a un enfermo (en otras palabras, las pruebas específicas tienen mayor valor predictivo positivo). Una de las dificultades de esta pregunta es la ausencia de una cuadrícula para determinar con mayor exactitud los valores de los distintos parámetros, algo que puede ocurrir en el MIR. Si te fijas en la curva ROC, en la prueba A no existe una correspondencia entre sensibilidad y especificidad que se ajuste a estos datos. A una sensibilidad de 0,2 corresponde una especificidad cercana a 1, mientras que, para una especificidad de 0,2, la sensibilidad sería también cercana a 1 (recuerda que, en el eje de abscisas, lo que se representa es 1-especificidad). De entre las dos opciones de respuesta que nos quedan, la mejor es la 3, que es la que da prioridad a la especificidad, con una sensibilidad razonable. Probabilidad preprueba o pretest La probabilidad pre prueba (concepto relacionado con la prevalencia de la enfermedad), puede influir sobre los valores predictivos. Date cuenta de que, en esta pregunta, tienes una sensibilidad y una especificidad definidas, es decir, lo que podrá modificar el valor predictivo positivo será la probabilidad pretest. Recuerda que los valores predictivos positivo y negativo van en función del resultado del test, proporcionan validez externa y dependen por ende de la prevalencia; en cambio, la sensibilidad y especificidad van en función del estado de la enfermedad y proporcionan validez interna. Razón de Probabilidad Positiva (RPP) - razón de verosimilitud positiva:
-La razón de verosimilitud no varía con la prevalencia. Al igual que la sensibilidad y la especificidad no varía con la prevalencia, tampoco lo hace la razón de verosimilitud, ya que, en su fórmula, las variables que intervienen son la sensibilidad y la especificidad: RP (+) = S/1-E; RP (-) = 1-S/E Lo primero que hay que hacer es identificarla, nos lo dicen ya en el enunciado, la RPP es de 8. El siguiente dato que hay que identificar es la TFP, que es del 10%. Sabiendo esto, y conociendo que la RPP = S / (1-E) o, lo que es lo mismo, RPP = S / TFP, podemos obtener la sensibilidad, que es del 80%. Con una prevalencia del 15%, ya sabremos que la n = 100, y que tenemos 15 enfermos y 85 sanos. Con los datos de la sensibilidad y la TFP, podremos acabar de rellenar la tabla de contingencia: VP = 12, FN = 3, FP = 8,5, VN = 7,56, TP = 20,5 y TN = 79,5. Lo último que nos queda es darnos cuenta de que nos están preguntando por el cociente FP / TP, que nos da un resultado de 0,41, por lo que la opción de respuesta más aproximada es 40%. Factor vs indicador vs marcador de riesgo 1.- Un factor de riesgo es una variable CONTROLABLE. Si pensamos, por ejemplo, en el tabaco y su asociación con el cáncer de pulmón, sabemos que el tabaco es un factor de riesgo de esta enfermedad y además sabemos que es algo que podemos controlar dejando de fumar. Puede ser ENDÓGENO O EXÓGENO. 2.- Un marcador de riesgo es una variable NO CONTROLABLE; sin embargo, no es exógena al individuo, sino ENDÓGENA. Pensemos por ejemplo en la relación entre ser mujer y padecer cáncer de mama. Ser mujer no es algo que se pueda controlar (al contrario que fumar), y además es algo endógeno. 3.- Un indicador de riesgo es una variable que NO PRESENTA RELACIÓN CAUSAL con el problema. Un indicador de riesgo serían las famosas manchas de Koplik en el sarampión; sin
embargo, estas manchas no tienen nada que ver con la causa de esta enfermedad que, como todos sabemos, está producida por un virus. Ya tiene la enfermedad. 4.- Un factor de riesgo sí que puede ser una variable tanto endógena como exógena. Por ejemplo, en el caso de las enfermedades cardiovasculares, un factor de riesgo exógeno sería el tabaco y un factor de riesgo endógeno, el nivel de colesterol LDL, ambos controlables. Estrategia PICO Toda investigación comienza determinando la pregunta a la que tratarán de dar respuesta los resultados obtenidos. El esquema PICO permite estructurar esta pregunta, que deberá contener: P (definición del problema y paciente), I (intervención que queremos analizar), C (intervención con la que estamos comparando), y O (Outcomes: resultados a valorar). El tipo de estudio será el medio, pero nunca un fin. Es decir, será la manera a través de la cual trataremos de dar respuesta a la pregunta que hemos elaborado gracias al acrónimo PICO. El factor de estudio es lo mismo que la intervención que se va a llevar a cabo. A la hora de diseñar un estudio debemos fijar cuál es el objetivo general (evaluación de eficacia), así como los objetivos concretos (reducción de la TA, disminución de la mortalidad cardiovascular, etc.). De los objetivos concretos se obtienen las variables de evaluación (TAS, TAD, etc.). En el caso de la pregunta, el factor de estudio es el fármaco para el asma bronquial. La frecuencia e intensidad de las crisis asmáticas serían variables de evaluación; y los objetivos, la reducción de estas. La pregunta PICO trata de homogeneizar y sistematizar la forma de hacer la pregunta científica. La pregunta se realiza sobre cuatro principios que son paciente (por ejemplo, paciente EPOC), intervención (por ejemplo, terapia inhaladora, comparación (por ejemplo, inhalador 1 frente inhalador 2) y resultado u Outcome (qué inhalador evitó más reingresos hospitalarios). Los diseños habituales que se emplean para la pregunta PICO dependen de lo que se quiera investigar, siendo lo habitual: etiología: cohortes; tratamiento: ECA; Screening: transversal; pronóstico: cohortes. Prevención primaria Medidas para que una persona sana siga estando sana. Evita la aparición de la enfermedad (reduce la incidencia). Ej: Fluor en crema dental, vacunas Prevención secundaria Diagnóstico precoz. Tamizaje, el enfermo ya está enfermo. Se basa en un diagnóstico precoz de la enfermedad, muchas veces en fase asintomática, comprendiendo las pruebas de Screening (mamografía, prueba de Papanicolau). Por lo tanto, reduce la prevalencia. Prevención terciaria Enfermedad diagnosticada, medidas para que evolucione lo mejor posible. Ej: EPOC que deje de fumar Prevención cuartenaria Prevenir intervenciones innecesarias por parte del personal médico. La prevención cuaternaria es un concepto muy relevante en seguridad del paciente. Se trata de disminuir la iatrogenia evitando intervenciones médicas innecesarias: duración excesiva de sondaje, antibióticos en pacientes que no los precisan, etc. Coeficientes de probabilidad positivos (CP+). Los coeficientes de probabilidad, tanto positivos como negativos, nos indican cuánto más probable es padecer o no una enfermedad. Según The Evidence - Based Medicine Working Group, CP+ 1-2 alteran la probabilidad en un grado insignificante; CP+ 2-5 generan cambios pequeños; CP+ 5-10 generan cambios moderados y CP+ mayores de 10 generan cambios amplios y a menudo concluyentes La carga de enfermedad que supone una comunidad son los años de vida ajustados a discapacidad. Este concepto no debe confundirse con años de vida perdidos. En este último caso se evalúan los
años que se pierden por un único proceso patológico, teniendo en cuenta la esperanza de vida en esa comunidad. Supongamos que medimos cómo afecta a una comunidad los accidentes de tráfico. Los años de vida perdidos harían referencia a los años no vividos por los sujetos que fallecen en estos accidentes. Los años de vida ajustados a discapacidad sin embargo miden todos los años que los pacientes quedan en silla de ruedas, que no pueden trabajar, que necesitan rehabilitación.... siendo un parámetro mejor para medir el impacto que deja en la comunidad un proceso patológico. Medidas de asociación Si la Ie = Io, la relación no será significativa porque el factor de exposición puede ser factor de riesgo y factor protector. En el caso de las medidas de asociación, es 1; en el de las medidas de efecto, es 0. Riesgo relativo • El riesgo relativo: cociente entre el riesgo de sufrir un determinado evento en el grupo expuesto a un determinado tratamiento y el riesgo de sufrir el mismo evento en el grupo control. • La reducción absoluta del riesgo (RAR): diferencia entre el porcentaje de eventos en el grupo control y el porcentaje de eventos en el grupo experimental. • La reducción relativa del riesgo (RRR): diferencia entre el porcentaje de eventos en el grupo control y el porcentaje de eventos en el grupo experimental, dividido por el porcentaje de eventos en el grupo control. Medidas de impacto o del efecto Fracción atribuible en expuestos o fracción etiológica del riesgo La fracción etiológica en expuestos nos muestra qué porcentaje de casos de enfermedad serían debidos al factor en estudio. FAE=0.4 → 40%. FAE= = (Ie - Io) / Ie RAR (reducción absoluta del riesgo): En esta muestra, la segunda pauta de tratamiento (AZT + ddI + nuevo) proporciona una respuesta virológica mantenida del 89%, mejor que la del grupo con Efavirenz, que presenta un 80%. La reducción absoluta del riesgo (RAR = Io-Ie, siendo Ie, la incidencia en expuestos a la medida preventiva a estudio) es del –9%. Calculo el error estándar del porcentaje y obtengo un valor, que por lo que podemos deducir es 2,5%, ya que el IC al 95% (que recordemos, es la media ± 2 eep) es (- 14%, - 4%). El procedimiento es correcto en todos los pasos. Tenemos un IC al 95% que no incluye el valor 0, luego, podemos afirmar que 95 de cada 100 veces que repitiese mi experimento, hallaría una reducción absoluta del riesgo ventajosa para la pauta de tratamiento con el antirretroviral nuevo; es decir, que hemos hallado una diferencia estadísticamente significativa. Riesgo atribuible en los expuestos: Proporción de la gente (%) expuesta a un factor tendrá la enfermedad debido en exclusiva a la exposición. Fracción atribuible en expuestos o fracción etiológica del riesgo De todos los cánceres de endometrio que se producen en las mujeres que toman estrógenos, qué porcentaje de ellos se deben a la toma de estos. NNT: El NNT es un estimador de la efectividad y magnitud de los resultados de una intervención; es el inverso de la Reducción Absoluta del Riesgo. Mide cuántas personas deberían tratarse con un determinado tratamiento para conseguir una curación, lo que significa que el NNT nos gusta pequeño, es decir, que tratando a pocos ya consigamos una curación. Un NNT de 1 significa por
tanto que a todos los que tratemos serán curados por ese tratamiento. Un tipo "especial" de NNT es el NND o número necesario para Dañar. En este caso nos gusta que el valor sea grande. Mide cuántos sujetos debemos tratar para que aparezca un efecto secundario. NNT= 100/Io-Ie Tipos de estudios Estudios ecológicos Los estudios ecológicos son estudios en los que la unidad de análisis son grupos de individuos, no individuos. Por ejemplo, clases de una escuela, regiones o, como en el caso de la pregunta, de ciudades europeas. Son útiles cuando no se pueden hacer mediciones individuales: ruido, ventas de cigarrillos o, como aquí, niveles medios de contaminación. En el estudio que nos describen, sólo disponemos de datos poblacionales, no individuales, acerca de la tasa de incidencia de un tipo de alergia en el último año y los niveles medios de contaminación en 250 ciudades europeas. Los estudios ecológicos permiten describir diferencias en poblaciones que habrán de ser estudiadas posteriormente con más detalle. Su problema es que las medidas usadas son aproximadas de exposición y de enfermedad, y que no podemos asociar exposición y enfermedad, no sabemos realmente si los individuos diagnosticados de alergia son lo que más contaminación reciben o no, lo que limita el valor de los hallazgos. Ensayos clínicos Aunque existen múltiples tipos de diseño epidemiológico, algunos aportan mayor evidencia científica que otros. Este nivel de evidencia viene definido por las siguientes características: • Los diseños prospectivos aportan mayor evidencia que los retrospectivos. • La existencia de aleatorización también supone un incremento del nivel de evidencia. • Existencia de un grupo control concurrente. • El enmascaramiento de pacientes e investigadores participantes. La inclusión de un número suficiente de pacientes como para detectar diferencias entre los diferentes grupos de estudio, en caso de haberlas. Los distintos tipos de estudio están más protegidos de sesgos y, en consecuencia, ofrecen mayor rigor científico, cuando cumplen las siguientes características: • Sentido prospectivo del estudio. • Asignación aleatoria de los distintos grupos. • Existencia de un grupo control concurrente. • Uso de enmascaramiento, tanto de pacientes como de investigadores. • Inclusión de un número suficiente de pacientes como para detectar las diferencias, en caso de existir. De los diseños que nos ofrecen, deberíamos elegir uno que sea prospectivo, experimental y aleatorio, siendo el ensayo clínico el que cumple estos requisitos y el que mayor grado de evidencia científica ofrece. Los aspectos del diseño de un estudio epidemiológico que están asociados a una mayor calidad y rigor científico son los siguientes: - El sentido prospectivo del estudio (secuencia temporal). Longitudinales mejor que transversales y prospectivo mejor que retrospectivo. -La asignación aleatoria a los grupos experimental y control. La asignación aleatoria (simple, bloques o estratificada) es la forma mejor para evitar sesgos mejorando así la validez interna. - La existencia de un grupo control concurrente. Los controles históricos no siempre son comparables con la cohorte actual siendo frecuente el fenómeno de cointervención.
- El enmascaramiento de pacientes e investigadores participantes. De esta forma garantizamos que la respuesta al tratamiento no está sesgada por el interés del paciente o investigadores. - La inclusión en el estudio de un número suficiente de pacientes como para detectar, en caso de haberlas, diferencias estadísticamente significativas entre los distintos grupos del estudio. Es decir, que la ausencia de asociación estadísticamente significativa no se deba a un reducido tamaño muestral. Los estudios que MEJOR calidad de la evidencia presentan son los estudios analíticos, aleatorizados y con técnicas de enmascaramiento. Fases del ensayo clínico Tipos de ensayo clínico o Factorial o Secuencial o Paralelo o Cruzado
Cruzado: una de sus características es que necesitan la mitad de población que un ensayo clínico en paralelo y, por tanto, necesitan menos recursos y son más eficientes. El diseño secuencial (que no sabe la población de antemano) y el factorial (empleado para valorar las interacciones medicamentosas) no son en ningún caso un modelo de estudio eficiente. Ensayo de campo Recuerda que los “ensayos clínicos” en los que administramos en una muestra de gran tamaño muestral, directamente a cada individuo, de forma aleatoria una medida preventiva o un placebo, y posteriormente observamos cuántos de ellos desarrollan la enfermedad, se denominan ensayos de campo. Debes asociar mentalmente “vacuna” con “ensayo de campo”. No inferioridad En un estudio de no-inferioridad lo más importante es identificar el valor de delta porque la interpretación de dicho EC dependerá de la relación del intervalo de confianza con respecto a dicho valor de delta. Como la estimación es del RR, sabemos que nulo es el 1 y que delta es 1,3 como dice el enunciado, lo que quiere decir que será no-inferior si TODO el IC queda por debajo del 1,3, tal y como ocurre en este caso. Sería equivalente terapéutico si el IC estuviera entre 1,3 por arriba y 1/1,3 (0,77) por debajo. En estudios de no inferioridad suele realizarse un análisis por protocolo. Este análisis hace que aumente las diferencias entre los dos tratamientos comparados, haciendo que sea más difícil determinar la no inferioridad y manteniendo por tanto una posición más cauta. Las técnicas de ciego o enmascaramiento sirven para evitar algunos tipos de sesgos en los ensayos clínicos. Cuando se realiza "simple ciego", es el paciente el que no conoce la medida terapéutica que va a recibir. Cuando se habla de "doble ciego", no lo conoce tampoco el médico que administra el tratamiento. En aquellos casos en los que no se realizan las técnicas de ciego, se dice que el ensayo clínico es abierto. Corte transversal En los estudios de corte o transversales no existe un seguimiento en el tiempo. Simplemente, se mide una característica de los sujetos. Sin embargo, esto no significa que haya que examinarlos a todos A LA VEZ. Imaginemos el siguiente ejemplo: planteamos un estudio para conocer la prevalencia de malformaciones craneales en recién nacidos; para ello, observamos a todos los neonatos nacidos en un determinado hospital durante un período de dos años; estos neonatos solo
son evaluados una vez, es decir, el día de su nacimiento, pero NO EN EL MISMO MOMENTO, porque evidentemente no nacerán todos a la vez. Los estudios descriptivos son los que, como su nombre indica, describen las características y la frecuencia de un problema de salud. En cambio, los analíticos tratan de establecer una relación de causalidad entre un potencial factor de riesgo y una enfermedad. Los estudios transversales tienen carácter descriptivo, pero también pueden tener un carácter analítico, ya que pueden utilizar una medida de asociación (razón de prevalencia - POR), de interpretación análoga al riesgo relativo y a la odds ratio. La medición de la exposición y enfermedad se realiza a la vez, lo que resulta bastante lógico, ya que se limitan a estudiar un momento puntual del tiempo (nunca puede existir seguimiento en un estudio transversal, por concepto). Por sentido común. Aparte de describir, pueden tener propósitos analíticos (o, en otras palabras, investigar asociaciones). Teniendo en cuenta que se oponen a la 1 (dice que sólo pueden estimar prevalencia). Los estudios de prevalencia, transversales o de corte, permiten describir las características de una población en un momento determinado. A partir de ellos obtendremos datos sobre cuántos individuos de una comunidad padecen una determinada patología (por ejemplo, HTA) entre el total de individuos de esa comunidad, es decir, datos de prevalencia. Son útiles para estudiar enfermedades crónicas y frecuentes (alta prevalencia, larga duración y baja mortalidad), y también son buenos para la planificación sanitaria, porque dan una idea de lo frecuente que es y los recursos consumidos por el sistema sanitario en una determinada patología. Sin embargo, al no hacer un seguimiento temporal y al estudiar la enfermedad y el supuesto factor de riesgo simultáneamente, no puede saber si éste lo es o no en realidad, precisándose estudios analíticos posteriores que lo confirmen. Estudio de cohortes • Dado que existe un seguimiento, se trata de un estudio de carácter prospectivo. • El investigador se limita a observar. En ningún momento aleatoriza ni asigna él mismo ningún factor de estudio, por lo que no puede tratarse de un ensayo clínico. Opción 4 descartada. Tampoco se trata de un estudio ecológico. En este tipo de diseños, la unidad de estudio es la población, ya que nos falta información sobre los individuos concretos. No puede tratarse de un estudio ecológico, ya que conocemos exactamente cuántos y quiénes son los sujetos participantes, al tenerlos identificados desde el comienzo del mismo. En un estudio de cohortes se plantean hipótesis, es decir, es analítico. Al no asignarse de forma controlada, los posibles factores de estudio son observacionales (un ensayo clínico, donde es el investigador el que lo asigna, sería experimental). El estudio de cohortes es longitudinal porque existe un seguimiento a lo largo del tiempo. Es en los transversales donde no hay seguimiento en el tiempo (estudios de prevalencia, por ejemplo). Los estudios de cohortes son prospectivos, salvo en casos muy concretos (cohortes histórico, que sería retrospectivo, una excepción). En los estudios de cohortes, el investigador identifica dos grupos de sujetos, uno expuesto al factor en estudio (fármaco, factor de riesgo) y otro no expuesto. Después, los sigue a lo largo del tiempo para ver la incidencia de enfermedad. No son útiles para enfermedades raras o poco frecuentes, porque aunque siguiéramos la cohorte durante mucho tiempo podrían no aparecer, o no alcanzarse un número de enfermos adecuado en ninguno de los dos grupos. Tampoco son útiles para enfermedades con período de inducción largo, porque el estudio se prolongaría mucho y su organización sería cara y complicada. Sin embargo, sí que lo son para exposiciones raras, precisamente por iniciarse el estudio desde el FR. Debes conocer todas las características de los estudios de cohortes. Partiendo de un grupo de individuos expuestos al FR (cohorte expuesta), y de otros comparables a ellos en todo, pero que no estén expuestos al FR (cohorte no expuesta), se estudia la incidencia de la enfermedad en ambas cohortes. Son estudios longitudinales prospectivos que van de la causa al efecto. No es adecuado para la formulación de NUEVAS hipótesis de causalidad, pero es el mejor estudio para comprobar
hipótesis PREVIAS de causalidad cuando, por razones éticas, no es posible realizar un estudio experimental. También es el mejor estudio para el estudio de “multiefectividad del FR”. Sirve para el estudio de exposiciones raras, aunque no es bueno para el estudio de enfermedades raras o con largo período de incubación. Permiten el cálculo de razón de incidencias. Diferencias de cohortes con casos y controles: Pregunta que sirve para repasar los estudios de cohortes y los de casos y controles. Los estudios de cohortes son prospectivos, y por tanto tiene eventos nuevos (incidentes), a diferencia de los casos y controles, que son retrospectivos. En ninguno de los dos podemos calcular la prevalencia del evento de interés en la población estudiada, ya que los integrantes de los grupos se eligen según el criterio del investigador, y no son todos los casos de la población. El estudio de mayor duración es el de cohortes y, por tanto, también es el de más coste. Recuerda que ni en los estudios de casos y controles ni en cohortes se pueden calcular prevalencias, sí en el diseño transversal. Estudio de cohorte-casos Al seleccionar una muestra al principio del estudio y tomarla como grupo de comparación, el estudio diseñado se denomina de cohorte-casos. Casos y controles Es el estudio más adecuado para enfermedades cuyo periodo de latencia es muy largo. Para este tipo de enfermedades los estudios prospectivos requerirían un periodo de seguimiento muy largo, hasta la aparición de casos de enfermedad, lo que encarecería el estudio y retrasaría mucho la obtención de resultados; por ello, no son apropiados en estos casos. Las respuestas 1 y 5 también se excluyen fácilmente porque se tratan de estudios descriptivos, cuya utilidad para establecer asociaciones causales es muy limitada, y en cualquier caso dicha asociación debe ser verificada por estudios analíticos. Los estudios de casos y controles son estudios analíticos, longitudinales y retrospectivos, en los que a partir de un grupo de individuos enfermos (casos) y de otros comparables a ellos en todo, pero que no tienen enfermedad (controles) se estudia la exposición, en ambos, a distintos factores de riesgo. Son estudios de corta duración y bajo coste y, por tanto, útiles para el estudio de multicausalidad de la enfermedad, y los más apropiados para el estudio de enfermedades con largo periodo de inducción, siendo la solución a la pregunta. Sí que se puede calcular el Odds Ratio en un estudio de casos-controles; de hecho, el Odds Ratio es la medida apropiada de asociación para este tipo de estudios. ¡Pero no la prevalencia! La prevalencia es una medida de frecuencia de una enfermedad. El estudio de casos-controles no tiene como finalidad determinar la frecuencia de una enfermedad, sino la asociación de una enfermedad con distintas exposiciones sospechosas. La estimación de la prevalencia se realiza a partir de estudios transversales.
Si quieres distinguirlos con facilidad, la pregunta fundamental es la siguiente: ¿partimos de dos grupos con ausencia de enfermedad, o contamos con un grupo de individuos enfermos y otro de sanos? En el primer caso, estaremos ante un estudio de cohortes; en el segundo, ante un estudio de casos y controles. El posible problema que nos están describiendo en el enunciado, y que pretendemos evitar, es el llamado sesgo de memoria, típico de los estudios de casos y controles. En ellos, los casos (pacientes con la enfermedad) recuerdan más fácilmente posibles exposiciones que los controles, ya que éstos no han sufrido ninguna consecuencia, por lo que estarían menos motivados para recordarlas. Una forma muy inteligente de protegerse frente a este error sistemático es lo que dice la respuesta 3. En lugar de confiar en lo que dice el paciente (que puede no recordarlo, sobre todo si es un control), buscar este dato en un registro totalmente objetivo: una base de datos sobre las prescripciones médicas que se realizaron durante el embarazo de las participantes en el estudio. De este modo, estaríamos protegidos frente al sesgo de memoria. Los estudios de casos y controles parten de un grupo de individuos enfermos (casos) y uno de sanos, comparables en todo salvo en el padecimiento de la enfermedad. Constituidos los grupos, se estudia la exposición de ambos a distintos factores. Por tanto, puede decirse que van del efecto (enfermedad) a la causa, es decir, son retrospectivos y longitudinales. Ventajas: • Son de corta duración y no precisan un gran tamaño muestral, así que son más baratos que otros diseños. • Son ideales para el estudio de enfermedades raras, o cuando el período de inducción es muy prolongado. • Son muy útiles para el estudio de la multicausalidad de la enfermedad. • Es el mejor tipo de estudio para formular nuevas hipótesis etiológicas. Sin embargo, tienen un grave inconveniente: la posibilidad de que se produzcan sesgos es muy alta. Por eso, es difícil constituir un grupo adecuado de comparación. Por la misma razón, la evidencia científica que pueden aportar estos estudios es menor que los de cohortes y mucho menor que los ensayos clínicos. Casos y controles anidado Los autores han realizado un estudio analítico, observacional y retrospectivo, comparando un grupo con enfermedad y otro sano para estudiar la exposición del factor de estudio, es decir, se trata de un estudio de casos y controles. En un registro poblacional se reportan todos los casos diagnosticados de una enfermedad en un área de población expuesta al riesgo. Un estudio de casos controles anidado, o de grupo de riesgo, es un estudio de casos controles donde se identifican los sujetos a partir de una cohorte, en este caso, el registro poblacional de cáncer. Los
casos son aquellos que tienen ya la enfermedad dentro de mi cohorte, y que un sujeto sea elegido como control depende de que éste se encuentre en riesgo, es decir, tiene que ser miembro de la cohorte en el momento en que se selecciona o identifica el caso. Los casos y el conjunto de individuos en riesgo que no desarrollaron el evento constituyen el grupo de riesgo. En un primer tiempo se define la cohorte o población en estudio; se realiza el seguimiento de la misma con el fin de detectar los eventos que ocurren (casos nuevos de cáncer) a lo largo del tiempo, y cada vez que se selecciona o se identifica un caso, se seleccionan uno o varios controles de la población que en ese momento particular se encontraba en riesgo de desarrollar el evento en estudio (pacientes sin cáncer). En el ejemplo de la pregunta los casos serían los casos de cáncer de mama y los controles, los cánceres de otros órganos dentro del mismo registro de cáncer. Casos y controles apareados El apareamiento es el proceso mediante el cual se selecciona a los controles, considerando que éstos tengan características similares a los casos, con respecto a una o más posibles variables, que podrán actuar como factores de confusión. Este procedimiento de reclutamiento de los controles tiene como ventaja disminuir el sesgo asociado a factores de confusión conocidos. No obstante, en ningún caso podríamos afirmar que esto “garantiza” la eliminación de factores de confusión. El uso de esta técnica plantea otros inconvenientes: • Si apareamos casos y controles respecto a cualquier variable, como el sexo, ya no podríamos analizar el posible efecto de riesgo de esta variable, ya que por definición se distribuiría igual en los casos y en los controles. • Otra posible desventaja es que, si se hace con respecto a demasiadas variables (sobreapareamiento), puede dificultar en extremo la obtención de la muestra necesaria. Diseño cruzado: sujeto actúe como su propio control. Puesto que estamos hablando de estudios de casos y controles, y en ellos no habría un seguimiento prospectivo. La única opción válida es la 1. Aunque habitualmente se utiliza un control por caso, existen estudios donde se realiza una aleatorización distinta (1:2, 1:3) usando más de un control por caso. Revisión sistemática Una revisión narrativa es aquella que se caracteriza por realizarse de una forma "más o menos exhaustiva" en la que los autores no declaran los métodos que utilizaron para obtener o seleccionar la información. La revisión sistemática es aquella que tiene una pregunta delimitada, una búsqueda estructurada y un protocolo explícito (lo que las hace reproducibles por otros investigadores), un metaanálisis es una revisión sistemática a la que se le ha añadido combinación estadística de los resultados de los estudios. Estudios de bioequivalencia Son ensayos clínicos en los que su objetivo es la demostración de la similitud en biodisponibilidad de dos formulaciones de un mismo principio activo a partir de la comparación de sus características farmacocinéticas. La demostración de bioequivalencia se obtiene mediante la comparación de los perfiles farmacocinéticos de los fármacos estudiados. Para ello, después de la administración de cada formulación, es necesario saber qué cantidad de fármaco existe en el organismo y cómo va variando a lo largo del tiempo. El procedimiento más habitual consiste en la obtención de sucesivas muestras habitualmente de sangre. Como medida de la cantidad de fármaco absorbido se utiliza el área bajo la curva concentración-tiempo (AUC), y como indicador de la velocidad de absorción se mide la concentración máxima (Cmax) alcanzada en la curva concentración-tiempo y el tiempo que tarda en alcanzarse (Tmax). Se entiende por bioequivalencia entre dos productos cuando presentan una biodisponibilidad comparable en condiciones experimentales apropiadas. Se considera que dos formulaciones son bioequivalentes cuando la diferencia en la velocidad y la magnitud de la absorción entre ellas es inferior al 20% (diferencias medias entre formulaciones comprendidas entre 80% y 125%), en términos del intervalo de confianza (IC 90%) para la proporción entre las medias de las dos formulaciones comparadas (AUC test/AUC referencia y Cmax test/Cmax referencia).
Un estudio de bioequivalencia se realiza para comparar la farmacocinética de 2 preparaciones diferentes de un mismo principio activo, habitualmente comercial y genérico. Se trata de un ensayo clínico aleatorizado, cruzado y doble ciego. Un grupo recibe el comercial y otro el genérico, determinándose en ambos grupos el perfil de concentración plasmática a lo largo del tiempo. Sería lógico pensar que 2 fármacos son bioequivalentes si prácticamente se superponen las curvas, como ocurre en la imagen vinculada, sin embargo, se emplean mejor los cocientes AUC-1/AUC-2 y CMAX-1/C-MAX-2: si ambos son 1 o en torno a 1 (con un margen de 0,2 arriba-abajo) se admite bioequivalencia. Para inferir esta bioequivalencia a la población se emplea por convenio un IC 90%, de forma que si nuestro intervalo al 90% está dentro de 80-125%, hablamos de bioequivalencia. Pero cuidado, NUNCA hablemos de eficacia, solo de bioequivalencia. • Los intervalos de confianza en estudios de bioequivalencia siempre son del 90%. • Se dice que un fármaco es bioequivalente cuando el intervalo de confianza del 90% está dentro del +/- 20% (0.8-1.25) tanto del área bajo la curva (AUCt/AUCr) como de la concentración máxima (Cmaxt/Cmaxr). Se tiene que cumplir AMBAS. EQUIVALENCIA (eficacia) BIOEQUIVALENCIA (farmacocinética) Son ensayos cruzados (con período de lavado). Comparación entre estudios Los estudios son comparables si comparten método y objeto de estudio. Precisamente por estas similitudes, difícilmente se habrá cometido un error de diseño o ejecución en uno de los estudios (en todo caso, siendo el diseño similar, hubiese aparecido en ambos por igual). Debemos tener claro el significado de "p", que nos expresa la probabilidad de que las diferencias encontradas sean justificables por efecto del azar. Y los resultados de ambos estudios son muy similares 4% en uno y 6% en otro, aunque en un caso cabría decir que hemos alcanzado la significación y en el otro no. Debes recordar que el límite de la significación es un criterio ARBITRARIO que se estableció en 0,05 por convenio, aunque los resultados de ambos estudios son muy parecidos. De ambos se concluye lo mismo: es improbable que el resultado sea justificable por el azar, aunque uno sea estadísticamente significativo y el otro no. En este contexto, las pequeñas diferencias de los valores de "p" no podrían considerarse importantes, pues ambos datos apuntan en la misma dirección. Metaanálisis Se trata de un gráfico de embudo o Funnel Plot que permite detectar el sesgo de publicación, es decir el sesgo que se provoca cuando los estudios publicados difieren de los no publicados.
La imagen vinculada es la de un Funnel Plot o diagrama de embudo. Este tipo de gráficos utilizan en el eje de abscisas algún parámetro relacionado con la precisión del estudio, mientras que en el eje de ordenadas representan otro relacionado con el efecto. En este caso, el de ordenadas nos muestra el error estándar de la medida de asociación empleada (OR en este caso), que tendría relación directa con el tamaño muestral (en el vértice estarán los estudios con mayor n, es decir, los más precisos). Otras veces se utilizan otras medidas para transmitir la idea de la precisión del estudio (como el tamaño muestral). Los de las bases son los de menor tamaño muestral y presentan mayor dispersión sobre el eje central; por eso queda la imagen habitual de embudo. El eje de abscisas representa un parámetro relacionado con el efecto (aquí es la OR). Sospechamos la presencia de sesgo de publicación cuando, como ocurre en este gráfico, existe un “vacío” de estudios de una de las bases del gráfico. El gráfico de embudo o Funnel Plot permite detectar el sesgo de publicación, es decir, el sesgo que se provoca cuando los estudios publicados difieren de los no publicados. El Funnel Plot o diagrama de embudo sirve para detectar posibles sesgos de publicación que suele sugerirs, ya que no hay estudios en una de las bases. El test de Egger es un test que sirve para conocer si en efecto tal sesgo existe. Una p < 0,1 implica que hay diferencias en ambas bases de la pirámide que sugieren que sí existe sesgo de publicación. Test de Egger: • P <0.1: si hay sesgo de publicación • P >0.1: no hay sesgo de publicación Se puede examinar la posibilidad de sesgo de publicación con el método conocido como el gráfico en embudo (funnel plot). Se parte del supuesto de que los estudios que tendrían mayor probabilidad de no ser publicados serían los que no muestran diferencias (estudios “negativos”). Recordemos que los estudios negativos suelen ser muy frecuentemente los de menor tamaño muestral. Este gráfico se basa en la construcción de un eje de ordenadas formado por el error estándar de la medida de asociación (OR en este caso) y en el de abscisas, por la medida de asociación estudiada (OR en este ejemplo). El e.e. del OR tiene mucho que ver con el tamaño de la muestra, de forma que los estudios que quedan en el vértice son los de mayor tamaño y en consecuencia los de menor dispersión y por tanto más “centrados”. Los de las bases son los de menor tamaño muestral y
presenta mayor dispersión sobre el eje central. Por eso queda la imagen habitual de embudo. Sospechamos la presencia de sesgo de publicación cuando, como ocurre en este gráfico, existe un “vacío” de estudios de una de las bases del gráfico. El Forest Plot permite observar el efecto de cada estudio incluido, así como el efecto total resultante de un metaanálisis; en el de embudos, aunque el eje de ordenadas nos representa parámetros relacionados con el efecto de los diferentes estudios, no es el objetivo del estudio ni ofrece información pormenorizada como sí lo hace el de bosques, ni tampoco veríamos el efecto total resultante del metaanálisis. En definitiva, el propósito de este tipo de estudios es descartar razonablemente un posible sesgo de publicación en base a la morfología del gráfico resultante. La representación de los metaanálisis se realiza mediante un diagrama de bosque (Firrest Plot). No confundas la representación de los tipos de variables, ya sean cuantitativas (histograma, polígono de frecuencias, de barras) o cualitativas (de sectores, de pasteles, etc.) con la representación de un metaanálisis, que es una revisión sistemática de varios estudios. Un metaanálisis es un estudio basado en la integración estructurada y sistemática de la información obtenida en diversos estudios clínicos, sobre un problema de salud determinado. Presenta de forma estructurada los resultados de los distintos estudios que incluye. El metaanálisis de ensayos clínicos aleatorizados y controlados es el estudio más riguroso y de mayor evidencia científica. Después, vendrían los ensayos clínicos. Consiste en identificar y revisar los estudios controlados sobre un determinado problema, con el fin de dar una estimación cuantitativa sintética de todos los estudios disponibles. Dado que incluye un número mayor de observaciones, un metaanálisis tiene un poder estadístico superior al de los ensayos clínicos que incluye. Los dos principales problemas metodológicos de los metaanálisis de ensayos clínicos son: • La heterogenicidad entre los ensayos incluidos, en términos de características clínicas y sociodemográficas de las poblaciones en cada ensayo, los métodos de evaluación clínica aplicados, la dosis, forma farmacéutica o pauta de dosificación del fármaco evaluado, etc. • El posible sesgo de publicación, derivado de que no todos los ensayos clínicos realmente realizados han sido publicados, por resultados negativos o no esperados. Sobre el metaanálisis, has de recordar que se considera el estudio más riguroso y el que aporta una mayor evidencia causal. Concepto de homogeneidad. Con este término nos referimos a que los distintos estudios que estamos comparando siempre tienen el mismo "diseño", se realizan sobre participantes similares, con metodología, tiempo de seguimiento, dosis empleadas, o incluso localización geográfica parecida... En este caso nos encontraríamos ante unos estudios homogéneos, si no fuese así, serían heterogéneos, obteniendo mayor precisión en los primeros. Cuando hay homogeneidad se puede emplear un modelo de efectos fijos, mientras que si no la hay, deberíamos usar uno de efectos aleatorios. Homogéneo: mayor precisión/ fiabilidad (reproductibilidad) y validez/exactitud. Efectos fiijos. La homogeneidad/heterogeneidad se evalúa por medio de la Q de cochrane o I2 . El sesgo de publicación se refiere a que sólo llegan a ser publicados aquellos estudios en los que los resultados son concluyentes y beneficiosos para el investigador. El metanálisis busca una mayor precisión al juntar todos los estudios, trabajando con una muestra más grande. El metaanálisis es un análisis estadístico que combina los resultados de varios ensayos clínicos independientes que el analista considera que se pueden combinar. Los principales problemas metodológicos son el sesgo de publicación y la heterogeneidad de los ensayos clínicos incluidos. Para el primero de ellos hay dos maneras de evaluarlo: el análisis de sensibilidad y el Funnel Plot (diagrama de embudo). Cuando se trata de estudios heterogeneos se utiliza un modelo de efectos aleatorios (al azar) con la desventaja que conceden un peso excesivo a los estudios de pequeño tamaño muestral. Analisis de sensibilidad: ¿Cuántos estudios negativos se necesitarían para modificar la conclusión positiva?, si son muchos entonces se considera que el sesgo de publicación es bajo.
El metaanálisis tiene dos objetivos: realizar una revisión sistemática de los estudios sobre un tema, y además realizar una combinación estadística de los resultados de los mismos. La primera implica la tarea de seleccionar los resultados de TODOS los estudios que cumplen los criterios que nos hemos propuesto, independientemente de su resultado, para no llevar a cabo un sesgo de publicación. La segunda parte incluye combinar de una manera cuantitativa los resultados heterogéneos a partir de la aplicación de pruebas estadísticas. En ocasiones nos ayudamos de una representación gráfica que manifieste la variabilidad entre estudios, conocida como diagrama de bosques. Al ser una combinación de estudios, si los estudios incluídos son incorrectos, el metaanálisis también lo será. P > 0.05 = ausencia de heterogeneidad P < 0.05 = presencia de heterogeneidad Recordemos que en función de la heterogeneidad se elije un modelo de efectos fijos (homogéneo) o un modelo de efectos aleatorio (heterogeneo). En el análisis de la heterogeneidad nos informan de que el resultado de este análisis es significativo (p=0,02) por tanto debemos pensar que los estudios son heterogéneos. Además nos dan el valor de IC que nos informa también sobre la heterogeneidad si es mayor al 50% puede ser heterogeneo y si es mayor al 75% se confirma la heterogeneidad. A pesar de esto en la propia imagen se puede ver como para el cálculo del RR se utilizó un modelo de efectos fijo (Fixed). Con esta información afrontamos las opciones: El modelo de efectos fijo concede la misma importancia a los estudios independientemente del tamaño. Que el estudio de heterogeneidad sea significativo nos indica que es heterogéneo, no que uno sea superior al otro. El modelo de efectos fijos nos devuelve un resultado más preciso (menor amplitud del IC) que el modelo de efectos aleatorios. Test de Egger y test de Begg son métodos de evaluación del sesgo de publicación en un metaanálisis. Diseño de Zelen Cuando es un problema encontrar el número de sujetos necesario para realizar un estudio, se puede recurrir a un diseño tipo Zelen, diseño que consiste en asignar al grupo control a los sujetos que no den su consentimiento; y a los que lo otorguen, aleatorizarlos a uno u otro grupo de tratamiento. Zelen plantea la utilidad del nuevo diseño cuando es esperable un número elevado de abandonos del ensayo por desconocimiento del grupo de pertenencia o rechazo de la intervención. Los pacientes que no den su consentimiento se incluyen en el estudio como grupo control y se les da el tratamiento convencional. Causa Causa suficiente, necesaria y complementaria o contribuyente, así como los distintos modelos causales: - En el modelo determinista o unicausal han de estar presentes siempre la causa suficiente y necesaria, no la complementaria. - El modelo multicausal defiende tanto la multiplicidad de causas produciendo un solo efecto, como el que una causa produzca muchos efectos. La causa que inevitablemente debe estar presente para que se produzca el efecto es la causa necesaria, no la suficiente. - Las causas contribuyentes o complementarias son parte de una causa suficiente, no de la necesaria. Grado de evidencia de estudios Buena: • 1.º Metanálisis de ensayos clínicos controlados y aleatorizados. • 2.º Ensayo clínico controlado y aleatorizado de muestra grande. • 3.º Ensayo clínico controlado y aleatorizado de muestra pequeña. Regular: • 1.º Ensayo clínico controlado no aleatorizado con controles concurrentes. • 2.º Ensayo clínico controlado no aleatorizado con controles históricos.
• 3.º Estudio de cohortes prospectivos. • 4.º Estudio de cohortes retrospectivos. Mala: • 1.º Estudio de casos y controles. • 2.º Serie de casos clínicos, estudios ecológicos y estudios transversales. • 3.º Comités de expertos. -Un ensayo clínico randomizado y controlado se considera evidencia I. -Los estudios de cohortes se consideran un nivel de evidencia tipo II-2a y, por tanto, una recomendación B. En principio el grado de recomendación II-1 no se subdivide en a y b, es el II-2 el que lo hace, según los estudios sean de cohortes o de casos y controles, es decir, sean prospectivos o retrospectivos respectivamente, en II-2a y II-2b. Al grado de evidencia II-2 le corresponde una recomendación tipo B o D. -Los estudios descriptivos aportan una evidencia grado III, aunque esto se considera una recomendación de tipo C, es decir, hay insuficiente evidencia para recomendar (o no recomendar) la práctica. Niveles de evidencia Fuerza de recomendación
Los niveles de evidencia se dividen en A (estudios mejores como las revisiones sistemáticas o múltiples ECA), en B (ECAs aislados u observacionales prospectivos bien diseñados) y C (resto de estudios). Estos niveles de evidencia soportan las recomendaciones realizadas a los pacientes: I: claramente aconsejable III: claramente desaconsejable II dudas. IIa muy probablemente aconsejable IIb muy probablemente no acosejable Validez El grado en que una medición representa el verdadero valor del fenómeno que se desea medir Al comparar los resultados de la prueba diagnóstica en estudio con los de otra prueba que actúa como patrón de referencia, se obtiene la validez de criterio, no la validez externa. La validez externa se define cuando los resultados de un estudio son extrapolables a individuos que no han participado en el mismo. Recuerda que aumentar n es bueno para "todo" excepto para mejorar la validez del estudio (los sesgos no se modifican por el tamaño muestral). La validez de un test de Screening hace referencia a: El grado en que un test mide lo que se supone que debe medir. La validez de un test queda definida por el grado de ausencia de error sistemático; por tanto, un test será fiable si mide realmente lo que pretende medir. La validez interna está relacionada con la metodología del estudio y el control del errores en el diseño de éste. Por otro lado, la validez externa está relacionada con la generalización de los hallazgos más allá de los sujetos del estudio, del contexto de investigación y del momento del experimento. Unos criterios de inclusión y exclusión estrictos hacen que aumente la validez interna de mi estudio, siendo un estudio explicativo (pero disminuye la validez externa). El problema que tiene hacer esto es que resulta difícil extrapolar los resultados a la población general, es decir, tener validez externa. Los estudios con criterios de inclusión laxos, estudios pragmáticos, aumentan la validez externa. La utilización de técnicas de enmascaramiento, control con grupos , o introducción de nuevas variantes del mismo fenómeno, permiten confirmar la consistencia del fenómeno estudiado (validez interna). De la misma manera, la asignación aleatoria de los grupos de tratamiento controla la posibilidad de error y aumenta la validez interna. - La validez (o exactitud) de un estudio es cuando el estudio mide lo que realmente se propone medir. Es el grado de ausencia de sesgos; se divide en validez interna (validez del resultado para los pacientes del estudio) y externa (cuando los resultados del estudio son aplicables a otros individuos distintos al estudio). - La fiabilidad (o precisión) es el grado de reproductibilidad de un estudio, es decir, el grado de similitud que presentarían los resultados si repitieses el estudio en condiciones similares; es el grado de ausencia de error aleatorio. Tipos de error 1. Error aleatorio: El error aleatorio es simétrico, incorregible, impredecible y estimable por estadística (ej: error de muestreo). Cuánto mayor error aleatorio haya, mayor intervalo de confianza → Es al azar. → Falta de precisión (fiabilidad) → No afecta la validez (interna). → Se atenúa aumentado el tamaño de la muestra.
2. Error/sesgo sistemático: El error sistemático o sesgo es asimétrico, corregible y predecible (ej: calibración de instrumentos, los sesgos). Los errores sistemáticos se deben prever antes de realizar su estudio para que no te invaliden las conclusiones. → Falta de validez (exactitud) interna SESGOS SISTEMÁTICOS 1. Sesgo de selección: se controlan mediante aleatorización.
Sesgo de Berkson: Para identificarlo, la clave suele estar siempre en el mismo detalle: elegir como controles pacientes hospitalizados. Se debe a que los sujetos tienen tan presente el factor de riesgo como los controles. Imagina en este ejemplo que quieres evaluar la obesidad como FR de la necesidad de cirugía cardiaca. Entenderás que los controles (cirugía de cadera) son obesos incluso con más frecuencia que la cirugía cardiaca. Recuerda que este sesgo es exclusivo de C y C y que la OR tiene a 1. 2. Sesgo de clasificación / de información / de medida: se controlan mediante técnicas de enmascaramiento. El sesgo de información se manifiesta cuando existe un error sistemático en la medición de alguna variable clave del estudio. La clasificación incorrecta puede afectar, de igual manera, a todos los grupos del estudio o no. La forma de protegernos frente a este tipo de error son las técnicas de enmascaramiento. Dentro de los sesgos de información o clasificación, cabe distinguir dos grandes grupos: • Clasificación incorrecta diferencial • Clasificación incorrecta no diferencial Tipos de sesgos de información/medición:
3. Factor de confusión: Todo factor de confusión debe cumplir tres condiciones: 1. Ser un factor de riesgo para la enfermedad (relacionado con la enfermedad) 2. Estar asociado con la exposición (con el factor de riesgo en cuestión) 3. No ser un paso intermedio entre la exposición (factor de riesgo) y la enfermedad. Es el único sesgo que puede evitarse a posteriori. Para prevenir: → Restricción → Apareamiento → Aleatorización Para corregir: → Multivariante → Estratificante En este estudio tenemos que analizar tres diferentes factores: el teléfono móvil, el tumor cerebral y un tercero, que es la radiación urbana. Como este último factor puede producir tumor cerebral, no
sabemos con certeza si el mayor riesgo de tumores en la población urbana se debe al móvil o a dicha radiación, por lo que esta última podría estar actuando como factor de confusión (respuesta 3 correcta). Tenemos que recordar que un factor de confusión se caracteriza porque es factor de riesgo de la enfermedad (radiación urbana causa de tumor cerebral), se asocia al factor de riesgo (radiación urbana frecuentemente coexiste con telefonía móvil) y no es un paso intermedio entre el FR y la enfermedad (radiación es independiente del uso del móvil). Recuerda que el factor de confusión puede ser prevenido a priori mediante apareamiento, restricción o aleatorización (en este caso, solo en diseños experimentales) y corregido a posteriori mediante análisis multivariante o análisis estratificado. Aleatorización La asignación aleatoria, propia de los estudios experimentales, tiene la ventaja de que permite distribuir por igual las diferentes variables que pudieran influir en el estudio. Al repartirse de forma equitativa entre los diferentes grupos de comparación, la única diferencia existente entre ellos sería la intervención que estamos estudiando (por ejemplo, qué fármaco toman). • Un ensayo controlado con placebo no es necesariamente mejor ni peor que si se controla con un fármaco activo. Las diferencias entre ellos son fundamentalmente éticas. No sería ético comparar con placebo cuando se conoce un fármaco eficaz, puesto que implicaría el sufrimiento innecesario (o la muerte) de pacientes incluidos en el grupo placebo. • Siempre que sea posible debemos evitar el uso de controles históricos, como ya se ha preguntado en el MIR con anterioridad. • Se habla de estudio abierto cuando no se utiliza enmascaramiento (simple ciego, doble ciego, triple ciego…). • Si el paciente sabe qué fármaco toma, este conocimiento puede influir en los resultados del estudio (por ejemplo, si toma el fármaco antiguo y lo sabe, tenderá a decirnos que es poco eficaz, porque sabe que estamos investigando una alternativa nueva, que tal vez sea mejor). La forma de evitar estos problemas es recurrir a técnicas de enmascaramiento, de forma que el paciente no conoce lo que está tomando. En otras palabras, el enmascaramiento sirve para evitar los sesgos de información. Tasas de mortalidad La tasa bruta de mortalidad mide la proporción de la población que muere cada año (defunciones en un año / población total media de ese año). No tiene en cuenta lo que ocurre por grupos de edad, sino toda la población en conjunto. Para comparar la mortalidad de los distintos grupos etarios, precisaríamos la mortalidad ajustada por edad. Tasas crudas anuales de mortalidad de dos países: - Se calculan con la población a mitad de año - No son directamente comparables entre sí. Suelen darse multiplicadas por un coeficiente Mortalidad vs letalidad La letalidad es un parámetro que mide la severidad de un proceso patológico. Se trata de un cociente total de muertos por una enfermedad/total de enfermos. La ventaja del parámetro, a diferencia de la mortalidad, es que no depende del número de sujetos de la población. Por ejemplo, enfermedades como la encefalopatía espongiforme tienen baja mortalidad (porque no hay apenas casos) pero una altísima letalidad (los pocos pacientes que hay, fallecen). Desconocemos la mortalidad en varones y mujeres al desconocer cuántos varones y mujeres hay en la muestra incluida en el estudio. ESTADÍSTICA Estadística descriptiva Propiedades de la media y la varianza: - Si a todos los valores de una distribución se les suma o resta una constante, su media queda aumentada o disminuida en ese valor, pero la varianza no cambia.
- Si a todos los valores de una distribución se les multiplica por una constante, su media y su desviación típica quedan multiplicadas por la constante. La varianza quedaría multiplicada por el cuadrado de esa constante. Supongamos una distribución de dos valores: 8 y 10 (la media es 9). ¿Qué ocurre si restas 4 a ambos valores? Ahora serían 4 y 6. La media pasaría a ser 5, es decir, cuatro unidades menos que la media inicial. En cambio, la varianza no varía. Ten en cuenta que la varianza es una medida de dispersión. Al restar o sumar una constante, la distancia entre los distintos valores sigue siendo la misma, es decir, no están más dispersos Medidas de localización o tendencia central • Medida de centralización: indican alrededor de qué valores tienden a agruparse las observaciones de la muestra. Las más utilizadas son la media aritmética y la mediana. • Medida de dispersión o de variabilidad: completan la información sobre la distribución de la variable. En otras palabras, nos indican si los valores de la variable están muy dispersos o si se concentran alrededor de la medida de centralización. Mediana Es una medida de localización o tendencia central. Es el valor numérico que divide en dos partes iguales a todo un conjunto de datos numéricos. De esta forma, el 50% estará por encima de la mediana y el 50% por debajo. En la pregunta, la mediana es 6; por tanto: La mitad de los pacientes sobreviven más de 6 años, y la otra mitad menos. Conviene recordar que, en una distribución simétrica, la mediana coincide con la media aritmética, no así en distribuciones asimétricas, en cuyo caso la mediana es mejor que la media como medida de centralización, ya que no se ve tan influida por valores extremos. Para poder comparar la distribución de una variable en dos muestras, necesitamos conocer la dispersión de esta variable, es decir, no solo su medida de tendencia central (media) sino también cómo se alejan de ese punto central, en otras palabras, su medida de dispersión (desviación típica). En una distribución de datos asimétrica se emplea la mediana como medida de tendencia central por su menor sensibilidad a observaciones extremas (al contrario de lo que ocurre con la media). La mediana es el valor numérico que divide al conjunto de datos ordenados en dos partes iguales, es decir, el 50% de los datos será menor que ella y el 50% de los datos mayor. En una distribución simétrica la mediana coincide con la media aritmética y con el punto medio del recorrido, pero esto no sucede en las distribuciones asimétricas. En este caso tanto los costes como las consecuencias son diferentes para las dos medidas evaluadas, por lo que se podría tratar de un análisis de - efectividad y de un análisis de coste-utilidad (en coste-beneficio los resultados se miden en unidades monetarias y en minimización de costes los resultados son iguales en ambas intervenciones). Dado que no nos dicen que los pacientes jueguen un papel en la medición de las consecuencias, hay que suponer que se miden medidas físicas sin ajustar por calidad de vida Media geométrica La ‘media geométrica’ de una cantidad finita de números (digamos 'n' números) es la raíz n-ésima del producto de todos los números. Multiplicando los valores de todas las observaciones y obteniendo la raíz enésima del total, siendo 'n' el número de observaciones. Raíz=n Un ejemplo representativo, la media de 1, 3 y 9 sería . Útil cuando la variable cambia a lo largo del tiempo, esto es, en el cálculo del promedio de tasas, razones, proporciones geométricas y relaciones de variables. Se ve afectada por todos los números y valores extremos, pero en menor grado que la media Aritmética, su valor siempre es menor que el de esta. En muchos casos es el resultado es el mismo que la media aritmética, y en otros será menor la media geométrica. Parámetros de posición: Cuartiles, deciles, percentiles
Percentiles: Dividen el número de observaciones en partes porcentuales acumulativas. Son adecuados para delimitar valores raros. -P10: El percentil 10 es el valor de la variable que acumula al 10% de la población, es decir, el 10% de la población tiene ese valor o menos, dejando fuera el 90% restante. -P50: Coincide con la mediana. Medidas de dispersión En la estimación de medias partimos de una curva de valores muestrales, cuyo parámetro de dispersión es la desviación típica, debiendo inferir nuestro dato a la población a partir de otra curva, en este caso con el valor de dispersión eem (error estándar de la media). El paso de una curva a la otra se realiza como detallamos en este esquema: (P122_COMENTARIO.jpg) El eem es dependiente de tamaño muestral, de forma que cuanto mayor tamaño muestral, menor es el eem y en consecuencia más preciso será el IC 95% habitual. Si nos fijamos en la fórmula, el tamaño muestral está dentro de una raíz cuadrada, lo que quiere decir que debemos cuadruplicar el valor de n para reducir a la mitad el valor del eem. Al cuadruplicar el n dentro de una raíz cuadrada, estamos doblando el valor del denominador y en consecuencia reduciendo a la mitad el eem. Error estándar de la media: El error estándar de la media se emplea en estadística inferencial. Sirve para estimar datos poblacionales a partir de muestras, que es el objetivo de esta vertiente de la estadística. De hecho, es lo que nos están pidiendo en esta pregunta (cuando dicen “verdadera colesterolemia”, hacen referencia al valor poblacional, que tendremos que ESTIMAR a partir de la muestra. Para realizar la estimación, la forma de hacerlo es mediante un intervalo de confianza. Este consiste en una horquilla de dos valores, entre los cuales, con una probabilidad dada, estará el parámetro estudiado. Para construir el intervalo, necesitas hallar el error estándar de la media (EEM) y sumarlo y restarlo a la media un número de veces variable, dependiendo de la probabilidad asociada a ese intervalo de confianza. El error estándar de la media se emplea en estadística inferencial. Sirve para estimar datos poblacionales a partir de muestras, que es el objetivo de esta vertiente de la estadística. No se emplea para describir la distribución de la variable (esto lo harías con la desviación típica), sino para CALCULAR INTERVALOS DE CONFIANZA, que van a contener un parámetro que estamos estudiando con mayor o menor probabilidad. Si el número de observaciones (muestra) se multiplica x 4, el eem se divide por 2. ¿IC para la verdadera media poblacional? toca pasar de la muestra a la población:
El IC 95% se calcula mediante la media ± 2 × EEM. El EEM se calcula mediante la siguiente fórmula: DE/raíz cuadrada de N. Ejemplo: • Por tanto: EEF = 20/10 = 2. Se deduce pues que el IC 95% será 130 ± 2 × 2, es decir de 126 a 134 mg/dL La distribución es claramente asimétrica, ya que la media se encuentra mucho más próxima al extremo inferior del rango que al superior (42 es mucho más cercano a 18 que a 114); por ello, podemos decir que: - La distribución es poco agrupada, ya que el rango es amplio y el coeficiente de variación también (> 40%). - El paciente que más tiempo fue seguido alcanzó 114 meses (no 10 años, que serían 120 meses). - La distribución es asimétrica, porque la media (42) no está en el punto medio del rango (66, punto equidistante entre 18 y 114). La mediana coincide con el elemento que ocupe la posición media de esta distribución, que no tiene por qué coincidir con la mitad del rango (y mucho menos cuando hemos visto que la distribución es asimétrica. Coeficiente de variación: (desviación típica/media) Lo que hace es comparar la desviación típica con la media, multiplicando el resultado por 100, de forma que se expresa en forma de porcentaje. Una de sus ventajas es que permite comparar la dispersión de dos distribuciones, incluso cuando sus unidades de medida sean diferentes. Ten en cuenta que la desviación típica y la media se expresan en las mismas unidades, por ello, al dividirse una entre otra, se anulan entre sí, ya que de este cociente resulta una magnitud adimensional. Una medida de posición y una de dispersión Las medidas de dispersión nos informan sobre la distribución de la variable, en torno a las medidas de centralización o de posición. La medida de centralización más empleada es la media, y la de dispersión, la desviación típica. Empleadas juntas, una desviación típica grande nos informaría de que los valores están muy dispersos en relación con la media. Al contrario, una desviación típica pequeña significa que los distintos valores están muy agrupados. Recuerda que, si se trata de una distribución asimétrica, tiene más sentido utilizar la mediana como medida de posición, y el rango para caracterizar la dispersión. Variables Existen dos tipos de variables: cualitativas y cuantitativa (se expresan siempre mediante valor numérico). En las escalas de medición de las variables cualitativas se establecen categorías que, en ocasiones, están jerarquizadas y ordenadas. Hablamos, entonces, de variables ordinales, como la escala de dolor 1 (no dolor), 2 (dolor leve), 3 (dolor moderado) y 4 (dolor intenso). Si bien, las categorías del enunciado están descritas por número, no es una variable cuantitativa, puesto que carecen de significado matemático: los pacientes clasificados en la categoría 4 no tienen el doble de dolor que los de la categoría 2. Las variables pueden ser cualitativas si “conceptualmente” no son un número, pudiéndose subclasificar en nominales (categorías sin orden) u ordinales (las categorías siguen un orden) o en cuantitativas si “conceptualmente” son numéricas pudiéndose subclasificar en discretas (no pueden tener decimales) o continuas (pueden tener decimales). Hay que tener en cuenta que a cualquier variable cualitativa se le puede dar un valor numérico a cada categoría y puede “parecer” cuantitativa. El sexo es cualitativa nominal, la escala de Glasgow es cualitativa ordinal (está midiendo categorías de respuesta verbal/motora/ocular) el número de pacientes es cuantitativa discreta y la glicemia cuantitativa continua.
Diagrama de sectores: se utiliza en variables cualitativas o cuantitativas discretas Diagrama de barras: se utiliza en variables cualitativas o cuantitativas discretas Histograma y polígono de frecuencias: se utilizan únicamenteen variables cuantitativas continuas.
Una variable cualitativa, como su nombre indica, representa cualidades (rojo, azul, amarillo). En cambio, una cuantitativa se aplica a valores numéricos. Dentro de las cuantitativas, las hay discretas y continuas. Las discretas representan valores que solo se miden como unidades enteras (una vida, dos vidas, etc.). En cambio, las cuantitativas continuas pueden tener valores intermedios (1,5 kg, 1,92 m, etc.). Para representar variables cuantitativas continuas, suele recurrirse al histograma y al polígono de frecuencias. Recuerda que, para las cuantitativas discretas, suele emplearse el diagrama de barras. Diagrama de Network La imagen vinculada corresponde a un Network metaanálisis. Representa la relación entre los diferentes estudios que se incluyen en el metaanálisis, de forma que: - El tamaño de las esferas representa el número de sujetos que han recibido la opción de tratamiento. - Las líneas representan los estudios que comparan las opciones de tratamiento. - El grosor de la línea indica cuántos estudios se han hecho de cada comparación de par de tratamientos. Diagrama de Gantt Es una herramienta gráfica cuyo objetivo es exponer el tiempo de dedicación previsto para diferentes tareas o actividades. Diagrama de Pareto
También llamado curva cerrada o Distribución A-B-C, es una gráfica para organizar datos de forma que estos queden en orden descendente, de izquierda a derecha y separados por barras. Permite asignar un orden de prioridades. Diagrama de esferas Muestreo El muestreo probabilístico es el mejor, se intenta emplear al diseñar la mayoría de los trabajos científicos. Implica selección ALEATORIA de los casos. En este muestreo, la probabilidad de
aparición de cualquier elemento en una muestra es conocida, o puede calcularse. En cambio, en un muestreo no probabilístico, la selección de los elementos de la muestra no se hace al azar. Por ejemplo, si de una población de 100.000 personas elijo al azar 300 para mi estudio, sería un muestreo aleatorio simple, y es probabilístico, porque conozco de antemano la probabilidad de seleccionar cada caso (300/100.000). Sin embargo, en un muestreo de casos consecutivos, esta probabilidad no es conocida. En el muestreo de casos consecutivos, se elige a cada paciente que cumpla con los criterios de selección dentro de un intervalo de tiempo prefijado. Se continúan incluyendo hasta alcanzar el tamaño muestral necesario (fechas indicadas con anterioridad). Es decir, se van seleccionando todos los casos que cumplen ciertos criterios durante un tiempo, pero NO se hace de forma aleatoria. Simplemente se introducen casos hasta llegar al número necesario. Al no haber aleatorización alguna, no entra en el concepto de muestreo probabilístico. Muestreo no probabilístico Se habla de muestreo no probabilístico cuando la selección de los elementos de la muestra no se hace al azar. Por el contrario, son probabilísticos aquellos en los que la probabilidad de aparecer en la muestra es conocida (o puede calcularse) para cualquier elemento de la población. Científicamente, los probabilísticos son de mayor valor. Dentro de los muestreos no probabilísticos, destaca el de casos consecutivos, que es considerado como el mejor dentro de este grupo. Consiste en ir eligiendo a los pacientes que cumplen determinados criterios de inclusión, hasta alcanzar el número necesario, o dentro de un intervalo de tiempo prefijado. En el ejemplo que nos plantea esta pregunta, habría que estudiar a todos los pacientes que se diagnostican de HTA hasta llegar a un número (100 casos, por ejemplo) o durante un tiempo preestablecido (6 meses, 10 meses...). Otro tipo de estudio no probabilístico es el muestreo de conveniencia, que es el que define la opción 1: elegir “a dedo” los casos que suponemos más apropiados para participar en el estudio en cuestión. Tipos de muestreo 1. Sistemático: es un muestreo en el que la primera selección es determinada por el azar. Posteriormente, siguiendo un criterio determinado por el investigador, se coge a uno de cada n, hasta alcanzar el tamaño muestral preciso. Tamaño muestral Lo primero que debemos hacer cuando nos preguntan sobre tamaño muestral es conocer si se trata de una estimación de parámetros o de un contraste de hipótesis, para así saber qué es lo que necesitamos en nuestro estudio. En un contraste de hipótesis los factores que debemos tener en cuenta para calcular el tamaño muestral son: - Magnitud de la diferencia a detectar que tenga interés clínicamente relevante. - Tener una idea aproximada de loa parámetros de la variable que se estudia. - Variabilidad de la variable principal. - Error alfa, o lo que es lo mismo, seguridad del estudio. - Poder estadístico o riesgo de cometer un error beta. - Proporción de los pacientes en los distintos grupos que responderá a cada tratamiento. - Proporción de pérdidas. - Definir si la hipótesis nula es uni o bilateral. No es necesario conocer el tamaño de la población de referencia Para el cálculo del tamaño muestral en un estudio descriptivo para una proporción, los datos que necesitamos saber son: - Precisión que queremos. - Nivel de seguridad que deseamos (normalmente 0,05). - Prevalencia de la variable en la población.
- Porcentaje esperable de pérdidas. Los elementos que influyen son: - Objetivo del estudio y variable principal. - Magnitud del efecto que queremos detectar (delta). - Variabilidad de la variable principal. - Error tipo I o alfa asumido (0,05). - Error tipo II o beta asumido (0,2- 0,1). - Poder (potencia) estadístico (1- beta: 80- 90%). - Proporción de pacientes en los distintos grupos. - Proporción de pérdidas esperado. - Tipo de comparación (test uni o bilateral). Poder (potencia) estadístico: Traduce la capacidad de un test para detectar diferencias cuando realmente existen, es decir, la probabilidad de demostrar la hipótesis alternativa cuando es cierta. La forma de obtener los pacientes (método de elección de la muestra) no influye para calcular el tamaño muestral necesario, lo que puede ser importante para la aparición de errores sistemáticos como, por ejemplo, un sesgo de selección si la obtienes mediante un procedimiento metodológicamente inadecuado, aunque no influye en el número necesario de sujetos En el cálculo del tamaño muestral en la estimación de parámetros, el tamaño de la muestra dependerá de la variabilidad del parámetro que se desea estimar. Para ello nos basamos en estudios previos. Necesitaremos saber la precisión que deseamos (1 unidad de IMC), el nivel de confianza (5% habitualmente) y según sea una proporción (cualitativa) o una media (cuantitativa), cómo en nuestro caso; la proporción esperada o la varianza. Los factores que influyen en el tamaño muestral son: Para detectar pequeñas diferencias (ej: mortalidad), haría falta un tamaño muestral muy grande. Por el contrario, cuando se trata de estudiar diferencias grandes, la muestra no precisa ser tan numerosa. Tamaño muestral más grande: -Cuanto más variable sea el parámetro que nos interesa medir, mayor será el número de pacientes necesario para ese estudio. -Si estamos usando dosis muy similares, es de suponer que las diferencias serán también pequeñas: detectar diferencias pequeñas precisa muestras grandes. -Cuando mayor sea la potencia del estudio (menor error beta), más sujetos serán necesarios. -Constrates de dos colas Tamaño muestral más pequeño: -Si vamos a asumir un error alfa menos exigente de lo habitual (0,1 en vez de 0,05). El tamaño muestral necesario será menor que si quisiéramos un error alfa más pequeño. -Los contrastes de una cola son menos exigentes porque se compararía si los fármacos fueran iguales (A = B) o si uno de ellos fuera mejor (A mejor que B). En cambio, un contraste de dos colas valora esto mismo y además añade la opción de que B sea mejor, por lo que necesita más tamaño muestral. Veamos un ejemplo: Si comparas IECA con placebo, podrás plantear un contraste unilateral porque, si hay diferencias, solo serán en un sentido, y es que el IECA es mejor. Si por el contrario comparas IECA con CA-ant, entonces deberás hacerlo bilateral, ya que la diferencia puede ser a favor de uno u otro; se prefieren estos últimos, aunque se precisa un mayor tamaño muestral. Distribuciones Distribución de Poisson La distribución de Poisson es una distribución binomial que se utiliza cuando el tamaño muestral es grande y la probabilidad de suceso es pequeña.
Contraste de hipótesis • La Sensibilidad con la Potencia. • La Especificidad con 1-α. • α (error tipo I): Tasa de Falsos Positivos (el complementario es la confianza) • β (error tipo II): Tasa de Falsos Negativos (el complementario es la potencia) El error tipo II lo utilizaremos para la predeterminación del tamaño muestral cuando el estudio sea un contraste de hipótesis (esto es, queramos establecer diferencias entre grupos). Para estimar un porcentaje o una media no es necesario el error tipo II, ya que no se trata de un contraste de hipótesis. Cuando lo que medimos está sujeto a gran variabilidad se precisa de un mayor número de sujetos, ya que al ser tan variable nuestra muestra, podría no ser representativa de la población de la que parte sí es muy pequeña. Si por el contrario la variabilidad es muy baja no es preciso tener un tamaño muestral muy grande. Asimismo, las grandes diferencias no precisan un gran tamaño muestral; en cambio, este debería ser mayor para poner de manifiesto diferencias pequeñas. Cuando pretendemos minimizar el error alfa o el error beta, debemos aumentar el tamaño muestral. Para mayor potencia, mayor tamaño muestral. Por último, merece la pena recordar que las hipótesis unilaterales precisan de un tamaño muestral menor que las bilaterales. Cuánto mayor es el riesgo que se acepta de cometer un error alfa (normalmente se acepta el %5 (p=0.05) menor es el tamaño muestral requerido. Ejemplo, si ponemenos que se acepta error alfa en un 10%, requerimos menos muestra. Durante el contraste de hipótesis nos interesa saber si las diferencias entre dos tratamientos son debidas al azar o es que realmente el efecto de los tratamientos es distinto. Para abordar este problema, se consideran dos hipótesis:
- Hipótesis nula (H0): No existen diferencias entre los 2 tratamientos. - Hipótesis alternativa (H1): si existen diferencias entre los 2 tratamientos. Estas 2 hipótesis son mutuamente excluyentes, por lo que solo hay 2 decisiones posibles: - Rechazar H0 → aceptar H1. - No rechazar H0 → no poder aceptar H1. Nunca podemos aceptar la H0. El error tipo I o alfa es el error que se comete cuando, no habiendo diferencias entre dos tratamientos, llegamos a la conclusión de que sí las hay. Es decir, consiste en detectar diferencias que no existen en la realidad. Por otra parte, el error tipo II consiste en que, cuando hay diferencias en realidad, no llegamos a detectarlas; en otras palabras, el error tipo II implicaría rechazar la hipótesis alternativa cuando es cierta (esto es lo mismo que no rechazar la nula siendo falsa). Recuerda que ambos errores pueden disminuirse si se aumenta el tamaño muestral del estudio. El test de Jonckheere-Terpstra se utiliza en test de hipótesis alternativa dentro de un diseño de muestras independientes. Pruebas de significación estadística P significativa: Una p significativa quiere decir que las diferencias encontradas serían difícilmente explicables por efecto del azar (por convenio, probabilidad < 5%), es decir, si estas diferencias no existiesen, tendríamos menos del 5% de probabilidad de alcanzar este resultado. “Si el tratamiento y el placebo tuviera la misma eficacia, existe menos de un 5% de probabilidades de observar este resultado”. El valor de “p” se conoce como nivel de significación estadística. Representa la probabilidad de llegar a estos resultados por efecto del azar. Cuando p es < 0,05, se dice que existe significación estadística, es decir, el resultado sería difícil de justificar por el azar (menos del 5% de probabilidad de llegar por azar a este resultado). Al contrario, cuando p > 0,05, decimos que no hemos encontrado diferencias significativas. Esto no quiere decir que estos tratamientos sean necesariamente iguales. También cabe la posibilidad de que nuestro estudio no haya detectado las diferencias (sesgos, tamaño muestral pequeño, etc.). Sin embargo, sí podríamos decir que no tenemos evidencia suficiente que nos hable a favor de que sean distintos. Intervalo de confianza: Un intervalo de confianza consiste en una horquilla de dos valores, entre los que estará el parámetro estudiado con una probabilidad dada (95%, en este caso). Lógicamente, el parámetro estudiado será de carácter poblacional (por ejemplo, una media). En cambio, para caracterizar parámetros muestrales no es necesario emplear intervalos de confianza. Un investigador puede conocer con exactitud la media de su muestra porque son pocos sujetos y dispone de todos sus datos; sin embargo, no es posible estudiar a todos los individuos de la población, por lo que en este caso se recurre a los intervalos de confianza. “Existe una confianza del 95% de que el verdadero valor del parámetro poblacional se sitúe en el intervalo”. Normalmente, para calcular un intervalo de confianza al 95%, sumamos y restamos dos errores estándar de la media. No obstante, esto es correcto cuando existen más de 30 individuos en estudio (para n > 30 individuos, el valor “t” vale 2). Sin embargo, date cuenta de que en este caso tenemos 20 pacientes, lo que supone ciertos problemas a la hora de aplicar la t de Student. En este caso, deberíamos mirar en las tablas cuál es el valor “t” que corresponde a este número de pacientes (n-1 grados de libertad, es decir, 19).
Identificar las dos variables y después elegir bien el test. Para esta pregunta, sería: - Variable 1: Muestra de procedencia (A/B/C) → Cualitativa con tres categorías. - Variable 2: Colesterolemia (numérica) → Cuantitativa.
Teniendo en cuenta las dos variables y su naturaleza, el que corresponde sería el análisis de la varianza. Si estuviésemos comparando solo dos muestras (A y B), el test indicado sería el de la t de Student • Variable 1: momento de medición (antes / después) → Cualitativa dicotómica. • Variable 2: bilirrubina sérica (numérica) → Cuantitativa La medición antes-después en el mismo grupo de pacientes nos obliga a elegir un test específico para datos apareados. Si, además, tenemos en cuenta la naturaleza de las variables, habría que elegir la t de Student para datos apareados. • Variable 1: muestra de procedencia (placebo/nuevo fármaco) → Cualitativa dicotómica. • Variable 2: presión arterial media (numérica) → Cuantitativa. Teniendo en cuenta las dos variables y su naturaleza, el que corresponde sería el test de la t de Student para datos independientes, puesto que estamos hablando de dos grupos distintos. Recuerda que, si estuviésemos comparando tres o más muestras, deberíamos haber empleado el ANOVA. Nos preguntan por la prueba de contraste de hipótesis a utilizar para comparar dos variables: grosor del pliegue (cuantitativa) y dos poblaciones (dicotómica). Con estos datos podríamos pensar que la correcta es la prueba de la t de Student, pero fíjate en el dato “esta variable no se distribuye de manera normal”, por lo que tenemos que utilizar un test no paramétrico, en este caso la U de MannWhitney. Nos piden elegir la prueba estadística más apropiada para comparar la eficacia de tres tratamientos (variable independiente: cualitativa de más de dos categorías) en la reducción del numero de lesiones en pacientes con acné (variable dependiente: cuantitativa), por lo que deberemos utilizar el análisis de la varianza (ANOVA-Análisis de la varianza de una vía). El análisis factorial o análisis de varianza sirve para establecer que variables independientes influyen en una variable dependiente. El análisis de la varianza (ANOVA) es un test de contraste de hipótesis; como tal, se utiliza para comprobar si la asociación entre dos variables es estadísticamente significativa. Para emplear este test, una de las variables debe ser cualitativa no dicotómica (es decir, con más de dos categorías; por ejemplo, tres grupos de tratamiento). La otra variable debe ser cuantitativa. Igual que sucede con la t de Student, existe un ANOVA para datos independientes y otro para datos apareados (dependientes). El fundamento del ANOVA es la comparación de la dispersión debida al azar con la producida por el factor de estudio (esto es más o menos lo que hacen todas las pruebas; por ejemplo, la Chi-cuadrado compara los casos observados con los esperados); sin embargo, ANOVA dice si hay diferencias entre, por ejemplo, el colesterol de 3 grupos de pacientes, pero no dice cuál de los 3 es el diferente. ANOVA no determina cuál de las categorías de la variable cualitativa se asocia con mayores valores de la variable cuantitativa. TESTS PARAMÉTRICOS ¿Cómo saber si una muestra sigue una distribución normal? Los test estadísticos útiles para detectar la normalidad de una variable son Shapiro-Wilk (de elección y Kolmogórov-Smirnov. Es importante recordar que lo que buscamos en estos test es una p > 0,05, ya que la hipótesis nula es la normalidad de la distribución (y es lo que preferimos para poder usar test paramétricos). La t de Student y ANOVA se utilizan para comparar variables cuantitativas normales en 2 o más grupos respectivamente. El test de Levene es útil para demostrar la igualdad de varianzas.
Muestras independientes Chi cuadrado Sirve para evaluar 2 variables cualitativas , y si la diferencia depende del azar o no. Estudia la diferencia entre las frecuencias observadas y las esperadas. En este caso, la variable 1 es: factor de exposición (cualitativa dicotómica: expuesto/no expuesto), mientras que la variable 2 es: enfermedad (cualitativa dicotómica: enfermo/no enfermo). Como se trata de dos variables dicotómicas, el test que hay que aplicar es el de la Chi-cuadrado. La prueba de Chi-cuadrado no es útil para el análisis de medidas repetidas en variables cualitativas. En este caso optamos por la prueba de McNemar. Las demás opciones de respuesta son correctas. Test exacto de fisher: La usamos para comparar dos variables cualitativas cuando la N es baja (N<5 en algula de las casillas de una tabla 2x2 contraindica el uso de Chi-Cuadrado). T -student: si las varianzas son iguales. Si son diferentes es el Test de Welch. ANOVA Sperson Regresión lineal múltiple Muestras dependientes (datos apareados) t-student apareado ANOVA apareados Mcnemar TEST NO PARAMÉTRICOS (N<30, DISTRIBUCIÓN NO NORMAL, variable ordinal, desigualdad de varianzas) Test no paramétrico Las pruebas paramétricas son preferibles a las no paramétricas porque son más potentes y, por tanto, están sujetas a una menor probabilidad de errores. Sin embargo, existen ciertas circunstancias que nos obligan a elegir una no paramétrica: - Tamaño muestral pequeño (n < 30). - Variables ordinales. - Distribuciones distintas a la distribución normal. Ante este tipo de preguntas sobre las pruebas de significación estadística siempre se debe de seguir el mismo algoritmo de análisis: identificar las variables, ver si la muestra presenta una distribución normal y luego elegir el test adecuado. En este caso, se toman 3 tipos de protectores solares (variable cuantitativa de más de dos grupos), y el número de lesiones preneoplásicas que presentan los pacientes (variable cuantitativa). Ante un cruce de variables cuantitativas con cualitativas de más
de dos grupos, la prueba que usualmente utilizamos es ANOVA, aunque en este caso nos indican que la distribución no es normal, por lo que necesitamos un test no paramétrico, siendo KruskalWallis una opción adecuada. La t de Student se utiliza para variables cuantitativas con cualitativas dicotómicas, mientras que Chi-cuadrado se utiliza para el cruce de dos variables cualitativas. Test de Wilcoxon (datos apareados – un único grupo) Se trata de elegir una prueba de significación estadística para dos variables, pero con datos apareados y con una muestra de 12 pacientes (en una única muestra estudiamos si existe una diferencia significativa en la variable resultado antes y después de una intervención: en este caso la variable resultado es la frecuencia cardiaca, variable cuantitativa). Debemos escoger una prueba no paramétrica dado el bajo tamaño muestral, que para datos apareados será la prueba de Wilcoxon (si hubiesen habido más de 30 personas se utilizaria t de student). • Variable 1: antes y después (cualitativa) • Variable 2: frecuencia cardiaca (cuantitativa) Test de U Mann Whitney (muestra independiente) Test de Kruskal-Wallis (varios grupos, no paramétrico) ya que aparentemente nos dan tres grupos normales, es decir, con un coeficiente de Fisher y una curtosis adecuadas, pero con varianzas dispares. Cuando comparamos más de dos medias de distribuciones independientes y normales utilizamos el ANOVA. Kruskal – Wallis vs Friedman (Equivalente a ANOVA para muestras repetidas): Como el Glasgow es una variable ordinal, estamos condicionados a emplear test no paramétricos. Si te das cuenta la muestra es la misma, es decir que la variable Glasgow se mide tres veces en la misma muestra, por lo que se trata de datos apareados. 1.- Wilcoxon: sería correcta si solo se midiera dos veces la variable, no tres. 2.- ANOVA: sería correcta si se tratara no de una ordinal, sino de una cuantitativa. 3.- Kruskal-Wallis: sería la correcta si en vez de en un grupo la variable se mide 3 veces, se midiera la variable en 3 grupos diferentes (datos independientes). 4.- Friedman. Correcta (datos dependientes – apareados (antes y después) – es decir en el mismo grupo se midió 3 veces). Prueba exacta de Fisher La usamos para comparar dos variables cualitativas cuando la N es baja (N<5 en una casilla de una tabla 2x2 contraindica el uso de Chi-Cuadrado). El análisis de regresión sirve para extrapolar los valores de la variable dependiente a partir de los valores de la variable independiente, siguiendo la ecuación de una recta, cuando ambas variables son cuantitativas. El test de la chi-cuadrado sirve para determinar la asociación entre dos variables cualitativas. En este tipo de estudios, agrupamos los sujetos en función de esas variables, apareciendo una tabla de contingencia de al menos 2 x 2. Por ejemplo, imagina que queremos ver si existe una relación entre consumir tabaco y alcohol, y tenemos 300 fumadores y 300 no fumadores. Lógicamente, como son dos variables cualitativas (fumar/no fumar; beber/no beber), a priori elegiríamos la chi-cuadrado para el análisis. Distribuyéndolos en la tabla, podría salir algo como: Observa que, en una de las casillas, nos ha salido 3. En este caso, no podríamos emplear directamente la chi- cuadrado, sino otro test distinto (prueba de Fisher). El motivo de emplear el test de Fisher es que hay un valor en la tabla con valor < 5. Diagrama de caja
1. El gráfico azul es un histograma. Sirve para ver cómo se distribuye una variable continua. Se basa en representar en ordenadas el número de sujetos y en abscisas los diferentes valores que puede tomar la cuantitativa continua, agrupadas en clases de anchura variable (aunque el investigador en este caso fijó la anchura constante). El área de cada uno de estos rectángulos o clases es lo que determina la frecuencia con la que aparece cada uno de los eventos. 2. Como puede verse, el histograma no se ajusta a la normalidad. Si bien es más exacto comprobar esto con test como KS, que indican normalidad si la p de dicho test resulta > de 0.05 (no diferencia entre mi distribución y la normal). 3. El gráfico rojo en efecto es un diagrama de cajas. El rango de valores es el 2 -15 pero como es muy útil para distribuciones asimétricas, como es este ejemplo, el 5 no representa la media, sino la mediana. 4. La caja por tanto está definida por la mediana (o percentil 50 o cuartil 2) que en este caso es el 5 y por el rango intercuartílico. Es decir que el p25 en este caso es el 4 y el p75 es el 10. Es decir, sólo un 25% ha preparado la maratón corriendo menos de 4 millas diarias y sólo un 25% ha preparado la maratón corriendo más de 10 millas diarias. DISTRIBUCIONES ASIMÉTRICAS=MEDIANA (PERCENTIL 50) ANÁLISIS MULTIVARIANTE Un estudio de regresión es una técnica estadística que nos permite predecir una variable en función de otra, en este caso la probabilidad de sufrir cirrosis en función de cinco parámetros. Existen varias opciones para estimar un modelo de regresión, en función de la variable dependiente o resultado. Teniendo en cuenta el tipo de variable que deseemos predecir, aplicaremos un modelo de regresión u otro. El análisis multivariante permite comparar cómo afectan distintas variables independientes a una variable dependiente. Existen varios tipos de análisis multivariantes y se escogerá uno u otro en función de si la variable dependiente es cualitativa (regresión logística), cuantitativa (regresión lineal múltiple) o análisis de supervivencia (regresión de Cox). La medida utilizada en cada tipo de análisis es: OR en la regresión logística, coeficientes de regresión en la regresión lineal múltiple y HR en la regresión de Cox. El Log-Rank sirve para el análisis de supervivencia, pero no permite realizar un análisis multivariante. - Variable dependiente cuantitativa: regresión lineal múltiple - Variable dependiente categórica (cualitativa): regresión logística - Variable dependiente supervivencia (tiempo hasta que ocurre un evento): regresión de Cox Cuando la variable dependiente es una variable continua, el modelo de regresión más frecuentemente utilizado es la regresión lineal, mientras que cuando la variable de interés es dicotómica (en este caso cirrosis si/no – categórica nominal) se utiliza la regresión logística.
Regresión múltiple “Establecer que variables independientes influyen en la variable dependiente” La regresión múltiple, una técnica estadística que implica la formulación de una relación matemática entre una variable (dependiente) y varias variables (independientes) , se emplea generalmente como herramienta de los análisis multivariantes. El escenario suele ser el análisis de los datos de un estudio en el que se pretende establecer qué variable o variables (factores de riesgo, por ejemplo) influyen la variable resultado ( la enfermedad, por ejemplo). Al final, lo que obtenemos son una serie de medidas de riesgo (Riesgo relativo, Odds Ratio, Razón de Prevalencias) para cada una de las variables independientes, que reflejan su fuerza, o su riesgo, independiente, para generar cambios en la variable dependiente. Análisis de supervivencia El término supervivencia puede resultar engañoso, pues su significado en estadística no coincide con el que empleamos coloquialmente. En estadística, se refiere al hecho de que un paciente sigue en la situación inicial (es decir, sin que se haya producido el evento a estudio). Este evento, habitualmente es la muerte, de ahí que se hable de técnicas de análisis de supervivencia. Sin embargo, en nuestro caso no estamos estudiando el tiempo transcurrido hasta un fallecimiento, sino hasta la desaparición de los síntomas. Independientemente de cuál sea el suceso, el manejo estadístico en ambos casos es similar; en ambos casos se trata del tiempo transcurrido hasta que ocurre determinado suceso. La forma más frecuente de hacer los análisis de supervivencia es mediante las gráficas de Kaplan Meier. En ellas figura cómo al aparecer el evento de interés la gráfica disminuye progresivamente a lo largo del tiempo. Las curvas de Kaplan-Meier son curvas en las que se representa cómo aparece una variable que estamos midiendo a lo largo del tiempo. Son un análisis estadístico del análisis de supervivencia porque permiten controlar el sesgo que supone el factor tiempo. Por ejemplo, tenemos la quimioterapia A para el cáncer de colon y la quimioterapia B. Con la A sobrevive el 80% y con la B sobrevive el 70%. Si comparamos directamente los porcentajes no estamos teniendo en cuenta cuánto viven los pacientes en cada grupo. Con los datos que tenemos hasta ahora pensamos que A es mejor. Pero, ¿qué pensamos si nos dicen que con A sobrevive el 80% los primeros 6 meses y con B el 70% pero los primeros 5 años? Está claro que ahora ya nos cuestionamos cuál es el mejor tratamiento. El método de Kaplan-Meier es una de las formas más empleadas para realizar un análisis de supervivencia. Se representa como la caída del evento que se mide a lo largo del tiempo. Es decir, que si lo que medimos es la supervivencia, veremos cómo la gráfica, según mueren los pacientes, se aproxima al eje de abscisas. En el eje de ordenadas se representa el porcentaje libre de evento (en esta pregunta la variable progresión libre de enfermedad) y el eje de abscisas el tiempo. En nuestra gráfica hay dos grupos de tratamiento, A (BSC) y B (BSC + P). Comprobamos cómo en ambos casos las gráficas se reducen a lo largo del tiempo. Si observamos en el eje de ordenadas el 50% (mediana de progresión), veremos cómo el tiempo para el grupo A es de unas 7 semanas y media, mientras que para el grupo B es de unas 8 semanas y media, es decir, que para la mediana libre de evento, el tiempo entre ambos tratamientos difiere (la ganancia en términos de mediana de tiempo hasta la progresión en el Grupo B no llega a superar dos semanas en relación al Grupo A) en menos de 2 semanas. El Logrank test es el método favorito para comparar la sobrevida de grupos, que incluye todo el período de seguimiento y no la sobrevida en un punto arbitrario de las curvas. El logrank test es un test de significación estadística y no ofrece ninguna información sobre la magnitud de las diferencias entre los grupos. Para ello se utiliza el hazard ratio que daría una estimación de la asociación aproximada al significado del riesgo relativo de los estudios prospectivos. Las gráficas de KM sirven para evaluar cómo aparece un evento a lo largo del tiempo, de forma que según avanza el tiempo, más cae la curva, lo que implica por tanto menos probabilidad libre de evento a lo largo del tiempo. El test estadístico que se emplea con más frecuencia es el log rank que establecerá si hay diferencias o no. El análisis de Hazard Ratio nos dice cuánto es más probable que aparezca el evento que se mide en un grupo que en otro (sería como un RR del análisis de supervivencia).
Sin embargo, la mejor estimación de la relevancia clínica de lo que se está midiendo es el promedio de tiempo hasta la progresión, que en esta gráfica es menor a 2 semanas. Hazard ratio: El Hazard Ratio es una medida de asociación que cuantifica la velocidad con la que aparece un evento a lo largo del tiempo en un grupo frente a otro. El Hazard Ratio se obtiene del multivariante Regresión de Cox (no logística) y es la medida de asociación de los estudios de supervivencia. A diferencia del Riesgo Relativo, no se trata de un cociente de incidencias, sino que se calcula con la densidad de incidencia que tiene en cuenta el tiempo de seguimiento. Como todas las medidas de asociación, tienen como valor nulo el 1, por lo que el Intervalo de Confianza es significativamente protector, ya que queda todo entero por debajo del 1. Log Rank Para comparar si las diferencias observadas en dos curvas de supervivencia pueden ser explicadas o no por el azar, debemos realizar un test estadístico. Hay diversas pruebas para comparar distribuciones de supervivencia. En este caso la más que nos permite comparar distintas curvas de supervivencias es el logaritmo del rango (Log-Rank). Recuerda que para saber en un estudio de supervivencia cuánto más riesgo de muerte tiene un grupo que otro se usa la HR (Hazard Ratio). Darse cuenta de que la variable dependiente es “tiempo hasta un suceso” y que, por lo tanto, se trata de un análisis de supervivencia que se representará gráficamente con las curvas Kaplan-Meier y se contrastará mediante el Log-Rank o el Breslow (test de contraste de hipótesis específicos para análisis de supervivencia). En estas gráficas se representa en el eje de ordenadas la probabilidad libre de evento (en este caso sería libre de evento oclusión) y en el de abscisas el tiempo de seguimiento. Uno de los parámetros más importantes es la mediana libre de evento. No se calculan tiempos medios en estas gráficas, ya que los seguimientos son variables asimétricas. Para conocer si hay diferencia en las dos gráficas de sobrevida (permeabilidad en este caso), se realiza habitualmente el test de Log-Rank, mientras que para cuantificar cuánto es más probable la pérdida de permeabilidad según el tipo de lesión se debería haber hecho un Hazard Ratio.
Coeficiente de correlación de Pearson Nos pregunta sobre el test estadístico que tenemos que utilizar para relacionar la calidad del sueño y la tendencia a la depresión. En el enunciado nos aclaran que a cada paciente se le asigna una puntuación numérica, por lo que tendremos que buscar un test estadístico para utilizar cuando tenemos dos variables cuantitativas . El análisis de correlación nos sirve para estudiar la relación entre dos variables cuantitativas. El coeficiente de correlación lineal de Pearson mide la intensidad con la que se relacionan esas variables, ya sea positiva (al aumentar una aumenta la otra) o negativa (al aumentar una disminuye la otra). Sus valores van de -1, que indica una perfecta asociación negativa, a +1, que indica una perfecta correlación positiva. El punto 0, justo en medio, indica que no hay correlación lineal. El análisis de regresión es útil para determinar una posible forma de relación entre dos variables, que podrá predecirse en mayor o menor medida mediante una ecuación. En este caso, se está empleando la regresión lineal, que nos dará una ecuación como la siguiente: Y = a + bX El coeficiente a representa el punto en el que la línea corta el eje vertical (valor de Y para X = 0). El coeficiente b (0,08 en nuestro caso) es la pendiente de la recta que muestra la cantidad que cambia Y (PCR) por una unidad de cambio de X (número de articulaciones afectas). CORRELACIÓN CUANTITATIVA (COEFICIENTE DE CORRELACIÓN) VS CUALITATIVA (COEFICIENTE KAPPA): En este caso se trata de valorar el grado de concordancia entre dos observadores. El significado del coeficiente kappa de Cohen es el porcentaje de concordancia no debida al azar que existe entre dos observaciones de una variable CUALITATIVA, por lo que, si su valor es 0 quiere decir que toda la concordancia que existe entre las dos observaciones es debida al azar La variable que estamos midiendo es CUANTITATIVA, motivo por el que la herramienta necesaria para realizar esta comparación sería el coeficiente de correlación intraclase. Ten cuidado y que no te confundas con el coeficiente Kappa por ejemplo, midiésemos el grado de concordancia entre dos serologías para un determinado agente infeccioso, siendo los posibles resultados positivo o negativo, utilizaríamos el coeficiente kappa, porque solo existen dos posibles respuestas (la variable de estudio sería cualitativa dicotómica); sin embargo, cuando estamos comparando métodos de medición cuyo resultado es una magnitud cuantificable (peso, estatura, grados de un goniómetro), se debe utilizar el coeficiente de correlación intraclase. Recuerda que el significado del coeficiente kappa de Cohen es el porcentaje de concordancia no debida al azar que existe entre dos observaciones, por lo que, si su valor es 0 quiere decir que toda la concordancia que existe entre las dos observaciones es debida al azar. El coeficiente kappa se ve afectado por: • El número de categorías: cuántas más categorías existan, el índice kappa se ve disminuido • Afectación en función de la prevalencia del factor de estudio • Limitación cuando la variable es cualitativa ordinal, por lo cual se debe utilizar el índice kappa ponderado Interpretación: Mide la concordancia más allá esperada por el azar • Si es positivo: concordancia positiva • Si es negativo: concordancia negetiva (es peor incluso que la esperada por el azar) • 0: concordancia observada es debida al azar
En el caso de las cualitativas o categóricas, el parámetro que se emplea es el coeficiente kappa (o Kappa de Cohen). Como sabemos este parámetro oscila de -1 a +1, siendo el 0 la concordancia atribuible al azar y una concordancia de +1 la mejor posible. El ejemplo en este caso es comparar la lectura (positiva/negativa) de 2 radiólogos que interpretan las mismas mamografías. Sin embargo, en esta pregunta la variable es cuantitativa (nº de espermatozoides por campo), por lo que el parámetro que se emplea es el coeficiente de correlación intraclase. Para que sea fácil de recordar, podríamos decir que se trata del “kappa de las cuantitativas. Correlación de Spearman Mide asociación entre 2 variables cuanttativas pero no mide concordancia. Coeficiente alfa de Cronbach Para validar escalas de consistencia utilizamos el coeficiente alfa de Cronbach Correlación lineal Un coeficiente de correlación lineal positivo se interpreta como un aumento de una variable cuando aumenta la otra. Para considerar que la correlación es fuerte, debe tener un valor ≥ 0,7; es decir, que en este caso que es 0,2 la correlación entre ambas variables tendrá una débil tendencia lineal. ¿Diferencia entre regresión lineal múltiple y correlación de pearson? -Ambas miden variables cuantitativas. -Inicialmente se mide la correlación de pearson para ver si hay una relación o no entre ambas variables. Si posterior a esta se ve que hay una correlación lineal fuerte (mayor a 0.7) se procede a realizar una regresión lineal múltiple, la cual nos sacará una fórmula en la que los valores se muestran que están relacionados estrechamente directa o indirectsamente. Me plantean el estudio de la asociación entre dos variables cuantitativas. Puedo hacerlo hallando el coeficiente de correlación de Pearson, o mediante la determinación de una ecuación de regresión. Pero particularmente me están pidiendo que elija el que me permita predecir un parámetro a partir del otro, para lo cual necesito la ecuación que relaciona una variable con la otra. Teorema de Bayes La enfermedad pediátrica A tiene una prevalencia del 3% en la población. Se ha demostrado mediante estudios epidemiológicos que el 70% de las persona que padecieron la enfermedad en la infancia desarrollarán la enfermedad B, mientras que solo desarrollarán la enfermedad B un 1% de las personas que no pasaron la enfermedad A en la infancia. Acabamos de diagnosticar a un paciente con la enfermedad B. ¿Cuál es la probabilidad de que haya pasado la enfermedad A en la infancia? P (A / B) = (P (A) × P (B / A)) / P (B) Del enunciado de la pregunta sabemos que: P (A) = 0,03 P (B / A) = 0,7 P (B / A) = 0,01 Necesitamos calcular P (B): P (B) = P (B / A) × P (A)+P (B / A) × P (A) = 0,7 × 0,03+0,01 × 0,97 = 0,021 + 0,0097 ˜ 0,03 Entonces, P (A / B) = (0,03 × 0,7) / 0,03 = 0,7 Bases de datos Scopus es una base de datos de referencias bibliográficas y citas de la empresa Elsevier, de literatura peer review y contenido web de calidad, con herramientas para el seguimiento análisis y visualización de la investigación.
Cochrane es una red internacional cuyo sentido es disponer, agrupar, sostener y divulgar revisiones sistemáticas y metaanálisis de todos los ensayos clínicos controlados aleatorizados sobre los efectos de las intervenciones sanitarias en humanos que sirvan como ayuda en la práctica clínica, así como crear directrices para la toma de decisiones de los gestores de la salud y orientar investigaciones futuras. PubMed es un motor de búsqueda de libre acceso que permite consultar principal y mayoritariamente los contenidos de la base de datos MEDLINE. Web of Science (WoS) es un servicio similar a Scopus pero el propietario es otra empresa (Clarivate Analytics). Facilita el acceso a un conjunto de bases de datos en las que aparecen citas de artículos de revistas científicas, libros y otros tipos de material impreso que abarcan todos los campos del conocimiento académico. Estándares de publicación Los estándares de publicación son guías que publican las revistas científicas para ayudar a los autores a redactar el artículo final. 1.- Declaración CONSORT (ensayos clínicos aleatorizados). 2.- Declaración STROBE (estudios observacionales). 3.- Declaración STARD (estudios de diagnóstico/pronóstico). 4.- Criterios QUORUM-PRISMA: PRISMA actualiza los criterios QUORUM para revisiones sistemáticas o metaanálisis. En la elaboración de un artículo médico es muy importante el orden en el que se presenta la bibliografía en la que se basa dicho artículo; para ello nos ayudamos de las citas bibliográficas y de las referencias bibliográficas. Las citas se pueden referir en el texto de diferentes formas, siendo las más habituales a modo de superíndice o entre paréntesis. Las utilizamos cuando nos referimos a un artículo previo publicado sobre el tema que estamos investigando. El artículo al que se refiere dicha cita se expresa como listado incluyendo autores, revista y título del artículo. Cada una de las entradas de este listado es lo que se denomina referencia bibliográfica. Pregunta 96