x

¿Aún no esta registrado?

Crea tu cuenta. Registrate en Elsevier y obtendrás:

Registrarme ahora
España | Cambiar
Ayuda - - Regístrese - Teléfono 902 888 740
Buscar en

Factor de Impacto:
2013

1,252
© Thomson Reuters, Journal Citation Reports, 2013

Indexada en:

Current Contents/Clinical Medicine, Journal Citation Reports, SCI-Expanded, Index Medicus/Medline, Excerpta Medica/EMBASE, IBECS, IME, MEDES, PASCAL, SCOPUS, SciVerse ScienceDirect

Índice SCImago

SCImago Journal & Country Rank

Diseño y análisis de un ensayo clínico: el aspecto más crítico

Design and analysis of a clinical trial: its critical point

Erik Cobo a

a Departamento de Estadística e Investigación Operativa. Universidad Politécnica de Cataluña. Barcelona. España.

Artículo

Hay muchos aspectos que pueden hacer controvertidos los resultados de un estudio de investigación en medicina, y todos ellos son importantes. Pero, en mi opinión, la credibilidad de los resultados de un artículo dependerá especialmente de la capacidad de los investigadores para seguir el protocolo y transmitirlo con claridad. Nada hay más desmo ralizador para un lector que descubrir discordancias en el número de casos incluidos; así, a pesar de haber leído minuciosamente un artículo, dicho lector sigue sin tener claro cuál era el tamaño muestral diseñado, cuál el finalmente analizado y cuáles eran las razones de esta discrepancia.

En estas líneas se expondrán los objetivos y las características del estudio «ideal», las razones que pueden motivar un alejamiento de dicho estudio «ideal», así como las incertidumbres que ello introduce. Al final del artículo, se ofrecerán unas recomendaciones para minimizar las pérdidas de información, sea cual sea su razón, y su impacto posterior.

Objetivos y características del ensayo clínico «ideal»

El objetivo de un ensayo clínico es estimar el efecto de las intervenciones realizadas para mejorar la salud de un paciente o de una comunidad. De esta definición, es conveniente resaltar un término: efecto. ¿Qué se entiende exactamente por efecto? De acuerdo con el modelo propuesto por Rubin1 y Holland2, se define «efecto» como el cambio en la respuesta (Y) de un paciente cuando se le asigna el tratamiento T en lugar del tratamiento C. Esta definición tan sencilla tiene una serie de implicaciones nada triviales que ya se han comentado previamente en este mismo foro3,4.

Imagínese ahora que se pretende valorar las consecuencias de la decisión de asignar una intervención a un paciente. «Asignar» es el término clave, no en vano marca la distinción entre los estudios observacionales y los experimentales. En la tabla 1 se muestran dos hipotéticos diseños para conocer el efecto del control de la presión arterial en la prevención de accidentes vasculares. En el primero, los pacientes hipertensos se asignan a un régimen de visitas de control (una o 4 al año). En el segundo, se decide seguir en el tiempo a una serie de pacientes hipertensos en los que se observa el número de visitas de control que realizan. Ambos diseños son prospectivos: primero tiene lugar la intervención (el número de visitas) y luego se espera en el tiempo para observar la respuesta. Sin embargo, en el segundo ejemplo el régimen de visitas lo han decidido los pacientes, y es por tanto un atributo observacional que les pertenece. En cambio, en el primero el número de visitas es una variable experimental, cuyo valor es potestad del investigador. Si se quiere utilizar los resultados del segundo estudio para conocer cuál será el efecto de aumentar el número de visitas de una a 4 al año, la gran duda que no resuelve el diseño observacional es si realmente los pacientes seguirían el régimen de visitas aconsejado. En cambio, el diseño experimental, que asigna la intervención, permite observar el grado de cumplimiento de ésta. Sirva a modo de ejemplo las expectativas abiertas por el estudio observacional de Framingham sobre los efectos de la dieta, que no han alcanzado los resultados esperados en los estudios experimentales, ya que los pacientes asignados a una dieta determinada no la siguen luego tan fielmente como se pretendía5.

Así pues, el ensayo clínico permite estudiar dos respuestas6 al tratamiento: la variable principal (end-point) y la propia adherencia al tratamiento asignado, un resultado de tanta importancia que aconseja distinguir5,7-9 entre eficacia del método (efficacy) y efectividad de su uso (effectiveness). La primera valora el potencial del método o intervención en condiciones ideales y con un cumplimiento estricto del protocolo, mientras que la segunda estima los resultados obtenibles en las condiciones habituales de administración. Entre los muchos ejemplos disponibles, es altamente ilustrativo el usado por Meier5 sobre los anovulatorios orales, que obtienen una eficacia del método casi óptima, con menos de un 1% de mujeres embarazadas en un año de correcta medicación, mientras que la efectividad de su uso es muy inferior, dependiendo de la regularidad en la toma de la medicación. (Una rápida búsqueda en MEDLINE o ISI web of Knowledge, que requiera los términos efficacy y effectiveness en el título, proporcionará al lector ejemplos adecuados a su especialidad.) Ambas definiciones tienen utilidad y ocupan su lugar en la adquisición de conocimientos. Mientras que la eficacia del método es de mayor interés para investigadores que deseen «inventar» nuevas intervenciones, la efectividad de uso debe ser la considerada por aquellos que se enfrenten a la decisión de aconsejar la intervención, tanto a un paciente concreto (médico clínico) como a una comunidad (gestores sanitarios y agencias reguladoras).

Volviendo al ejemplo sobre el control de la hipertensión de la tabla 1, el lector puede preguntarse si en el observacional existen otras posibles diferencias entre los pacientes que han seguido las diferentes pautas de visitas y que podrían ser una explicación alternativa de las diferencias que se lleguen a encontrar. Por ejemplo, que estén más motivados por controlar su salud o que estén seguidos por un profesional más motivado. En el estudio experimental, el investigador puede utilizar su potestad de asignar la intervención para equilibrar los atributos de las unidades que estén relacionados con la respuesta y pudieran tener, por tanto, confundidos sus efectos con los de la intervención en estudio. Los atributos relevantes, cuyos efectos son bien conocidos, conviene controlarlos mediante las técnicas de ajuste (criterios de inclusión, subgrupos, modelado, minimización)4, y aquéllos hoy por hoy desconocidos o imposibles de medir, mediante la asignación al azar3.

Fig. 1. Dos papeles del azar en el estudio «perfecto».

En la figura 1 se representan los 2 papeles que desempeña el azar en el estudio «ideal»: una obtención al azar de los casos a incluir en el estudio permite afirmar su representatividad, y una asignación al azar de la intervención, la comparabilidad inicial de los grupos. Esta comparabilidad es el objetivo primordial de los ensayos clínicos, mientras que la representatividad, que exigiría un proceso de muestreo aleatorio a partir de una población de referencia perfectamente acotada y numerada8, ocupa un lugar secundario. Por supuesto, no sería éste el caso de una encuesta de salud previa a la elaboración del plan sanitario de una comunidad, en la que la representatividad es fundamental. Es importante recordar que tanto la representatividad como la comparabilidad proporcionadas por el azar son «iniciales» y, para que se mantengan, requieren un seguimiento equilibrado y completo. Es bien conocido que, para impedir la aparición de diferencias entre los grupos que rompan este equilibrio, se enmascara el tratamiento. En estas líneas se insiste en que el calificativo de «completo» exige disponer de toda la información sobre todos los casos.

Desgaste de la muestra

A diferencia de, por ejemplo, un estudio para promover la calidad de un producto industrial, las unidades de un ensayo clínico están vivas, por lo que pueden cambiar sus condiciones iniciales, y son personas cuyos derechos deben respetarse. Esto provoca la falta de algunos datos (missing), quizá debido a que no todos completan el estudio o no consumen toda la medicación. En la tabla 2 figuran algunas de las razones que pueden provocar estas pérdidas. Conviene recordar desde el inicio que no debe confundirse el abandono del tratamiento, por falta de eficacia o de seguridad, con el abandono del estudio6. Quizá un paciente deba, por razones médicas o éticas, dejar un determinado tratamiento, pero ello no implica que no se sepa si se ha obtenido el efecto deseado, ni que dicho paciente no deba seguirse durante el período previsto.

Desde un punto de vista estadístico6, los datos que faltan pueden corresponder a 3 tipos perfectamente diferenciados. Se habla de datos ausentes completamente al azar (MCAR: missing completely at random) cuando su distribución es la misma en todas las variables, tanto conocidas como desconocidas; es decir, si son independientes de cualquier característica. Se habla de datos ausentes al azar (MAR: missing at random) si su distribución sólo varía para las variables conocidas, es decir, si son independientes de las variables no observables. Por último, se habla de datos ausentes no ignorables (MNI: missing non ingnorable) cuando también dependen de las variables no observables. Este último tipo de datos ausentes presenta el gravísimo problema de que dependen de variables no observables y, por tanto, ni se pueden excluir del análisis ni cabe imputarles un valor sin introducir sesgo10. En consecuencia, y como se insistirá más adelante, estarán atentando contra la representatividad y la comparabilidad. Por si fuera poco, la hipótesis de que dependen de variables no observables no es contrastable empíricamente (¡no se pueden estudiar las variables no observables!), por lo que la presencia de cualquier valor ausente abre la posibilidad de que se trate de un valor ausente no ignorable que esté sesgando los resultados. En otras palabras, no se puede solucionar el problema de falta de información.

Implicaciones del desgaste de la muestra

La primera consecuencia de los datos ausentes es la pérdida de imagen del estudio; aunque algún dato ausente es inevitable, las pérdidas indican baja calidad, bien de la intervención, bien del diseño o bien del seguimiento. No hay duda de que cuanto mayor sea el grado de adherencia al protocolo y al tratamiento, mayor credibilidad tendrán la intervención, el diseño y los investigadores involucrados. Es difícil ofrecer cifras de referencia sobre cuál es el porcentaje tolerable de datos ausentes, ya que será diferente para cada estudio. Por ejemplo, no sería lo mismo un estudio con un seguimiento de 2 años que otro con un seguimiento de 2 semanas. Por ello, la mejor referencia es la que marca la competencia: ¿qué nivel de pérdidas tuvo el último estudio similar sobre este tema? A pesar de estas dificultades, Gillings y Kock11 ofrecen como referencia la cifra del 25%. En concreto, estos autores especifican que el cociente entre el número de pacientes con al menos un valor de la variable respuesta y el número de pacientes aleatorizados debe superar el 95%, y que el cociente entre la cifra de pacientes que cumplen el protocolo y pacientes con al menos un valor en la respuesta debe superar el 80%.

La segunda consecuencia del desgaste de la muestra es que la presencia de valores ausentes abre la posibilidad de que se trate de datos ausentes no ignorables, por lo que, como ya se ha dicho, se estarían vulnerando los principios de inferencia12-14, tanto el de comparabilidad como el de generabilidad. Puede argumentarse15 que las pérdidas prealeatorización sólo atentan contra la generabilidad, siempre que se pueda justificar que la decisión de excluir una pérdida se ha hecho independientemente de su grupo de intervención. En cambio, las pérdidas postaleatorización atentan claramente contra la comparabilidad. Así, Chême et al16 muestran un ejemplo en el que el tratamiento activo sale favorecido en el subgrupo de cumplidores mientras que el placebo lo hace en el de no cumplidores.

La tercera implicación del desgaste es que puede llegar a favorecer la conclusión deseada del estudio17. En efecto, un hipotético investigador deshonesto que desee establecer la eficacia de una intervención podría pretender excluir a los pacientes que abandonen por falta de efecto. En cambio, si estuviera interesado en defender la ausencia de efectos indeseables, podría pretender la inclusión de pacientes que no hayan llegado a tomar la medicación en estudio. En un estudio de equivalencia terapéutica, la situación puede ser aún más complicada14, ya que tanto la inclusión de pacientes que no tomen la medicación como la exclusión de los que abandonen por falta de efecto podrían impedir la detección de diferencias y sesgar los resultados hacia una incorrecta conclusión de equivalencia terapéutica. En resumen, en este último tipo de estudios las pérdidas pueden sesgar las conclusiones en diferente sentido y, para evitar que favorezcan la finalidad del investigador, el enfoque con el que se aborden dependerá del objetivo del ensayo clínico, sea el clásico de diferencias, o el cada vez más habitual de equivalencia18.

Definiciones de las muestras por intención de tratar y por cumplimiento del protocolo

Tanta variedad de motivos para los datos ausentes abre la posibilidad de casi infinitas definiciones. Expondremos aquí las propuestas por la Conferencia Internacional de Armonización (ICH) para el desarrollo farmacéutico en la guía ICH-E9 sobre principios estadísticos19. Define la muestra por cumplimiento del protocolo (per protocol, o de «datos evaluables» o de «casos válidos») como el conjunto de datos generado por el subconjunto de pacientes que se adhirieron suficientemente al protocolo para garantizar que sus datos probablemente muestren los efectos del tratamiento de acuerdo con el modelo científico subyacente. Adherencia al protocolo incluye la exposición al tratamiento, la existencia de medidas de la respuesta y la ausencia de transgresiones mayores del protocolo. Por su parte, la muestra por intención de tratar (intention to treat o «datos completos» o «tal como se aleatorizaron») establece que el efecto de una decisión terapéutica se estima mejor evaluando según la intención de tratar a un sujeto (es decir, el régimen de tratamiento planificado) más que por el tratamiento finalmente recibido. Tiene la consecuencia de que los casos asignados a un cierto grupo de tratamiento deben seguirse, evaluarse y analizarse como miembros de ese grupo independientemente de su adherencia al curso de tratamiento planificado.

Veamos, con la ayuda de un ejemplo de Andersen20, cómo se definirían estas poblaciones cuando se pretende valorar si un segundo par de guantes quirúrgicos disminuye la probabilidad de su rotura (tabla 3). Para estudiarlo, se distribuyó al azar en 2 grupos a 284 cirujanos según debieran usar uno o 2 pares de guantes. Algunos de los casos cambiaron espontáneamente de grupo: por un lado, 34 (23,9%) de los 142 cirujanos asignados al grupo de un par de guantes decidieron emplear 2 pares. De forma simétrica, 46 (32,4%) de los 142 asignados al grupo de 2 pares de guantes decidieron utilizar un único par. El resultado fue la existencia de 4 grupos. Si se desea valorar el efecto de aconsejar el uso de 2 pares de guantes, se emplearían las muestras por intención de tratar para comparar los casos según el consejo recibido. En la tabla 3 puede verse que la diferencia en la proporción de guantes rotos no es estadísticamente significativa, con un intervalo de confianza que incluye la falta de diferencia y que va desde el ­5,2% a favor de un par hasta el 16,4% a favor de 2 pares. Si se intenta valorar la eficacia potencial del método, podría pretender recurrirse a las muestras por cumplimiento del protocolo (diferencia del 36,3% con un intervalo de confianza del 25,8-46,9%) o según lo usado (diferencia del 45,7% con intervalo de confianza del 36,7-54,7%) que muestran diferencias estadísticamente significativas a favor del uso de 2 pares de guantes. El gravísimo problema que tiene el uso de estas dos definiciones es que se ha quebrado el equilibrio original conseguido por la asignación aleatoria: difícilmente se puede creer que los cirujanos que espontáneamente aumentan el uso de uno a 2 pares de guantes son comparables con los que los disminuyen desde 2 a un par de guantes. La diferencia es tan notable que, mientras los primeros tienen un 8,8% (3/34) de roturas, en los segundos este porcentaje es de 76,1% (35/46). Por ello, aunque estas definiciones pretendan valorar el efecto puro de la intervención, al eliminar subgrupos de casos totalmente diferentes pierden la comparabilidad y no proporcionan resultados creíbles. Resumamos los puntos fuertes y débiles de cada definición14,17,21. La del cumplimiento del protocolo tiene la ventaja de que no requiere imputar valores ausentes. Es la preferida por el «inventor» que desea valorar la eficacia potencial del método. Y, como elimina los casos que no han tomado la medicación, será la principal en un análisis de tolerabilidad. En cambio, tiene el gran inconveniente de que compromete la credibilidad del estudio al eliminar unos casos que podrían estar sesgando los resultados. Además, no debe olvidarse que esta definición pretende evaluar un atributo de las unidades, no una variable experimental: que el paciente llegue hasta el final habiendo tomado la medicación es potestad del paciente, no una decisión del profesional. Podría decirse que usar esta definición convierte al estudio en observacional, ya que se basa en un atributo de las unidades, no en la auténtica variable experimental, asignada por el investigador.

Por su parte, las muestras definidas de acuerdo con el criterio de intención de tratar tienen la ventaja de que respetan los grupos iniciales, que eran los de características comparables. Disponen de mayor potencia para alcanzar la conclusión deseada6. Además, emulan la decisión futura de tratar o no tratar y permiten valorar la efectividad de uso en las condiciones definidas por el estudio, por lo que debe ser la preferida por el clínico y el gestor sanitario, que desean conocer los efectos «prácticos». No en vano, lo que les pertenece es su intención de asignar un tratamiento, ya que el cumplimiento posterior es potestad del paciente. Será la de elección en los estudios en los que se desee establecer una mejor eficacia con el tratamiento de referencia13,19. Los estudios que desean establecer equivalencia terapéutica constituyen un grupo aparte en el que se llega a requerir17 que el análisis basado en cada una de estas definiciones resulte estadísticamente significativo.

El gran inconveniente de la definición de muestras por intención de tratar es la necesidad de imputar valores a los datos ausentes. Si se trata de datos ignorables (es decir, independientes de las variables no observables), existen procedimientos para asignarles valor sin introducir sesgo14,22-25. Pero hay que recordar 4 grandes limitaciones. La primera es que estos datos «inventados» difícilmente recuperarán la información perdida, por lo que estarán agrandando artificiosamente el tamaño de la muestra22. La segunda es que, si se asignan valores medios, se está originando una muestra excesivamente homogénea, disminuyendo la desviación típica de los casos y, por tanto, aumentando el riesgo alfa de alcanzar erróneamente la conclusión deseada23-26. La tercera limitación es el reto de no introducir sesgo durante la imputación de valores. Para garantizar que no se compromete aún más la comparabilidad de los grupos, esta imputación debe hacerse independientemente del grupo al que pertenece el dato ausente. La solución habitual13,19 consiste en especificar claramente en el protocolo el procedimiento que se empleará para imputar el valor ausente y hacerlo en la etapa aún cegada del estudio, antes de desvelar el grupo de tratamiento al que fue asignado el caso al que pertenece el dato ausente. Aun así, queda la cuarta limitación, la más comprometida y que ya se ha comentado previamente: la premisa necesaria para hacer esta imputación de los valores ausentes es que sean ignorables, es decir, independientes de las variables no observables. Y esta premisa no puede defenderse con datos empíricos, observables. Por tanto, aunque esta asignación de valores se haga con el máximo rigor, ello no permite devolver al estudio toda la credibilidad perdida.

Respecto a los procedimientos específicos de asignación de valores, cabe señalar que abarcan desde el simple arrastre del último valor observado (LOCF: last observation carried forward)13 hasta la imputación de múltiples valores para respetar la dispersión original23,26, pasando por la interpolación mediante una curva de crecimiento6 o la clásica asignación mediante un modelo estadístico. Especialmente interesante es el procedimiento de Efron y Feldman26, que comparan la relación entre efecto y adherencia del protocolo en ambos grupos de tratamiento. Sea cual sea el procedimiento empleado, conviene siempre poder demostrar que las conclusiones no dependen del método de asignación de valores27, lo que puede conseguirse mediante un estudio de sensibilidad13,16,19,23,28.

Recomendaciones

En la tabla 4 se ofrecen 10 consejos para hacer máxima la credibilidad del estudio, que se resumen a continuación. Lo más importante es minimizar los datos ausentes. No conviene escatimar esfuerzos en este punto, que compromete el prestigio del investigador. La redacción del protocolo debe ser realista y tan simple como permita el rigor científico. Convendría incluir únicamente a los pacientes que previsiblemente cumplirían el protocolo en ambos grupos. Así, si en el ejemplo anterior sólo se hubiera incluido a cirujanos predispuestos a utilizar tanto uno como 2 pares de guantes, no habrían aparecido los cambios de grupo y se habría conservado el principio de comparabilidad: aun aceptando que las conclusiones sólo fueran útiles para este subgrupo de cirujanos, en ellos tendrían plena validez interna.

Fig. 2. Ejemplo de diagrama de flujo aconsejado por la normativa CONSORT29.

En el análisis conviene seguir las recomendaciones de las guías ICH13-19 y CONSORT29. Especialmente clarificador es el diagrama de flujo recomendado por esta última, del que se muestra un ejemplo30 de su uso en la figura 2, y que progresivamente se va incorporando en los informes de ensayos clínicos. Informe en el que conviene defender que las decisiones delicadas se tomaron independientemente de sus consecuencias en los resultados del estudio. También debe documentar detalladamente todas las asignaciones realizadas, así como valorar su posible influencia en las conclusiones del estudio, incluso, si fuera necesario, mediante análisis alternativos de sensibilidad que idealmente deben mostrar que las conclusiones no dependen de los procedimientos y premisas empleados.

Estamos, pues, en condiciones de contestar la pregunta implícita en el título: el aspecto más crítico de un estudio clínico es conseguir: a) un diseño que pueda ser seguido por todos los casos; b) no tener pérdidas en el seguimiento, y c) no introducir sesgos en el análisis. Esperamos haber conseguido, con estas líneas, sensibilizar al lector sobre la importancia que tiene el estricto seguimiento del diseño. El coste humano, siempre dentro del marco ético, de la asignación de un tratamiento experimental se justifica por la obligación de encontrar las mejores pautas terapéuticas para los futuros pacientes. Todo este esfuerzo sería vano si el estudio perdiera su validez y credibilidad por culpa de datos ausentes.

Agradecimiento

Las ideas expresadas en este trabajo han podido evolucionar gracias a las referencias y comentarios críticos aportados por los Dres. Francesc Cardellach, Carlos Vallvé, Francesc Peris, Alberto Cobos, Mariano Sust, Ilonka Zslot, Lluís Cano, Núria Porta, Cati Benet, Cristina Viayna, Cristina Corchero y Oriol Camps.

Bibliografía

1.Rubin DB. Estimating causal effect of treatments in randomized and nonrandomized studies. J Educ Psychol 1974;66:688-701.
2.Holland P. Statistics and causal inference [see discussion]. J Am Stat Assoc 1986;81:945-70.
3.Cobo E. Necesidad y limitaciones de la asignación aleatoria. Med Clin (Barc) 2000;111:73-7.
4.Cobo E. Inclusión de variables en modelos multivariantes. Med Clin (Barc) 2002;115:230-7.
5.Meier P. Comment (compliance as an explanatory variable in clinical trials). J Am Stat Assoc 1991;86:19-22.
6.Lachin J. Statiscal considerations in the intention-to-treat principle. Control Clin Trials 2000;21:167-89.
Medline
7.Haynes B. Can it work? Does it work? BMJ 1999;319:652-3.
Medline
8.Cobos A, Bigorra J. Investigación de resultados en salud: validez externa, validez interna y diseños posibles. Med Clin (Barc) 2002;118(Supl 3):22-5.
9.Vallvé C. Revisión crítica del ensayo clínico pragmático. Med Clin (Barc) 2003;121:384-8.
10.Steiner LB, Rubin DB. Intention-to-treat analysis and the goals of clincial trials. Clin Pharmacol Ther 1995;57:6-15.
Medline
11.Gillins D, Kock G. The application of the principle of intention-to-treat to the analysis of clinical trials. Drug Inf J 1991;25:411-24.
12.Lee YJ, Ellenberg JH, Hirtz DG, Nelson KB. Analisis of clinical trials by treatment actually received: is it really an option? Stat Med 1991;10: 1595-605.
Medline
13.Lewis JA. Statistical issues in the regulation of medicines. States Med 1995;14:127-36.
14.Touloumi G, Pocock SJ, Babiker AG, Darbyshire JH. Impact of missing data due to selective dropouts in cohort studies and clinical trials. Epidemiology 2002;13:347-55.
Medline
15.Drop-outs from clinical trials [editorial]. Lancet 1987;2:892-3.
Medline
16.Chêne G, Morlat P, Leport C, Hafner R, Dequae L, Charreau I, et al. Intention to treat versus on treatment analyses of clinical trial data. Control Clin Trials 1998;19:223-48.
17.Jones B, Jarvis P, Lewis JA, Ebbutt AF. Trials to assess equivalence: the importance of rigorous methods. BMJ 1996;13:36-9.
18.Cobo E. Elección del grupo control: (1) Distintas hipótesis, distinta metodología. ICB digital [revista electrónica] 2003;12:2-5 [consultado 07/11/2003]. Disponible en: http://www.icbdigital.org/icbdigital/pdf/articulo/articulo12.pdf
19.ICH E9 Expert Working Group. ICH tripartite guideline: statistical principles for clinical trials. Stat Med 1999;18:1905-42.
Medline
20.Andersen B. Statistical errors in medical journals. Selected examples. Proceedings of 14th ISCB meeting; 1993, september 21-24; Cambridge, UK: International Society for Clinical Biostatistics, 1993; p. 53.
21.Steiner LB, Rubin DB. Intention-to-treat analysis and the goals of clinical trials Clin Pharmacol Ther 1995;57:6-15.
22.Little R, Yau L. Intent-to-treat analisis for longitudinal studies with drop-outs. Biometrics 1996;52:1324-33.
Medline
23.Efron B. Missing data, imputation and the bootstrap. J Am Stat Assoc 1994;89:463-75.
24.Nich C, Carrol K. «Intention-to-treat» meets «missing data»: implications of alternate strategies for analysing clinical trials data. Drug Alcohol Depen 2002;68:121-30.
25.Loeys T, Goetghebeur E. A causal proportional hazards estimator for the effect of treatment actually received in a randomized trial with all-or nothing compliance. Biometrics 2003;59:100-5.
Medline
26.Efron B, Feldman D. Compliance as an explanatory variable in clinical trials [see discussion]. J Am Stat Assoc 1991;86:1-26.
27.White R, Pocock SJ. Statistical reporting of clinical trials with individual changes from allocated treatment. Stat Med 1996;15:249-62.
Medline
28.Wright CC, Sim J. Intention-to-treat approach to data from randomized controlled trials: a sensitivity analysis. J Clin Epidemiol 2003;56: 833-42.
Medline
29.Begg CB, Cho MK, Eastwood S, Horton R, Moher D, Olkin I, et al. Improving the quality of reporting randomised controlled trials: the CONSORT statement. J Am Med Assoc 1996;276:637-9.
30.Arnau C, Cobo E, Ribera JM, Cardellach F, Selva A, Urrutia A. Efecto de la revisión estadística en la calidad de los manuscritos publicados en Medicina Clínica: estudio aleatorizado. Med Clin (Barc) 2003;121:690-4.