Revue d'Evidence-Based Medicine
Au hasard: Titanic
Minerva 2003 Volume 2 Numéro 7 Page 108 - 109
Professions de santé
Un des piliers de l’Evidence-Based Medicine et une des pierres angulaires de Minerva est l’évaluation de la qualité d’une étude scientifique. La valeur et surtout la pertinence clinique des résultats de l’étude orientent dans une direction ou à l’opposé de celle-ci selon la qualité méthodologique, bonne ou mauvaise, de la recherche effectuée.
La présentation d’une étude randomisée, en double aveugle et contrôlée versus placebo est un gage de bonne augure. Mais ôte-t-elle pour autant tout doute sur le caractère hautement scientifique de l’étude ? Cette association de termes semble bien être le sésame d’accès aux revues ou une clef d’accès à la vérité suprême : un label de qualité.
Contrôlée (versus placebo) signifie qu’un groupe des sujets de l’étude reçoit l’intervention étudiée et qu’un autre groupe subit une intervention de contrôle (placebo).
Ceci pourrait donner l’impression qu’un placebo peut servir de comparaison innocente voire virginale, mais la discussion à ce propos est toujours en cours. Une bibliothèque entière peut être consacrée à ce sujet 1.
Par la randomidation, chaque participant a la même chance de se retrouver dans un des bras de la recherche. Il ne s’agit pas d’une répartition de chance strictement équivalente : la clef de la randomisation est de répartir les participants de telle sorte que toutes les caractéristiques de base soient réparties de manière similaire entre les différents groupes. La randomisation veut constituer des groupes d’investigation comparables en ce qui concerne les facteurs confondants (“confounders”) connus ou inconnus. Le but ultime est d’éviter une sélection qui inclurait dans le bras intervention uniquement les personnes avec un meilleur pronostic ou qui permettrait au chercheur d’inclure dans le groupe placebo un individu dont il connaît le pronostic péjoratif.
Outre la question de savoir s’il y a eu ou non randomisation, il est également important de connaître la méthode de randomisation. En effet, les résultats des RCTs sont clairement différents selon que les participants aient été totalement ou partiellement (quasi randomisation) randomisés 2 ! Le succès d’un processus complet dépend de deux mécanismes liés l’un à l’autre. En premier lieu, la séquence d’attribution à un des bras de l’étude (“allocation”) doit être imprévisible. En second lieu, cette séquence doit rester secrète (“concealment”) pour les chercheurs qui incluent les participants dans un des groupes et également pour les participants. Une randomisation qui dirige les participants le lundi dans le groupe intervention et le mardi dans le groupe placebo est une stratégie dont le secret est facile à dévoiler. Une randomisation correcte comporte donc deux volets, attribution et maintien de ce secret (“concealment of allocation”) qui sont d’importance équivalente. Le caractère “randomisé” d’une publication n’est donc entièrement fiable que si une information précise et complète est disponible dans le paragraphe décrivant la méthodologie. Quoique les auteurs restent souvent peu clairs sur ce point, il est important pour distinguer une randomisation véritable d’une quasi randomisation, la différence motivant une fiabilité entière ou moindre.
Aveugle ? La notion « simple aveugle » signifie que seul le chercheur connaît le traitement suivi. « Double aveugle » signifie que le chercheur et le participant ne le connaissent pas. La question correcte est de savoir qui, comment, quand et dans quelle mesure est aveugle. Si dans une étude thérapeutique le produit actif provoque un oedème malléolaire, la question de savoir qui, quand et dans quelle mesure reste aveugle peut être posée. Dans ce cas, non seulement les « codes » sont violés, mais, de plus, il n’est plus possible pour les chercheurs de juger des résultats sans connaître le traitement suivi par les participants. Le caractère aveugle est donc un processus continu au cours d’une RCT. Le caractère simple ou double aveugle concerne les chercheurs et les participants. Il est préférable d’appliquer ce critère tout au long du processus : lors de la randomisation d’abord, lors du suivi ensuite et lors de la mesure des résultats enfin. Il arrive souvent que le seul « aveugle » de l’étude soit le statisticien qui réalise les analyses ! L’importance du « concealment of allocation » est démontrée par une recherche empirique dans ce domaine. Schulz 3 et Moher 4 ont montré, après une analyse de 377 RCTs que les études avec « concealment of allocation » inadéquat donnaient des résultats plus favorables. Un maintien du secret de la séquence de randomisation inadéquat peut surestimer les résultats de l’étude de près de 40 %!
Une étude qui respecte correctement la méthodologie décrite ci-dessus, est-elle automatiquement un “grand cru classé” ? Hélas, il y a encore anguille sous roche ! Quel est le poisson suivant ? Les participants les plus “en aveugle” sont bien sûr ceux qui disparaissent, appelés “lost to follow up”. La question demeure de savoir pourquoi ils disparaissent : effets indésirables, décès, traitement trop peu efficace, traitement expérimenté difficile à suivre ou disparition intentionnelle pour manipuler les chiffres ? Pour éviter ceci, il y a une solution : l ’analyse en intention de traiter. Dans celle-ci, toute personne reprise dans la randomisation doit être reprise dans l’analyse réalisée à la fin de l’étude, dans le bras auquel il appartient.
La randomisation en double aveugle est-elle une « appellation contrôlée » de la RCT? Certainement, mais une évaluation critique du rapport de l’étude demeure une nécessité, à la recherche de l’anguille sous roche réelle ou virtuelle. Dans chaque cas, les chercheurs en sont bien conscients. Que les détracteurs de l’EBM s’en souviennent ! Le Titanic aussi a sombré, victime de la rencontre en double aveugle avec un iceberg.
E. Vermeire
Références
- Vermeire E, Buntinx F. Placebo, tegenstrever of bondgenoot. Huisarts Nu 1995 ; 24 (4) : 149-58.
- Egger M, Smith GD, Altman DG (ed.). Systematic reviews in health care. Meta-analysis in context. London: BMJ Publishing Group, 2001.
- Schulz KF, Chalmers I, Hayes RJ, Altman D. Empirical evidence of bias. Dimensions of methodological quality associated with estimates of treatment effects in controlled trials. JAMA 1995 ; 273 : 408-12.
- Moher D, Pham B, Jones A, et al. Does quality of reports of randomised trials affect estimates of intervention efficacy in reported meta-analyses. Lancet 1998 ; 352 : 609-13.
Auteurs
Vermeire E.
Vakgroep eerstelijns- en interdisciplinaire zorg, Centrum voor Huisartsgeneeskunde, Universiteit Antwerpen
COI :
Code
Ajoutez un commentaire
Commentaires