dimanche 25 mars 2012

Cancer de la prostate : If you don’t mind what goes on your death certificate, prostate screening is a waste of time. Richard Lehman.


Les lecteurs de ce blog vont se demander si je ne fais pas une fixation pathologique sur certains sujets, le dépistage du cancer de la prostate au moyen du PSA étant l'un de ceux là. Après tout, je en suis qu'un homme... Mais il s'agit aussi d'une situation paradigmatique puisque nous avons des faits, des données, des preuves et nous avons aussi une polémique, des débats contradictoires et des préjugés. Le monde réel est celui des illusions, des parallaxes, des a priori, et des croyances. 
Mais, bon, cent fois sur le métier, remettons notre ouvrage.
(Rappel : nous avons montré sur ce blog, LA, combien les carottes étaient cuites et je ne peux que vous recommander de lire des auteurs indépendants de moi comme Alain Braillon -- ICI-- ou Dominique Dupagne --LA--, qui ont depuis longtemps enfoncé le clou).


Une nouvelle étude vient de paraître dans le New England Journal of Medicine. Elle a étudié la mortalité due au cancer de la prostate pendant et après onze ans de suivi. Vous trouverez ICI un abstract à lire, la version intégrale demandant un abonnement. Elle indique de façon claire que le risque relatif de mourir d'un cancer de la prostate est diminué de 21 %, voire de 29 % après ajustement pour non compliance, selon que l'on dépistait ou non le cancer de la prostate en dosant le PSA. Quant à la diminution du risque absolu de mourir d'un cancer de la prostate dans les conditions de l'essai, elle est de 0,1 décès pour 1000 personnes-années, soit 1,07 mort évitée pour 1000 hommes randomisés. Pour conclure sur cet essai, largement sponsorisé par nombre de firmes pharmaceutiques commercialisant des anti cancéreux, disons que pour prévenir un décès dû au cancer de la prostate pendant 11 ans de suivi il faut inviter 1055 hommes au dépistage et trouver 37 cancers de la prostate.
Enfin, last but not least, mais c'est le résultat le plus important, il n'y a pas de différence en termes de mortalité totale.
Cette divergence mortalité totale / mortalité liée à la prostate est un des éléments clés du débat. Mais les mêmes interrogations se posent pour le dépistage du cancer du sein par mammograpie, nous l'avons vu sur ce blog (ICI).
L'opinion la plus communément répandue, et que je partage, est que tout moyen d'intervention qui ne diminue pas la mortalité globale n'a pas d'intérêt. A quoi cela peut-il bien servir de dépister une maladie pour la traiter si, au bout du compte, on ne diminue pas la mortalité globale ?
Il existe bien entendu des arguments opposés. Pour les résumer, on peut dire d'abord qu'il faudrait, quand la maladie est fréquente, inclure des effectifs considérables ; ensuite, que la santé publique ne s'intéresse pas seulement à éviter la mortalité mais aussi à éviter la morbidité, c'est à dire à la vie sans maladie ; enfin, que les patients du groupe dépisté vivent a priori plus longtemps que les non dépistés et peuvent ainsi plus fréquemment mourir d'autre chose (effet lead-time) (et vous verrez LA, dans les commentaires, des arguments pro et des arguments contre, notamment de Ha-Vinh).
Mais les contre arguments les plus forts pour imposer de ne prendre en compte que la mortalité globale et non la mortalité spécifique sont ceux-ci : le dépistage n'est pas anodin et n'est pas sûr, il peut entraîner des dommages graves, dont des décès, chez des patients en bonne santé, c'est à dire induire mortalité et morbidité chez des personnes (pas des patients, pas des malades) qui ne demandaient rien, qui n'auraient jamais été malades, ou qui, sans traitement, ne seraient jamais morts de la maladie qu'on leur a dépistée, et, dans le cas du cancer de la prostate rendre impuissants et / ou incontinents et / ou gynoïdes (voir illustration) pendant une dizaine d'années des hommes qui n'auraient pas eu la maladie ou qui n'en auraient souffert, non dépistée qu'un an ou deux (les cancers très agressifs).

Nous sommes dans le domaine des croyances.
Il n'est que de voir comment les journaux sponsorisés par Big Pharma et par l'Association française des urologues en tirent des conclusions dithyrambiques sur l'intérêt du PSA... Sans compter des blogs se prétendant objectifs (ICI).

Prenons un exemple où la croyance est plus forte que la logique mathématique et où l'exposition des faits de façon malintentionnée conduit au dépistage et où une présentation plus objective rend le sens commun indécis et le dépistage moins évident.
Je reprends cet exemple de Leda Cosmides et John Tooby, psychologues cognitifs et théoriciens controversés (LA pour se faire une idée de leurs recherches, controversées), exemple cité par Jean-Pierre Dupuy (L'avenir de l'économie. Paris : Flammarion, 2012).
Première version :

Soit une maladie qui touche une personne sur 1000 en moyenne.
Il existe un test pour la détecter avec un taux de faux positifs de 5 %
Le résultat, dans votre cas, est positif.
Quelle probabilité donnez-vous au fait d'avoir la maladie ?
(la réponse n'est pas 95 %)

Deuxième version en forme d'explication :

Sur 1000 personnes testées une en moyenne aura la maladie et le test sera pour elle positif (en ignorant les faux négatifs) mais il sera positif également pour 50 autres personnes. Seul donc un individu sur 51 aura effectivement la maladie.
Donc la probabilité d'avoir la maladie avec un test positif est de 2 %

Etonnant, non ?

Enfin, voici un commentaire que j'ai trouvé sur le blog de Richard Lehman (LA) à propos de l'essai cité.
D'abord, notre médecin humoriste, écrit ceci : "Pourquoi appelle-t-on le PSA PSA ? Parce que cela signifie Perfectly Stupid Attributes pour un test de dépistage !" Je ne traduis même pas.
Mais surtout, voici le summum : "Now clearly, if you don’t mind what goes on your death certificate, prostate screening is a waste of time. But to inform our advice to patients, let’s look at it from the perspective of somebody who had decided they would rather die of anything but prostate cancer. “To prevent one death from prostate cancer at 11 years of follow-up, 1055 men would need to be invited for screening and 37 cancers would need to be detected.” So if you had a “cancer” detected by screening, there is a one-in-37 chance that treatment would prevent your death within 11 years. And your odds of dying from anything in that period would be the same."

Faut-il aussi que je ne traduise pas ?
Si vous vous en fichez de savoir ce qui sera marqué sur votre certificat de décès, le dépistage prostatique est une perte de temps. 

31 commentaires:

Chantal a dit…

et qu'en reste-t-il du pouvoir et de l#opinion de la personne éventuellement malade? Pourquoi cette pression à devoir faire des "Vorsorgeuntersuchungen" ou examens de préventions (plutôt de découvertes précoce) d'un cancer?

Ne peut-on pas informer les gens du pour et du contre, qu'ensuite ils reflechissent et prennent leur propre décision - sans contrainte médicale, médiatique et adminsitrative?!

Puis, pourquoi pas s'intéresser un peu plus à des maladies non mortelles mais influence beaucoup la vie tel que le glaucome? Il y a en a de plus en plus de gens, surtout de jeunes, qui en ont un. Pourquoi? Même l'industrie pharmaceutique ne s'intéresse pas trop (l'innovation brille pas trop). Le diabète - je n'ai pas l'impression que cela change beaucoup les derniers ans, beaucoup d'annonces et rien de neuf sauf le nombre en hausse suite à un abaissement des normes. Là aussi, la rétinopathie diabétique modifier beaucoup la vie de la personne. Bien sûr, il y a un mieux dans les 20 dernières années mais nettement moins que le tapage médiatique pour le PSA et Co!

Bon dimanche

CMT a dit…

Super post et je m’étonne que l’on n’ait pas plus de commentaires. Peut-être nos lecteurs de blogs sont ils un peu blasés ?
Moi qui ne suis pas férue de maths mais j’adore les maths quand elles sont utilisées de cette manière.
Et je suis une inconditionnelle du flegme et de l’humour anglais. La formule de Richard Lehmann est une synthèse parfaite du problème.
Je voudrais mettre en relief plusieurs problématiques soulevées ou découlant de ce post :
1- Un problème pratique : l’augmentation du RISQUE je dis bien risque, pour un patient présentant un cancer d’être recruté pour des essais cliniques de nouveaux médicaments. J’en avais déjà parlé dans d’autres commentaires. Ce risque découle non pas, comme on le suppose souvent au premier abord, du dynamisme de la recherche médicamenteuse pertinente en cancérologie, puisque les médicaments récents, souvent issue des biotechnologies présentent souvent des effets secondaires effrayants qui motivent par la suite des retraits ou des restrictions d’utilisation comme cela a été le cas pour l’AVASTIN aux Etats Unis, mais de réforme des modes de financement de l’hôpital. Et donc, actuellement un patient suivi à l’hôpital pour un cancer a UNE CHANCE (risque) SUR 12 environ d’être recruté pour un essai clinique http://www.laprovence.com/article/sante/cancer-les-essais-cliniques-en-augmentation-en-france-inca . Depuis que la T2A a été instaurée à l’hôpital, chaque médecin hospitalier, oncologues plus particulièrement, s’est senti autorisé à se considérer comme un auto-entrepreneur. Et le fait est que la part de la rémunération privée des médecins hospitaliers a explosé. Les hôpitaux tendent à favoriser ces essais cliniques car cela leur sert à financer leur activité de service public inclue dans l’enveloppe MIGAC (voyez un peu la perversité de la chose) pour laquelle les financements sont délibérément restreints par les pouvoirs publics. PATIENTS, si un médecin hospitalier vous propose de participer à un essai clinique en vous jurant la main sur le cœur que cette molécule est ce qui se fait de mieux, demandez lui, pour le mettre mal à l’aise, combien il va percevoir du laboratoire à titre d’indemnisation personnelle si vous acceptez (je vous souffle la réponse, c’est entre 1500 et 5000 euros). Vous, vous risquez juste votre peau. Le médecin pourra se dire que Zut ! cette fois ça n’a pas marché mais qu’il n’a fait que suivre les protocoles et faire ce qu’on l’autorisait à faire.
2- Le deuxième aspect concerne notre aptitude au PENSER FAUX dont parlent les auteurs cités par JCG. Les publicitaires ont compris depuis longtemps, avant que les neurosciences le démontrent, que Descartes avait tort, et que notre raison est gouvernée par nos émotions, et non l’inverse.

CMT a dit…

3- Le troisième aspect est cette idée que la médecine, la pratique actuelle de la médecine, devient CONTRE-PRODUCTIVE, c'est-à-dire tend à générer de plus en plus de dégâts et de moins en moins de bénéfices pour la santé des patients individuellement et en termes de santé publique, pour des coûts toujours plus élevés. Cela rejoint les théories d’Ivan Illitch présentées par JCG. http://docteurdu16.blogspot.fr/search/label/ILLICH%20IVAN
Ma conception spinozienne de l’existence me fait penser que quand les choses arrivent c’est que toutes les conditions étaient réunies pour qu’elles arrivent. Je ne parle pas du pot de fleurs qui vous tombe sur le pied mais des phénomènes macro-économiques à l’échelle mondiale.
Les sociétés commerciales utilisent depuis longtemps la publicité pour influer sur les comportements individuels et modifier la demande (donc tronquer la loi de l’offre et de la demande) en leur faveur en générant artificiellement de l’envie pour des biens. Une fois diffusés dans une société ces biens sont considérés comme satisfaisant des besoins.

Mais avec l’accumulation capitalistique les petites sociétés commerciales, en concurrence les unes avec les autres sont devenues des mastodontes et ont obtenu un contrôle oligopolistique des marchés. Une société comme Pfizer, première firme pharmaceutique, génère un chiffre d’affaires de 71 milliards d’euros. Si Pfizer était un Etat et que le chiffre d’affaires était son PIB cela la situerait quelque part vers le soixante-dixième rang des pays sur plus de 180 classés par PIB. On comprend donc que des sociétés de cette taille aient acquis la capacité de contrôler non seulement les comportements individuels mais aussi les politiques des Etats, par le biais d’un réseau de conflits d’intérêts. Ce qui veut dire que ces sociétés ont acquis un certain pouvoir de contrôle sur les POLITIQUES DE SANTE PUBLIQUE. On n’est plus là à une échelle individuelle mais à celle d’une population, d’une société, et, en fin de compte, à l’échelle de la planète.
Dès lors on conçoit que dans cette perspective l’offre de soins tende à ne plus du tout être déterminée par les besoins des populations mais par les exigences de rentabilité de ces multinationales. Telle cause conduit à telle conséquence. Puisque l’offre de soins n’est plus déterminée par les besoins mais qu’elle SE GENERE ELLE-MEME, elle sera logiquement très efficace pour augmenter les bénéfices des firmes pharmaceutiques ou autres sociétés productrices de biens de santé, mais, dans la mesure où elle ne correspond pas à un besoin, elle aura une efficacité nulle ou faible pour améliorer la santé des populations.
Visiblement cette tendance, comme d’autres, ne démontre pas, dans l’organisation actuelle de l’économie, quelque tendance que ce soit à l’auto-régulation en l’absence de rôle régulateur de l’Etat, lui-même pris dans un réseau de conflits d’intérêts. Les problèmes ce cet ordre ne peuvent que s’aggraver et ne pourraient évoluer favorablement que grâce à une prise de conscience massive des patients consommateurs.

BG a dit…

@docteurdu16
Vous écrivez :
« Sur 1000 personnes testées une en moyenne aura la maladie et le test sera pour elle positif (en ignorant les faux négatifs) mais il sera positif également pour 50 autres personnes. »

Un test avec 95% de faux positifs signifie, il me semble, qu'il y a 5% de non malades PARMI les POSITIFS et non pas parmi la totalité des personnes testées. Ainsi, parmi 1000 personnes testées, le seul malade doit représenter 95% des positifs. S'il y avait 51 positifs avec un seul malade parmi eux le test aurait alors 2% de positifs malades et donc 98% de faux positifs (50 sur 51 sont des faux positifs selon votre raisonnement).

Ceci dit, vous n'avez sans doute pas tort pour autant dans vos conclusions générales sur la course au cancer de la prostate.
Bien à vous
Bernard Guennebaud

JC GRANGE a dit…

@ BG : Le taux de faux positifs est de 5 % pas de 95 %

BG a dit…

Oui mais je voulais dire 95% de vrais positifs et c'est ce que j'ai utilisé : 95% de vrais positifs et 5% de faux donne bien 5% de non malades comme je l'ai écrit ensuite. C'était une simple faute de frappe mais qui ne change rien à la suite (mais que voulez-vous, je suis un peu dyslexique...)

Quand vous avez 51 positifs donc 50 faux positifs, c'est ce que vous écrivez, ça ne fait pas 95% de vrais positifs mais 2%.

En fait vous avez appliqué les 5% aux 1000 personnes testées, d'où le 50, et non pas seulement à ceux qui étaient positifs comme il aurait fallu le faire. Le problème demeure.

JC GRANGE a dit…

Je ne suis pas d'accord et je vous répondrai ce soir.

BG a dit…

Je reprends un instant ici le problème de la dyslexie en relation avec ce que j'appelais ''les cerveaux gauche dominants'' et ''les cerveaux droits dominants'' car ce qui vient de se produire dans les commentaires ci-dessus illustre bien le problème :

Je l'ai déjà dit je suis sans doute ''cerveau droit dominant'' aussi je poursuis l'idée sans trop m'occuper de l'écrit formel, d'où une inversion entre vrai et faux mais qui ne change rien au raisonnement que je fais car il ne se déroule pas, pour moi, à partir de ce que j'ai écrit. C'est pourquoi je me récupère aussitôt.

Par contre, vous êtes probablement ''cerveau gauche dominant''. Aussi, ayant trouvé une erreur formelle dans mon écrit vous pensez sans doute qu'elle annule toute ma remarque et que cela sauve votre calcul.

Les ''gauches dominants'' regardent la forme alors que les ''droits dominants'' poursuivent l'idée sans trop s'occuper de la forme, d'où des fautes formelles très durement sanctionnées par l'école. Il existe aussi des personnes qui peuvent passer suffisamment rapidement du droit au gauche et du gauche au droit pour ne pas avoir ces problèmes. Pour moi, et ça ne me gêne nullement de le dire si ça peut aider à comprendre comment pourrait se générer la dyslexie, j'ai tendance à m'attarder sur le cerveau droit. Ce dont s'occupe le cerveau gauche m'ennuie. C'est une analyse par introspection si je puis dire. Je ne prétends pas que ça explique tout mais ça pourrait être une piste.

docpp a dit…

l'exemple mélange 2 choses :les notions de faux positif et de faux négatif renvoient aux notion de sensibilité et spécificité d'un test
5% de faux positif = 95 % de spécificité
5% de faux négatif = 95 % de sensibilité

et la probabilité d'avoir la maladie en cas de test positif ou négatif qui dépend aussi de la prévalence et qui est exprimée par la valeur prédictive (positive ou négative

lire à ce sujet http://www.iumsp.ch/Enseignement/pregradue/s_nspec.pdf

BG a dit…

Votre lien docpp permettra de ne pas avoir besoin de reprendre les probabilités de base, merci !

La spécificité et la sensibilité sont des indicateurs fabriqués à partir d'autres données, on peut donc s'en passer si on ne part pas de leurs valeurs. Puisque l'article nous dit qu'il n'y a pas de faux négatifs, donc que tout malade est positif, la spécificité est 1. La prévalence supposée est 1/1000.

Comment traduire ''le test donne 95% de vrais positifs'' sinon par ''parmi les positifs il y a 95% de malades'' ? Soit par P(M si T)=0,95 avec les notations du lien : M désignant l'événement ''être malade'' et T ''être positif''. Quelle était la question posée : que vaut P(M si T) ? La réponse est dans les données, il n'y avait rien à chercher et P(M si T)=M/T quand M est inclus dans T (pas de faux négatifs).

Si on veut quand même utiliser la formule de Bayes donnée page 5 du lien, la spécificité valant 1 et P(M) valant 1/1000 il reste un terme à calculer qui est P(T et nM) en désignant les non malades par nM. Il reste donc à calculer le nombre de positifs parmi les non malades qui sera le nombre de positifs moins 1 parmi 1000.

On a P(M)=P(M si T)P(T)+P(M si nT)P(nT) en désignant par nT les négatifs au test. Mais P(M si nT)=0 (pas de faux négatifs). On obtient alors P(T) en divisant 1/1000 par 0,95 soit 1,05 sur 1000 ou 105 positifs sur 100000 dont 100 malades, 100 étant 95% de 105.
On peut alors retrouver la valeur M/T sur le second membre de la formule de Bayes.

Ce sont les faux négatifs qui feront que P(M si T) ne sera plus égale à M/T, M n'étant plus inclus dans T.

CMT a dit…

Mettons nous deux minutes à la place des patients.
Qu'est-ce qui les intéresse?
La question posée est celle de la valeur prédictive positive des tests. C'est à dire la réponse à la question: "si mon test est positif, quels sont les risques que je sois réellement malade".

Je crois que ce qui est intéressant à comprendre est que ces risques sont proportionnels à la prévalence de la maladie dans la population. C'est à dire, que même avec un test très performant, plus la maladie est rare, plus la probabilité d'être réellement malade en cas de test positif diminue.

JC GRANGE a dit…

@ BG. Donc, en résumé, la réponse à la question posée est 2 %;
La question posée était :
"Soit une maladie qui touche une personne sur 1000 en moyenne. Il existe un test pour la détecter avec un taux de faux positifs de 5 % Le résultat, dans votre cas, est positif. Quelle probabilité donnez-vous au fait d'avoir la maladie ?"
Et, l'origine était un questionnement de Cosmides et Tooby à des étudiants de Santa Clara (dont des étudiants médecins) et la réponse majoritaire fut 95 %
Ainsi les testeurs voulaient-ils montrer combien la formulation des questions et des résultats pouvaient être trompeuses.
C'est tout.
Le calcul Bayesien, au delà des notions classiques de spécificité / sensibilité, valeur prédictive positive / valeur prédictive négative, donne un résultat facile à obtenir.

BG a dit…

Mais docteurdu16 que veux dire ''taux de faux positifs de 5%'' ? Si c'est 50 faux positifs sur 1000 personnes testées c'est qu'on admet que le test donne, parmi les 1000 personnes testées, 5% de positifs qui seront non malades. Avec 50 et 51 vous avez donc traduit 2 hypothèses : 5% de testés positifs non malades et 0,1% de positifs malades (1 pour 1000). OK si c'est cela les hypothèses.

Mais si 5% de faux positifs signifie 5% parmi les positifs comme il parait normal de le comprendre et avec 0 faux négatifs alors c'est 95%.

Les phrases sont donc très imprécises : pour moi il paraissait très normal de comprendre que parmi les positifs on s'intéresse à ceux qui sont faux et à ceux qui sont vrais, ce qui est évidemment un critère essentiel pour apprécier la qualité du test. Donc qu'un taux de faux positifs représente la proportion de non malades PARMI les positifs et non pas parmi les personnes testées.

Il s'agissait donc d'un problème de définition mais je n'avais jamais vu que ''taux de faux positifs'' s'appliquait à l'ensemble des testés. Il faut donc admettre que les 2 définitions existent en médecine, ce qui demande alors de préciser laquelle on applique. Le lien donné par docpp ne va pas dans le sens de l'utilisation de votre définition mais tout est possible en médecine...

BG a dit…

Il y a justement sur Wikipédia une discussion animée sur LA définition de faux positifs :

http://fr.wikipedia.org/wiki/Discussion:Faux_positif

Comme quoi les définitions ne sont pas si claires et définitives que cela. D'autant plus qu'on peut se demander quel serait l'intérêt d'un test qui sur 51 positifs ne donnerait qu'un seul cas réellement malade. Mais que cela puisse effectivement exister, pourquoi-pas ?

BG a dit…

Sur le lien donné par docpp on lit page 8 (nM désignera ''non malade'') :

« P(T si nM ) = taux de faux positifs

Attention: pour certains auteurs:
taux de faux positifs = P( nM si T),

Vérifiez donc toujours la définition utilisée ! »

Cette dernière définition correspond à celle que j'ai utilisée : la proportion de non malades PARMI les positifs. Les 2 définitions existent donc, d'où le problème. Ce n'était donc pas inutile de préciser les choses.

Quelle que soit la définition utilisée on ne peut pas dire que la probabilité d'être malade si positif soit proportionnelle à la prévalence, c'est plus compliqué comme le montre la formule de Bayes de la page 5 du lien de docpp car cette prévalence intervient aussi au dénominateur et pas seulement au numérateur.

BG a dit…

Si on prend l'exemple que vous avez proposé, docteurdu16, comme un exemple pédagogique, la ''bonne'' réponse de devrait pas être ''ceux qui ont répondu 95% ont torts'' mais personne n'a tort, personne n'a raison, ça dépend de la définition utilisée.

D'un autre point de vue y-a-t-il une définition plus pertinente que l'autre en toutes circonstances ? Un exemple fabriqué (par moi) : un test de grossesse. Si on l'applique à des femmes entre 20 et 30 ans il donne 5% de faux positifs avec ma définition. J'ajoute des femmes ménopausées dans le groupe des femmes testées. Ces dernières seront toutes négatives au test en raison d'une hormone manquante par exemple mais peu importe. Le taux de faux positifs ne changera pas avec ma définition. Par contre il va chuter avec l'autre définition puisque le numérateur ne change pas alors que le dénominateur augmente. Dans cet exemple quelle va être la définition la plus pertinente ? Sans discussion celle que j'utilisais.

Plus généralement il peut toujours y avoir le risque de tester inutilement, par exemple contre le sida si on rendait le test obligatoire, des personnes qui ne sont pas à risque et ainsi d'avoir des données peu pertinentes pour mesurer l'intérêt du test. La définition à laquelle j'avais spontanément pensé est donc certainement utile. Il est possible que l'autre le soit aussi dans d'autres circonstances.

Un commentateur sur Wikipédia écrit :
''j'ai un doute sur le fait que la définition soit la même dans tous les domaines, ce qui serait surprenant, plutôt une mauvaise habitude dans les sciences de la vie.''
Effectivement on peut s'interroger.

BG a dit…

Dans une discussion Wikipédia on lit ceci [1] :

« Le taux de faux positif de 5% signifie que sur 100 grossesses identifiées comme des grossesses anormales, 5 le seront à tort »

Qui doit signifier qu'on a eu 100 tests positifs dont seulement 5 grossesses non anormales parmi elles. Cette interprétation est confirmée ainsi sur une autre page de discussions sur Wikipédia  où on discute ferme sur LA définition, c'est le moins qu'on puisse dire [2] :

« Or la définition actuelle prétend que le taux de faux positif = FP / (FP + TP), ce qui est très différent »
FP : faux positifs ; TP : vrais positifs. La somme donne donc tous les positifs. C'est donc ''ma'' définition. Avec les valeurs 50, 1 et 1000 de docteurdu16 ce serait 50/51=98%.

L'autre définition en discussion pour ce fameux taux est donc FP divisé par tous les non malades. Avec les mêmes valeurs ce serait 50/999=5%. Ce n'est pas la même chose !!!

Leur discussion me paraît stérile, l'un des protagonistes, très chaud défenseur de la définition utilisée par docteurdu16, étant même sous la menace du comité d'arbitrage de Wikipédia !!! Je pense qu'il serait bien préférable de se demander dans quelles circonstances l'une est plus pertinente que l'autre et inversement, quitte à utiliser des mots différents pour éviter les confusions.
Rien n'est simple sur cette question car sur une autre page Wikipédia on lit :

« le taux de faux positif de 5% signifie que si cent femmes enceintes d'un fœtus normal passent ce test, en moyenne 5 seront identifiées à tort comme des grossesses anormales »
qui est exactement la définition de docteurdu16. Son exemple est d'ailleurs repris un peu plus loin :

« si l'on teste 1 000 personnes au hasard avec un test produisant 5 % de faux positifs, on annonce à 50 personnes que le test est positif. Si la maladie ne touche qu'une personne sur 1 000 dans la population générale, on peut montrer par le théorème de Bayes que la personne n'a (environ) que 2 % de chance d'être effectivement atteinte. »

Mais le résultat donné par Bayes est directement sous la dépendance de la définition, car comme je l'ai montré il donne 95% avec ''ma'' définition qui n'est pas que la mienne.


[1] http://fr.wikipedia.org/w/index.php?title=Faux_positif&oldid=48249002

[2] http://fr.wikipedia.org/wiki/Discussion:Faux_positif

[3] http://fr.wikipedia.org/wiki/Faux_positif

BG a dit…

J'ai maintenant une explication à proposer sur la raison de l'existence de ces 2 définitions. Partons des données absolues et non pas des pourcentages qui modifient les données absolues selon les définitions choisies.

On a donc 1000 hommes de 60 ans qui ont été testés et suivis pendant une durée déterminée pour le cancer de la prostate. On a 50 faux positifs, 1 vrais et 949 vrais négatifs. C'est cette étude qui a permis de tester les performances du test sur cette population.

Avec ''ma'' définition le taux de faux positifs sera 50/51=98% et avec ''l'autre'' il sera 50/999=5%.
Un homme de 60 ans est testé positif, il s'inquiète. Avec ''ma'' définition on lui dit qu'il y a 98% de faux positifs et qu'il a donc seulement 2% de chances de tomber malade. Il part rassuré. Avec ''l'autre'' définition on lui dit qu'il y a 5% de faux positifs, ce qui va l'inquiéter car il va traduire aussitôt 95% de chances de … ce qui est une conclusion tout à fait normale. On lui explique alors qu'un calcul de probabilités montre qu'en réalité c'est 2%. Vous croyez vraiment qu'il va partir rassuré ou qu'on essaie plutôt de ne pas l'inquiéter en lui racontant des histoires de calculs de probabilités auxquelles il ne comprendra rien.

QUESTION : pourquoi ne pas avoir choisi ''ma'' définition ?

UNE REPONSE ? : Le labo va voir le ministre pour lui présenter son nouveau test. ''Quelles sont ses performances demande le ministre ?'' ''98% de faux positifs répond le laboratoire''. ''Quand vous serez descendu en dessous de 10% vous reviendrez me voir !''

Pour abaisser ce fameux taux il y a la solution miracle utilisée aussi pour les vaccins : NOYER LE POISSON !!! C'est bien ce qui se produit avec ''l'autre'' définition alors qu'on aurait tout aussi facilement pu présenter les résultats avec ''ma'' définition.
Ceci pourrait-il expliquer cela ? Ceci pourrait-il aussi expliquer l'acharnement de la discussion sur Wikipédia ?

JC GRANGE a dit…

@ BG. Vous êtes quand même casse-pied. Vous critiquez, vous argumentez, vous interprétez et vous vous trompez. L'exemple que j'ai cité et qui perd désormais de son exemplarité dans la mesure où vous jetez le doute à la fois sur ce que j'ai écrit mais aussi sur ce que VOUS écrivez, disant tout et son contraire, ce qui est une bonne façon de ne jamais se tromper, l'exemple que j'ai cité est là pour illustrer la méconnaissance des statistiques en général et médicales en particulier et, surtout, la façon que certains ont de présenter les faits de façon falsifiée : semer le doute, attiser la peur. Donc, très cher BG, dont les propos, j'hésite à le dire, sont parfois farfelus mais aussi trolliens, c'est un néologisme, la réponse est 2 % Vous pouvez vous demander pourquoi je n'ai pas pris votre définition, vous pouvez me produire des éléments wikipediens, je reprends un problème posé par Cosmides et Tooby et vous trouverez ici nombre d'expériences qu'ils ont faites ici et là : http://citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.131.8290 mais le web est rempli de leurs travaux. Respirez un bon coup et acceptez que les définitions que les auteurs donnent et que les concepts qu'ils manient sont, jusqu'à preuve du contraire, justes. Merci d'en tenir compte.

BG a dit…

Excusez-moi docteurdu16 vous n'avez pas bien compris, la réponse à votre problème est SANS aucun doute 2% comme je l'ai écrit dans mon dernier commentaire à partir du moment où les données sont 50 faux positifs et 1 vrai positif. Il n'y a aucun doute là-dessus mais ce n'est plus le problème car j'ai évolué sur la question depuis hier en partant non plus de votre problème mais des données en amont du problème, c'est à dire des nombres absolus et non des proportions fabriquées à partir de ces données. Ces nombres étant donc ici 1000, 50 et 1.

Il y a 2 définitions a priori pour les faux positifs : par rapport aux 51 positifs ou par rapport à l'ensemble. Si vous avez 65 millions de Français dont 35 millions de femmes et 10 millions de ménopausées, le taux de ménopausées en France est-il 10/65 ou 10/35 ? Telle est la question du choix à faire à partir de ces données absolues et non plus pour remonter des pourcentages vers ces données absolues comme on le faisait hier encore. C'est ça le changement.


Si on prend ce que j'appelle, pour faire vite, ''ma'' définition, ça fait 98% de faux positifs et donc 2% de chances de tomber malade pour un positif. C'est bien le bon résultat obtenu immédiatement.

Si on choisit ''l'autre'' définition on aura 5% de faux positifs qui fera croire qu'ils auront 95% de chances de tomber malades alors qu'il faut faire un calcul tenant compte de cette autre définition pour arriver aussi à 2%.
Nous constatons donc qu'avec les mêmes données, le taux de faux positifs va passer de 98% à 5% selon la définition adoptée et alors que ''ma'' définition est a priori tout aussi acceptable que l'autre sinon plus ici (et certainement plus d'ailleurs). On a quand même le droit de s'interroger sur une telle étrangeté, c'est le moins qu'on puisse dire, NON ?

La question que je soulève MAINTENANT et qui n'est pas celle d'hier est pourquoi ''ils'' ont préféré une définition qui complique ainsi la situation et risque de la fausser en pouvant faire croire que le risque serait de 95% alors qu'il est de 2% ? Faudrait-il croire que ce serait pour pouvoir poser des colles aux étudiants  ou s'imposer des complications calculatoires inutiles ?

J'ai proposé une réponse : si on annonçait 98% de faux positifs le test n'aurait aucune chance d'être accepté, c'est à dire commercialisé et remboursé si vous voyez ce que je veux dire. Pour faire baisser le taux de faux positifs et rendre le test en apparence plus crédible ''ils'' auraient alors convenu d'adopter cette définition qui augmente le dénominateur (remplacé dans l'exemple par 999 au lieu de 51) sans changer le numérateur.

BG a dit…

Ce procédé par dilution je l'ai déjà rencontré dans d'autres situations avec des vaccins. Hier je n'avais pas encore vu ce type de problème avec cet histoire de faux positifs mais ça s'est éclairé pour moi au cours de la matinée. Désolé docteurdu16, mais je comprends bien que vous avez autre chose à faire avec une clientèle et que vous ayez du mal à suivre. Aussi je ne vous reprocherai pas les critiques que vous faites. Je ne suis pas à temps plein mais presque sur cette question depuis 2 jours, ce qui m'a permis d'avancer rapidement dans ma réflexion. Dès le début j'ai soulevé le problème de la définition des faux positifs. Je n'avais pas conscience qu'il pouvait y en avoir 2 tant ''l'autre'' c'est à dire celle en vigueur en médecine (mais pas forcément ailleurs), est plutôt anormale ici comme le confirme l'analyse que je viens d'en faire et ce même si on peut récupérer le bon résultat mais à quels prix, c'est là le problème.

C'était en fait sans doute la bonne question et j'ai constaté ce matin que cela faisait polémique sur Wikipédia, confirmant que je suis sans doute sur une piste importante. Je suis maintenant à peu près convaincu que cette histoire de définitions cache quelque chose et qu'elle n'est pas le fruit du hasard ou d'un choix arbitraire. C'est aussi grâce à vous et votre blog que j'ai pu avancer ainsi dans cette recherche aussi rapidement. Je vous en remercie très sincèrement même si vous me faites une opposition verbale complètement décalée. C'est assez normal que vous n'aimiez pas la recherche en direct avec ses aléas et ses changements de point de vue. Mais c'est ça la recherche, toujours en mouvement, à la différence de l'expertise qui plaque sous la coupole académique (ou la cloche à fromages si on voulait être méchant).

C'est pourquoi je n'accepterai évidemment pas « que les définitions que les auteurs donnent et que les concepts qu'ils manient sont, jusqu'à preuve du contraire, justes . » Non, je ne vais quand même pas m'arrêter de réfléchir ? Quand on voit par exemple, comme j'ai pu le constater et comme je pourrais vous en apporter la preuve, que des épidémiologistes utilisent la règle de 3 avec des choux (pour faire simple) qui ne sont pas du tout tous au même prix, on a quand même le droit de s'interroger sans attendre que l'expert descende du Sinaï avec les tables de la Vérité.

J'ai rappelé votre propos car il est très important : vous exprimez ici parfaitement la barrière qu'il faut absolument franchir si on veut faire de la recherche quel que soit le domaine, maths, physique, sport avec l'exemple du saut en hauteur mis au point par un homme seul abandonné de ses entraineurs qui voulaient le faire sauter en ventral. Il a inventé le saut sur le dos et la tête la première. Jamais aucun comité d'experts en saut en hauteur (mécaniciens, physiologistes comme avaient réunis les soviétiques pour mettre au point le ventral) n'aurait été capable d'inventer cette méthode complètement farfelue mais aujourd'hui universelle.

docpp a dit…

@ BG
vous n'allez quand même pas prétendre réinventer les calculs des probabilités ( et il n'y a pas de complot !)

le pourcentage de faux positifs c'est 1- spécificité

et la spécificité c'est le pourcentage de personnes ayant un test négatif parmi les non malades

Mais comme le dit très bien CMT ce qui nous intéresse c'est la valeur prédictive positive c'est à dire la probabilité d’être malade si le test est positif

et cette probabilité se calcule par le théorème de Bayes (cf lien que j'ai envoyé précédemment ) qui tient compte de la prévalence de la sensibilité et de la spécificité et pas seulement à partir du pourcentage de faux positif comme vous l'indiquez

BG a dit…

On n'y arrivera pas …
Ce que vous indiquez ce fait ainsi QUAND le taux de faux positifs est 50/999 pour rester sur l'exemple ou plus généralement P(T si nM) (positif si non malade).

Par contre, avec l'autre définition donnée d'ailleurs page 8 du lien de docpp [1]
« Attention: pour certains auteurs: taux de faux positifs = P(nM si T),

Vérifiez donc toujours la définition utilisée ! »

Ce taux donne sur l'exemple : 50/51=98%. Aussi, la probabilité P(M si T)=1-P(nM si T)=2% s'obtient directement à partir du taux de faux positifs. Je n'y peux rien c'est ainsi  et facile à vérifier il me semble, non ? Faites-le !!!

[1] http://www.iumsp.ch/Enseignement/pregradue/s_nspec.pdf

Aussi, avec cette définition du taux de faux positifs on a un indicateur qui est très signifiant de la valeur réel du test : 98% des positifs ne seront pas malades que chacun traduira aussitôt pas ''la probabilité d'être malade si positif est 2%'' sans avoir besoin d'aller chercher une formule de calcul à appliquer.

C'est d'ailleurs pourquoi, quand on pense que c'est cette définition qui est en vigueur, on traduit 5% de faux positifs par 95% de risque de tomber malade si positif, raisonnement qui n'est pas fondamentalement une erreur puisqu'il s'applique quand c'est cette définition qui est en vigueur mais pas si c'est l'autre.

Les deux définitions existent et cela est parfaitement reconnu. Allez donc le vérifier dans le cours de probas du lien de docpp ou encore sur Wikipédia. La médecine a choisi l'une d'elles mais ce n'est pas universel, c'est ainsi, d'où les confusions possibles.

Une des définitions est-elle préférable à l'autre ? C'est une autre question. Le premier avantage de la seconde est que le taux de faux positif est directement signifiant ce qui n'est pas le cas avec les 5% qui n'expriment rien de vraiment intéressant. Il faut tout un mixage de valeurs à travers Bayes pour trouver une valeur signifiante. Cela fait donc un avantage non négligeable qui évite en plus certaines erreurs.

En voici un autre : si au groupe servant pour l'étude du test et formé d'hommes de 60 ans (taux PSA) on ajoute des jeunes de 20 ans, ils seront tous négatifs et non malades. Leur présence va donc contribuer à abaisser la valeur P(T si nM) sans changer P(nM si T). On répondra alors qu'il faut les exclure de l'étude. OK ! Oui mais on peut très bien avoir des hommes de 60 ans qui, pour des raisons génétiques ou autres, vont être un peu comme des jeunes vis-à-vis du taux de PSA, c'est à dire négatifs et non concernés par la maladie. On ne peut a priori l'exclure. Il faudrait donc aussi les exclure. Oui mais on n'a aucun critère. Sauf qu'en limitant le taux de faux positifs à ceux qui sont positifs on les exclut automatiquement. Cette définition aura ainsi plus de chances de donner une valeur pertinente pour caractériser la valeur réelle du test.

Quand j'enseignais (en particulier les probabilités et statistiques mais je ne suis pas statisticien) et qu'un nouveau collègue statisticien venait d'arriver, je veux le brancher sur les statistiques médicales. Il me répond aussitôt en levant les bras : « On devrait interdire aux médecins d'utiliser la statistique ils font n'importe quoi avec ! » C'est loin d'être faux, j'en avais fait une communication affichée au congrès de la Sfsp à Lille en novembre dernier, communication très appréciée par certains congressistes épidémiologistes avec lesquels j'avais pu échanger[2].

A suivre, un autre exemple pour illustrer avec une définition complètement inadaptée pour classer le risque d'événements secondaires après vaccination par exemple.

[2] http://storage.canalblog.com/35/91/310209/69807497.pdf

BG a dit…

Un exemple pour illustrer avec une définition complètement inadaptée pour classer le risque d'événements secondaires après vaccination par exemple.

L'OMS a défini une classification avec un risque qualifié de très fréquent si supérieur à 1/10, fréquent si entre 1/10 et 1/100 … jusqu'à rare entre 1/1000 et 1/10000 puis très rare si inférieur à 1/10000. On trouve cela partout et c'est accepté par notre santé publique nationale. Cette classification du risque avait d'ailleurs été largement présentée dans le cadre de la vaccination dite pandémique. Personne n'a bronché sur cette définition.

Un labo va présenter un vaccin au ministre qui demande quel est le risque de décès avec ce vaccin. C'est très rare répond le labo, une chance sur 20000. Bien dit le ministre, allons-y, je lance une grande campagne (toute ressemblance … serait fortuite ….). On va vacciner 20 millions de personnes en peu de temps ce qui va faire 1000 décès. Avec ce risque qualifié de très rare on va avoir la certitude d'une très grave crise sanitaire avec possible mise en examen du ministre.

Où est l'erreur ?
On ne peut mesurer un risque sur sa SEULE probabilité mais au minimum sur cette probabilité multipliée par le nombre de vaccinations qui seront effectuées, ce qui s'appelle espérance mathématique en probabilités et cas attendus en épidémiologie. Les compagnies d'assurance ne se contentent pas d'évaluer la probabilité d'un événement grave mais essaient aussi d'évaluer le nombre de sinistrés qu'il faudra alors indemniser pour prévoir les provisions nécessaires. Sinon elles iraient toutes à la faillite. Sur invitation du président de ma mutuelle, un ancien prof de maths, j'avais pu assister à des exposés de ses spécialistes sur les méthodes mathématiques utilisées pour gérer le risque dans l'assurance. C'est déjà plus sérieux qu'en épidémiologie. Dans un cas le risque est financier pour l'assureur et dans l'autre il est seulement pour la santé des populations...

Cette classification du risque en matière de vaccinations est une aberration totale. On a peine à croire que des experts de classe internationale aient pu la proposer (l'imposer) sans avoir conscience du problème que je soulève ici, surtout avec l'affaire de la vaccination hépatite B en France. On pourrait s'interroger. Oui mais seulement en silence ...

Anonyme a dit…

Si malgré les critiques , le dépistage continue à être promu par les différentes autorités , n'est-ce pas aussi parce que des labos ont déjà d'éventuelles nouvelles solutions - discutables sans doute - à proposer ?

Dans une dépêche Reuters , faisant écho aux critiques formulées à l'encontre de la procédure d'homologation du "Provenge" - un vaccin autogène - il est mentionné : "Promising new agents for advanced prostate cancer include an oral drug from Medivation Inc called enzalutamide, in the final phase of clinical trials, and Zytiga from Johnson & Johnson, which won FDA approval in 2011. A vaccine that targets PSA, from Bavarian Nordic Immunotherapy, is in late-stage trials." cf http://www.reuters.com/article/2012/03/30/us-provenge-idUSBRE82T07420120330

BG a dit…

La valeur prédictive positive, c'est à dire la probabilité d'être malade si positif P(M si T) est sans doute l'indicateur le plus intéressant pour caractériser un test selon ce qui a été dit ici et j'y souscris volontiers. L'indicateur P(nM si T) c'est à dire le taux de faux positifs parmi les positifs aura la même qualité d'indicateur puisque leur somme fait 1. Le problème que je soulève ici est la représentativité de l'échantillon dont on dispose.

Pour que P(M si T) SUR l'échantillon corresponde au P(M si T) SUR la population générale il faut que l'échantillon de malades dont on dispose se comporte vis à vis du test de la même façon que l'ensemble des malades. De même, pour que P(nM si T) sur l'échantillon des non malades corresponde au résultat général il faut que les non malades dont on dispose soient un échantillon représentatif des non malades en population générale. Ces 2 conditions sont évidemment indispensables et n'ont pas été rappelées dans le liens donné par docpp, ce qu'on peut regretter car c'est important et pas forcément toujours réalisé.

Si de plus la probabilité P(M) observée sur cette échantillon est égale à la prévalence générale (aux variations aléatoires près) alors on peut obtenir P(M si T) très simplement sans passer par Bayes car la sensibilité et le pourcentage de faux positifs ne tombent pas comme ça du ciel et que pour les calculer il faut disposer des nombres qui peuvent donner immédiatement le résultat cherché SANS forcément passer par tous ces intermédiaires.

A priori il suffit de 2 nombres pour calculer P(M si T). Par exemple 60 positifs dont 3 malades donne aussitôt 3/60=0,05.

Calculons maintenant avec Bayes et un échantillon représentatif de 1000 personnes où on a eu 2 malades négatifs. On va alors calculer P(T si M)=3/5 puisqu'il y a 3 malades positifs parmi les 5 ce qui donnera le numérateur de Bayes : 3/5x5/1000=3/1000, la prévalence étant 5/1000 l'échantillon étant représentatif.

Puis on va calculer P(T si nM)=57/995 car il y a 995 non malades (nM) dont 60-3 positifs. Le dénominateur de Bayes sera : 3/1000+57/995x995/1000=60/1000.
En divisant le numérateur par le dénominateur de Bayes on va alors avoir le plaisir d'obtenir 3/60 !

Le calcul direct rapide fait au début est donc valable lorsque la prévalence théorique admise est égale au P(M) observé sur l'échantillon. Le recours à Bayes est donc inutile dans ces conditions. J'avais supposé implicitement que l'échantillon était représentatif comme dans l'exemple donné par docteurdu16 où il y avait 1 malade pour 1000 testés avec une prévalence générale de 1/1000. Dans ces conditions et même avec des faux négatifs le calcul que j'avais proposé est parfaitement valable.

BG a dit…

SUITE


Par contre ce n'est plus valable si la probabilité de tomber malade en population générale n'est plus celle de l'échantillon. Dans l'exemple du lien de docpp il y a 1000 malades et 1000 non malades soit 50% de malades mais la prévalence générale est prise à 1/10000. En pareil cas il faut effectivement recourir à Bayes mais à condition quand même que les échantillons de malades et de non malades soient chacune représentatifs séparément ce qui mériterait d'être plus souvent rappelé.

Je précise aussi que dans Bayes, si P(T si M) apparaît et est la sensibilité, la spécificité n'apparait pas directement et n'est pas indispensable car P(T si nM) s'obtient directement sur les données de l'échantillon des non malades (10/1000 pour l'exemple du lien). Il est donc inutile de passer par la spécificité 990/1000 pour ensuite faire 1- cette spécificité alors qu'on a le résultat sous les yeux mais c'est un détail. P(T si nM) est d'ailleurs le taux de faux positifs au sens utilisé en médecine, donc parmi les non malades. C'est un très mauvais indicateur des caractéristiques du test, comme la spécificité, ce qui est logique car ce n'est parce que les non malades ne réagiraient pas au test que les malades vont y réagir. Aussi, si on présentait au public un taux de faux positifs de 5% en pouvant laisser croire que le test dépisterait 95% des cas ce ne serait pas très honnête (cela se fait-il ?)


Cette discussion a plutôt été vive et il est sans doute dommage de monter un peu vite en décibels plutôt que d'essayer de comprendre ce que l'autre veut dire mais en définitive on voit bien qu'il y avait quand même des problèmes dans cette affaire et cela aura au moins permis de les faire apparaître comme l'importance de la représentativité pas si facile à réaliser en pratique. Sur un plan théorique il reste quand même comme étant un peu gênant que dans la formule de Bayes utilisée, P(T si M) soit une probabilité SUR l'échantillon et que P(M) soit une probabilité SUR la population générale et qu'on se permette de les multiplier alors qu'elles sont sur des espaces de probabilités différents. Kolmogorof, le mathématicien russe fondateur des espaces de probabilités, était très opposé à cela. Pour lui les probabilités devaient toujours être prises sur le même espace.

C'est pourquoi il serait préférable que l'échantillon soit globalement représentatif, ce qui rendrait Bayes inutile, mais c'est beaucoup demander en médecine avec des événements rares et même impossible souvent à réaliser. Alors on passe outre...ce qui se comprend aussi.

BG a dit…

Je prolonge la réflexion précédente.

Quand il faut utiliser Bayes on va le faire en estimant 3 probabilités sur 3 échantillons différents et indépendants : un échantillon de malades pour estimer P(T si M), un échantillon de non malades pour P(T si nM) et un échantillon de la population concernée pour estimer P(M). C'est ce qu'illustre l'exemple d'école du lien de docpp. Ces 3 échantillons devant être suffisamment représentatifs ce qui ne doit pas être si facile à réaliser. On mixe ensuite ces 3 estimations dans Bayes qui n'est plus un Bayes ''probabilité'' mais un Bayes ''statistique''.

Je voudrais souligner ici une conséquence importante de cela : une variation sur le choix d'un SEUL de ces 3 échantillons affectera un SEUL de ces 3 nombres alors que s'il était possible de disposer d'un échantillon globalement représentatif, une variation de cet échantillon pourra affecter simultanément TOUS les nombres en permettant ainsi des compensations qui limiteront les variations du résultat recherché.

C'est pourquoi il serait bien préférable de pouvoir disposer d'un échantillon globalement représentatif. Je rappelle qu'alors il permet l'estimation directe de P(M si T) et que le recours à Bayes est inutile et donnera le même résultat, ce n'est pas un poisson d'avril ! (démonstration générale facile : dans mon exemple avec 5 malades dont 3 positifs etc il suffit de remplacer les valeurs numériques par des valeurs littérales. ). De plus, comme le calcul est alors beaucoup plus simple il devrait être plus facile de gérer les effets des variations aléatoires sur le résultat, ce qui n'est pas négligeable non plus.

Ceci dit, il faut reconnaître que pour une maladie rare un tel échantillon peut être matériellement difficile à obtenir. Il ne faut pas non plus se dissimuler que des échantillons représentatifs de malades, de non malades et de la population visée ne sont sans doute pas non plus aisés à obtenir. Les comités d'experts ont toujours avancé les biais de sélection pour critiquer les études significatives sur la SEP et la vaccination hépatite B. Ils existent d'ailleurs tout autant dans celles qui ne sont pas significatives mais ils n'en parlent pas.

BG a dit…

@ docpp
Quand vous me dites « vous n'allez quand même pas prétendre réinventer le calculs des probabilités » je pourrais vous répondre que c'est la médecine qui réinvente le calcul des probabilités, au moins pour une part sous la contrainte de l'impossibilité matérielle d'avoir des échantillons suffisants et aussi du désir d'avoir malgré cela des résultats à annoncer.

Ce que dit le calcul des probabilités (j'ai quand même enseigné cette spécialité) c'est que toutes les probabilités doivent être prises sur le même espace de probabilités. Ce qui signifie, pour notre problème, qu'il faudrait un échantillon suffisamment représentatif et assez grand de personnes testées pour pouvoir y estimer TOUTES les probabilités nécessaires.

Le procédé qui consiste à aller chercher 3 probabilités dans 3 échantillons de nature différente et indépendants pour ensuite les combiner entre-elles n'est pas normalement autorisé et j'ai donné une raison pour cela (une variation sur un échantillon ne peut se répercuter sur les autres). Ayant été formé par la rigueur des maths je n'aurais jamais pensé faire une opération aussi douteuse. C'est pourquoi je n'avais pu imaginer que c'était cela qui se faisait en médecine, d'autant que l'exemple de docteurdu16 portait sur un seul échantillon, jusqu'à ce que j'aille regarder l'exemple de votre lien. Je comprends qu'il ne soit pas toujours possible de disposer de l'échantillon qui éviterait cette opération peu licite et je ne porte aucun jugement moral mais il faudrait que vous sachiez que ce n''est pas satisfaisant et qu'il n'est pas possible d'invoquer le calcul des probabilités pour le justifier. C'est seulement un calcul par défaut, c'est tout.

Cela me rappelle quand je lisais ''on résoud'' avec un d dans les copies des étudiants et que je m'empressais d'expliquer, avant que les étudiants rigolent, que je ne faisais pas une faute d'orthographe en écrivant ''on résout'' avec un t au tableau. Je dois expliquer ici que ce n'est pas moi qui faisait une faute technique en supposant que tout ce passait sur le même échantillon, auquel cas le détour par Bayes est inutile. Il faudrait que ça puisse être la norme. Peut-être qu'avec l'informatisation des données il deviendra possible un jour d'avoir de grands échantillons, il faut le souhaiter.

BG a dit…

Je voudrais apporter des précisions sur ce commentaire de CMT sur le risque de tomber malade si positif à un test :
« Les risques (de tomber malade si positif) sont proportionnels à la prévalence de la maladie dans la population. C'est à dire, que même avec un test très performant, plus la maladie est rare, plus la probabilité d'être réellement malade en cas de test positif diminue. »

Prenons une susceptibilité de 0,99 et une sensibilité de 0,95. Si la prévalence est 10% le risque de tomber malade si positif est 91,3%. Si la prévalence est 5% donc divisée par 2 il devient 83,3% qui est plus faible mais pas du tout divisé par 2. Avec une prévalence de 1% (divisée par 10) on a 49% ; avec 0,1% (divisée par 100) c'est 8,7% et avec 0,01% ( divisée par 1000) c'est 0,94% soit à peu près le centième de 91,3%. On est donc très loin d'une évolution à la proportionnelle.

On voit que la valeur prédictive positive n'est pas du tout proportionnelle à la prévalence. On peut seulement dire qu'elle est une fonction croissante de la prévalence.

Il y a cependant 2 cas particuliers : si la somme de la sensibilité et de la susceptibilité vaut 1 alors la valeur prédictive positive est égale à la prévalence.
Si la susceptibilité vaut 1 cette valeur prédictive est alors indépendante de la prévalence et vaut 1. Ce n'est sans doute pas fréquent mais suggère quand même que si la susceptibilité est très élevée (donc très peu de non malades positifs) le risque de tomber malade si positif sera malgré tout non négligeable : si la susceptibilité vaut 99,9%, la sensibilité 0,95 et la prévalence 1/1000 c'est quand même près de 49%.

JC GRANGE a dit…

@ BG. Je vous l'ai déjà dit une fois mais vous êtes un casse-pied de première et un enfumeur dans le même métal. Grâce à Vincent Terrisse, fidèle lecteur et... critique de ce blog et d'autres écrits que je laisse ici et là sur les forums, il m' a communiqué deux cours de Stanislas Dehaenne qu'il a faits récemment au Collège de France. Dans le premier que vous trouverez ici http://www.college-de-france.fr/site/stanislas-dehaene/cours-du-24-janvier-2012-.htm il répond à vos questions sur le calcul bayésien et sur bien d'autres choses (vers la quinzième minute il donne un problème identique à celui que j'avais proposé). Le second cours rend compte de ce qu'est le calcul bayésien. Je conçois que vous connaissez tout cela par coeur mais une relecture vous ferait du bien. http://www.college-de-france.fr/site/stanislas-dehaene/Cours_du_10_janvier_2012_Intro.htm
Bonnes séances.