Massacre d’une vulgarisation des statistiques
Révélant l’abus, total
11-21/09/2021, par Uvan Duh

  J’avais vu que, dans la série de livres « Le monde est mathématique » (dont une petite moitié de titres m’intéressait), un tome était consacré à la statistique, sujet qui me tient à cœur, puisque j’en ai démoli une bonne partie. Finalement, après des années, je l’ai acheté d’occasion, bon marché, je vais le discuter ici (et il va s’avérer que cette discussion est une démolition, ou extermination comme à la mitrailleuse…).
• « [p0] La certitude absolue et autres illusions. Les secrets de la statistique. (…) [p5] Les percées scientifiques, comme l’existence du boson de Higgs ou la découverte de l’expansion accélérée de l’Univers (…) ont utilisé des modèles statistiques pour établir que les résultats n’étaient pas de simples artefacts de mesures imprécises. [p11] il existe de nombreux domaines où la statistique joue un rôle fondamental pour l’avancée des connaissances. »
--> J’interromps déjà la lecture, je suis en désaccord : je n’ai encore jamais vu de statistique apportant une connaissance (objective), toutes ne semblent que conforter des croyances (subjectives), abusivement, en interdisant de douter des prémisses déclarées obligatoires, subjectivement. Cela part mal, mais effectivement, je n’ai lu là que préface et introduction, pas encore l’argumentaire sérieux, qui pourra s’avérer probant, ou faux, à suivre. A première vue, je doute : cette prétendue validation me rappelle les fausses démonstrations de linéarité, que j’ai démolies : elles ne faisaient que rejeter l’hypothèse « nuage de points aléatoires n’importe comment », sans aucunement valider le suivi d’une droite, clairement enfreint dans certains cas prétendus validés, prouvés, pierre apportée à la connaissance (faussement).
• [p12] « Il s’agit donc d’avancer dans les connaissances à partir de l’observation et de l’analyse de la réalité, d’une manière intelligente et objective. Telle est l’essence de la méthode scientifique. »
--> J’ajouterai la précision qui tue : « la méthode scientifique… que j’ai réfutée ». Il n’y a pas de connaissances car il n’y a aucune démonstration de réalité, aucun rejet valide de l’hypothèse du rêve (Descartes s’est planté totalement avec cascade d’illogismes pitoyables). Ce livre mériterait la poubelle direct, pour cette mise en perspective, mais je vais quand même voir si sont commises les erreurs mathématiques et logiques habituelles.
• [p24-25] est présenté le mode de calcul de l’écart-type, classique, avec n pour population et n-1 pour échantillon, et l’explication dit que n est trop donc on prend n-1.
--> C’est une fausse démonstration d’escroc : sur le plan de la direction, effectivement diviser par n sous-estime pour un échantillon mais pourquoi le facteur n/(n-1) corrigerait-il pile cela ? Ce n’est pas dit, pas discuté, pas prouvé du tout, et en donnant une formule que j’ai prouvée fausse, mathématiquement fausse, mais affirmée mathématiquement vraie sans démonstration, scandale ! La statistique est une escroquerie, totale ! Le vrai calcul, osant poser les inconnues une à une montrerait que le résultat à rendre est différent selon que l’échantillon est composé avec remise et sans remise, et donner une formule pour deux résultats distincts, c’est n’avoir compris rien de rien. Pire : les formules justes que j’ai découvertes indiquent qu’on ne peut pas calculer l’écart-type sur échantillon si on ne connait pas l’effectif de la population, ce qui révolutionne totalement la statistique dans son ensemble. Oui, mais ce n’est pas fait, oui mais c’est faux, affirmé vrai, immensément rares étant les esprits logiques osant douter des leçons parachutées par les autorités professorales, menteuses, répéteuses d’erreurs incomprises. Bouh, la honte ! (Et ce livre n’a rien compris non plu’. Or non, pas du tout, la mathématique ce n’est pas répéter illogiquement les trucs peut-être faux, c’est aller à la logique pure faisant qu’on comprend ce qu’on dit, en pouvant le prouver précisément, en avouant en clair les axiomes librement choisis. Ce livre est immensément décevant, nul, comme les cours universitaires de statistiques, certes, à l’intention des médecins ou pharmaciens, éduqués à la stupidité fière, c’est affligeant. Si j’étais vulgaire, je dirais que c’est mathématiquement une merde, ce livre, voire les statistiques en général).
• [p60-61] La loi de Poisson est présentée en équation en disant qu’elle donne la probabilité de tel truc dans tel cas. Sans argument ni justification.
--> Avec zéro argumentation, c’est entièrement déniable et simplement je répondrai « j’y crois pas ». La mathématique c’est une démonstration où chacun voit que c’est imparable. « Entendre dire que » (telle formule compliquée donne la réponse vraie à telle question) ce n’est pas de la mathématique mais du ouï-dire pour adhésion de type religieuse ou obéissance de type militariste, c’est nul intellectuellement et logiquement. Comme ce livre (et l’enseignement de « maths appliqués à la biologie » que j’ai reçu à l’université française, débilitante et prétentieuse à tort).
• [p63] La loi normale de Gauss est pareillement présentée en disant qu’elle donne la probabilité de tel truc. Sans argument ni justification. Citant seulement des célébrités autrefois ayant popularisé cette loi.
--> C’est mathématiquement nul, avec zéro raison d’y croire. L’intelligence critique est court-circuitée par de telles affirmations parachutées, faisant appel à un esprit de récitation, quasi animal, à la place de l’intelligence humaine, démonstrative.
• [p68] « Si le poids des paquets de sucre suit une loi normale présentant une moyenne de 1000 grammes et un écart-type de 5 grammes (…) nous pouvons affirmer qu’environ 95% des paquets ont un contenu inférieur à (…) »
--> C’est de la théorie fumeuse, hors sujet pour les paquets de sucre : on ne connait en rien la loi que suit le paramètre considéré. Tirer les conséquences de ce faux savoir n’est pas pouvoir « affirmer » (comme indubitable) : l’hypothèse de départ est toute pourrie. Si une machine à emballer le sucre donne telle répartition mesurée, des tests existent pour dire si ce n’est pas une loi normale, mais je ne connais aucun test prouvant que c’est une loi normale. A suivre, pour l’instant c’est nul, idiot, inapproprié à un cours démonstratif.
• [p70] « un bon modèle de référence permettant de réaliser, avec toute la précision nécessaire, des estimations sur les valeurs (…) il n’est qu’un modèle théorique qui ne coïncide pas exactement avec la réalité.(…) comme les hypothèses émises ne se vérifient pas avec exactitude, elles ne sont que des modèles (…) mais extrêmement utiles. »
--> Le drame est là : ça ne colle pas, et ce qu’on va chiffrer ultra-précisément sera donc mathématiquement faux, mais affirmé (par parole parachutée) « environ » juste, donc déjà très utile sans couper les cheveux en quatre pour la n-ième décimale. En fait non : ce n’est pas la n-ième décimale qui est douteuse mais tout le chiffrage intégralement. Crédibilité : zéro, ce n’est en rien de la mathématique, mais du tâtonnement pifométrique à tort affirmatif de rigueur indubitable. Le principal scandale statistique semble là. Pas vu par l’auteur (et par les professeurs).
• [p77] « L’étude d’un ensemble à partir d’une partie (…) tout cela n’est vrai que si l’échantillon est représentatif de la population tout entière. »
--> Là, c’est l’escroquerie des statistiques inductives : affirmer l’échantillon représentatif simplement parce qu’il a été sélectionné apparemment au hasard. Je prendrais un exemple : sur une population de 1000 trucs, on prend un échantillon de 100 trucs avec pour guide une table de nombres aléatoires, commandant « sélectionné » ou bien « non sélectionné », arbitrairement. Or cette population a 999 valeurs entre 3 et 4, 1 valeur à 800 ; si l’échantillon inclut la valeur 800, l’importance de ce cas va être très surestimée (ce n’est pas représentatif), et si l’échantillon n’inclut pas la valeur 800, ce cas sera affirmé quasi impossible, ce qui est faux, non représentatif. Il n’y a pas de miracle à attendre de calculs à ce sujet, le principe de l’échantillonnage tronque gravement l’ensemble et fait perdre de la connaissance (la connaissance affirmée en partant de l’échantillon pour affirmer la population sera fausse). Certes, j’ai appris à l’université les « tests de valeur aberrante », mais c’est faux sur le principe : rien n’indique qu’une valeur très décalée est un artefact venu d’une erreur de mesure donc à ne pas sélectionner, telle peut être la population, non normale-gaussienne.
• [p78-82] Est présenté le cas de pêche et repêche, considérant que les poissons marqués dans la première pèche se sont répartis au hasard dans la population avant la seconde pèche. « (…) un petit programme informatique simule (…) la valeur moyenne estimée correspond à la valeur réelle. »
--> Non, rien ne prouve que le temps (entre les deux pêches) entraine un brassage formant mélange totalement aléatoire (la pertinence du comparateur informatique n’est pas établie). On peut l’imaginer mais on peut se tromper. Le hasard désigne ici une non-connaissance des détails vécus par chaque poisson, affirmer que sans s’intéresser à ce vécu on connait le résultat n’est pas convainquant. C’est poser un arbitraire, non accéder au « réel » indiscutable. Je dirais d’ailleurs « au vrai », la question du réalisme abusif n’étant pas obligatoire du tout. Philosophiquement, c’est un parti pris, matérialiste, choisissant de refuser les hypothèses religieuses (Dieu décide de tout) et sceptiques (le rêveur décide de tout). Globalement (en amont de tout parti pris), la valeur de cette estimation est nulle. Un test pratique pourrait donner raison à l’estimation mais sans rien prouver, Dieu ou le rêveur pouvant avoir cette fois la fantaisie de faire semblant de suivre la loi des matérialistes imbéciles, tout en pouvant faire autrement la prochaine fois, donnant tort aux affirmations scientistes de vérité éternelle indubitable. Ce n’est pas prouvé mais ce n’est pas impossible : la sagesse est dans le doute, non dans l’affirmation catégorique.
• [p82] « (…) un bon exemple de la manière dont les statistiques peuvent résoudre des problèmes qui semblent très difficiles au premier abord, voire insolubles. »
--> Faux ! C’est un jeu de mots sur le mot « résoudre » (ou solutionner) : en mathématique, on résout une équation si on trouve la solution de manière totalement logique, indéniable. Ici au contraire, plein d’approximations pifométriques et choix philosophiques bestiaux conduisent à répondre « quelque chose », prétendu davantage crédible que « n’importe quoi », c’est une opinion (de crédule auto-satisfait), pas du tout un savoir indubitable (vainquant l’intelligence critique).
• [p85] « Mais quelle est la qualité de cet estimateur ? On peut démontrer (comme le fait la statistique mathématique) qu’ (…) c’est le mieux que l’on puisse faire. »
--> Il faudrait lire la démonstration en question pour en juger, en entendre parler est nul totalement, surtout depuis que j’ai prouvé erronée la loi (prétendue démontrée) sur l’écart-type estimé. La plupart des scientifiques sont des escrocs cachant leurs erreurs pour maximiser le fric empoché, il n’y a nullement à les croire sur parole. Seule la démonstration pas à pas, indubitable, peut convaincre honnêtement, sans abus de pouvoir. Plus précisément, dans ce cas très particulier, je doute très fort du « mieux possible » : est-ce que l’intégralité des possibilités a été examinée ? comment serait-ce prouvé ? A priori, je doute, je n’y crois pas, si c’était mathématique je pourrais être convaincu mais pas du tout par ce bla-bla prétendu formateur, en fait informateur (de mensonges éventuels qui seraient affirmés vrais).
• [p88] « La marge d’erreur se calcule pour un niveau déterminé de confiance, qui est habituellement de 95%. (…) C’est comme si une personne disant la vérité dans 95% des cas nous confiait cet intervalle. Nous pourrions être plutôt sûrs qu’il dit vrai, mais pas totalement. »
--> Le début est doublement faux : la valeur de confiance est un paramètre interne aux chiffrages, n’ayant généralement aucun rapport avec la probabilité globale d’avoir raison : est comptée zéro la probabilité que l’échantillon n’est pas représentatif, zéro la probabilité que la distribution ne soit pas normale (non pas prouvée anormale mais incertaine et en fait prouvable anormale si on avait immensément davantage de mesures), alors le 5% de risque qui reste est immensément sous-estimé, pour donner fausse certitude contentant les demandeurs de statistiques, et garantissant hauts salaires aux statisticiens menteurs, ayant répondu comme c’était voulu, même si c’est faux. Par ailleurs, la confiance 95% (risque 5%) est totalement arbitraire : si vous avez 5% (= 1/20) de probabilité de mourir chaque fois que vous respirez une bouffée d’air, c’est un risque intolérable, immensément trop élevé. L’habitude de chiffrage traditionnelle n’est pas une justification convaincante, c’est faire « quelque chose » un peu souvent pareil sans faire n’importe quoi chaque fois ; force persuasive : zéro (du genre : à la question « pourquoi ce chiffre ? » serait donnée la réponse « pourquoi pas ? »). La tradition n’est par ailleurs pas un argument : la tradition c’était l’esclavage, le droit de cuissage, etc. ce n’était en rien un argument pour continuer. C’est ce que dit l’intelligence critique, osant le doute, contrairement à cet ouvrage de propagande ou endoctrinement au suivisme abruti.
• [p88 bis] « On peut également calculer des intervalles de confiance de 99 ou 99,9%, mais on ne procède généralement pas ainsi (…) il ne servirait à rien de déclarer avec beaucoup d’assurance que la proportion recherchée se situe dans un intervalle de 51,9±40%. Aucune étude ne s’y risquerait. »
--> C’est un des problèmes : les statistiques ne visent nullement à dire la vérité mais à dire ce que veulent les demandeurs, quitte à se tromper. Ce ne sont pas des mathématiques rigoureuses mais du bidouillage, parodie de mathématiques (suivies sur une micro-portion du chemin, avec plein d’arbitraires en amont et en aval, ruinant la crédibilité globale).
• [p90] Est donnée la formule définissant la taille de l’échantillon correct en fonction de la population, de la confiance souhaitée, de la proportion à estimer.
--> Je ne suis en rien de rien convaincu : quelle est la preuve que cette formule dit vrai ? Et comment est pris en compte le point rédhibitoire que je signalais avec la page 77 ? Cela semble un calcul exclusivement relatif à un certain modèle de hasard et de distribution, faux le reste du temps, mais pas envisagé puisque sans démonstration avouant ses prémisses arbitraires.
• [p92] « Incroyable ! La taille de l’échantillon ne dépend presque pas de la taille de la population. (…) Faut-il rajouter du sel à sa soupe ? (…) Nous utilisons tous la même cuiller et prenons tous la même petite gorgée, que la marmite soit grande ou petite. (…) »
--> C’est une erreur de modélisation abusivement généralisée. Dans une « solution, bien agitée », il y a partout les mêmes concentrations, mais c’est très différent avec des matières moins homogènes. Si dans une grande marmite, les légumes fibreux sédimentent au fond, et brûlent sur la face arrière moins ventilée, il se crée des gradients partout à l’intérieur et la petite cuillère sur le dessus dira faux globalement, passant totalement à côté du sujet, sans le voir, et en l’affirmant « mathématiquement » vrai, or c’est faux. L’industrialisation faisant passer de petit (en recherche exploratoire) à grand (en échelle industrielle vendable), c’est un domaine immense, plein de surprises, l’affirmation du (mauvais) mathématicien parlant exclusivement de sa solution homogène est de l’incompétence, crasse.
• [p94] « Pourtant, il est nécessaire de s’assurer que l’échantillon est représentatif. »
--> Je serais immensément intéressé si était énoncée une façon de vérifier cette représentativité, que je n’ai jamais jamais vue tester, en des milliers d’études statistiques universitaires et industrielles. Partout, il est affirmé qu’il y a prise au hasard « donc » c’est représentatif, c’est faux. Certes, éviter un biais visible va dans le bon sens de représentativité, mais ça ne garantit en rien que l’échantillonnage n’a pas été biaisé par un paramètre non pris en compte. Comme souvent en science, le scepticisme dubitatif a raison, quand le scientisme qui fonce dans la certitude s’avère souvent a posteriori avoir eu tort (sans le dire trop fort, la domination présente est en jeu…).
• [p111-113] D’accord le livre condamne les fausses démonstrations par non-significativité, en reconnaissant que c’est subtil.
--> C’est bien, ça. Même s’il n’est pas expliquée l’aberration totale de passer outre comme le fait l’industrie hélas. (S’appuyer pour accepter sur un petit risque de rejet à tort, sans comprendre qu’il va dans le sens d’un fort risque en acceptation à tort.)
• [p120] Est abordé le cas des validations de vaccins, mais uniquement sur le volet efficacité.
--> Ce volet efficacité sera sans problème (avec hypothèse nulle « sans effet »), mais le problème colossal est le volet innocuité (problème ultra-majeur en 2021 avec les vaccins anti-covid19 forcés très prématurés ; certes le livre a été écrit apparemment en 2010 mais je dénonce le problème de principe depuis les années 1980). En effet, sous hypothèse nulle très quantifiable « aucun effet », la prétendue validation d’innocuité serait acceptation de l’hypothèse nulle, ce qui constitue une faute lourde (cf. p111-113). Ce n’est pas « absurde » hélas quand cela est officiellement pratiqué, en désignant comme « irrationnels » ceux qui objectent. C’est du faux et usage de faux, financièrement intéressé (donc escroquerie en bande organisée), et pouvant tuer plus de la moitié de l’humanité ǃ Problème numéro 1 du monde ǃ De l’importance capitale des stats mal comprises, il était là le sujet majeur ǃ
• [p121] Il est annoncé que pas seulement l’efficacité sera montrée mais aussi l’absence d’effets nocifs.
--> C’était intéressant, à suivre, mais la suite sera immensément décevante jusqu’à la fin du livre. L’avoir affirmé possible semble un mensonge, un oubli de réfléchir.
• [p123] Expression hyperréaliste : « présentent des résultats réellement différents (…) nous ne sommes pas sûrs que l’une soit réellement meilleure que l’autre ».
--> C’est un point de vue choisissant le réalisme sans justification. Le problème est le même en rêve, et rien n’indique si ici est un rêve ou non. Il aurait mieux valu employer l’adverbe vraiment.
• [p124] « Il a été vérifié avec certitude que le vaccin est efficace. »
--> C’est faux. Cette conclusion ne concerne que les matérialistes, refusant arbitrairement les idées d’un Dieu tout puissant (pouvant donner sur cet essai l’illusion que le vaccin est efficace) ou d’un moi rêveur très puissant (même situation possible).
• [p129] « Néanmoins, les données disponibles montrant clairement, au-delà de tout doute raisonnable, que le tabac est un facteur important de risque de cancer du poumon. ».
--> C’est faux : les hypothèses de Dieu et du rêve ne sont en rien irrationnelles, et il est irrationnel que les matérialistes s’attribuent le monopole de la rationalité.
• [p129 bis] « C’est aujourd’hui une évidence mais cela n’a pas toujours été le cas, et les statistiques ont été les premières à offrir des arguments pour montrer sa véracité. »
--> Faux : il ne s’agit pas de véracité absolue mais véracité relative. Relative au groupe dominant actuellement : les scientistes, et non plu’ les religieux. Avec relativisme, c’est tout nul. Et logiquement, mathématiquement, il faudrait expliciter les axiomes (facultatifs) que l’on a pris pour arriver à tel jugement. Ici cela n’a pas été fait : ça ne vaut rien.
• [p129-130] « le hasard, paradoxalement, est un bon outil pour garantir l'équilibre entre les deux groupes »
--> C’est faux. Prenons une population de 100 cas avec 99 normaux (valeur mesurée : 2 à 4) et 1 très anormal (valeur 100) ; prendre deux échantillons risque d’avoir ou non la valeur anormale qui va déséquilibrer totalement la comparaison, pareillement qu’on le fasse par tirage au hasard ou par guidage précis par thème astrologique ou autre. Quand la population n’est pas équilibrée, le tirage au sort ne génère pas l’équilibre, c’est faux.
• [p135-139] Un exemple d’étude est donné pour vérifier ou infirmer que les piles chères durent plus longtemps. A tester avec analyse statistique.
--> Le détail semble mal analysé, vue la publicité pour une pile spéciale qui « ne s’use que si on s’en sert ». Habituellement, la durée d’une pile dépend en partie de son temps d’attente entre fabrication et achat/test, qui produit un début d’usure, c’est un paramètre oublié par l’auteur.
• Bilan : ce livre cache les problèmes inhérents aux statistiques, qui affirment abusivement, presque toujours au moins. (Commentaire de lecture, que je mettrai peut-être en avis chez le vendeur Rakuten : ouvrage mal pensé mais intéressant, permettant à peut-être 0,1% des lecteurs, anormalement logiques, de démonter le scandale des statistiques, grave, pouvant exterminer l’humanité prochainement, c’est un sujet d’intérêt colossal, mais pas signalé par le texte publié.)