Je réexplique pourquoi les « validations par non-significativité » constituent un énorme scandale

(par CME, 07/02/2015)

Dernier ajout

Résumé : « la différence n’est pas significative donc c’est bon » n’est pas une conclusion mathématique mais une escroquerie, courante, officielle. C’est simple à prouver, mais les « grands » qui nous gouvernent semblent des autruches ou des bandits, en costume de très grande classe.

   [Je crois que j’ai déjà trente-six fois écrit ce site ou l’équivalent mais je recommence encore une fois à l’expliquer, posément, le plus simplement possible, car c’est une toute simple affaire de logique, aucunement une pure affaire de spécialistes férus d’équations et de calcul complexe.]
   Je pense cette fois à une amie, Christine, ex-collègue technicienne devenue chef (bravo, même si j’ai pour ma part toujours refusé les promotions, elle semble contente et c’est bien), je voudrais juste lui signaler (ou re-signaler) une grave erreur prétendue Qualité, qu’elle sera peut-être amenée à signer, à entériner. Et puis une discussion technique avec une collègue d’un autre département, Marie-Laure, m’a indiqué le détail selon lequel « valide » son service, prétend valider, et ça m'a rappelé qu’on ne m’invite plus du tout aux cessions organisant ces validations, cessions où mes objections dérangeaient, ralentissaient (invalidaient si on m’écoutait)… Enfin, une réorganisation de bureaux m’a remis en mémoire que personne n’a jamais répondu au mail où j’expliquais que je pouvais aisément prouver invalides les démonstrations de compatibilité, que va alimenter de données expérimentales ma collègue Nadège maintenant à deux mètres de moi.
   Enfin, le mot « scandale » du titre prête peut-être à malentendu : il ne s’agit pas ici de croustillante affaire de mœurs d’une célébrité de tout premier plan, il s’agit simplement de tout un vaste système, organisé, de fraude pseudo-scientifique, pour faire du fric en prétendant à tort à la rigueur incontestable (ou raisonnable), à la qualité (optimale ou satisfaisante), avec la complicité des autorités mondiales (à majorité antipopuliste occidentale).
Contexte
1/ Le faux principe illusoire
2/ Le vrai principe cassant tout
3/ Les conséquences insupportables

Contexte
   Je ne veux pas ici dénoncer telle entreprise ou telle petite branche partielle, car on m’a répondu « les autres font pareil que nous ! » (et j’ai toutes raisons de penser que c’est vrai, hélas), et je perdrais mon emploi, d’où ruine familiale et pire. C’est plutôt un « devoir de conscience », un aveu très nécessaire psychologiquement, je le vis en tout cas comme une question de principe, une rancœur tenace, que je défoule encore, pour ne pas craquer. Et ça me paraît un milliard de fois plus important que les bla-bla divers qui occupent les débats télés ou congrès prétendus scientifiques (le prestige des blouses blanches est entièrement usurpé, du moins dans les sciences de la vie), alors je mets ça sur Internet, comme une bouteille à la mer.
   J’ai été confronté dans ma vie de technicien biologiste-biochimiste à 4 fois la même horreur mathématique, pour moi insupportable, et qu’on m’a fait avaler en disant toujours « il faut faire confiance aux collègues mathématiciens professionnels, il faut coopérer, pas se tirer dans les pattes ! ». Eh bien non : avec le recul et preuve maintenant solide, j’affirme que ces mathématiciens pratiquent la faute professionnelle au quotidien (on m’a certes dit, en réunion de conciliation, que tout s’améliorait mais je le retrouve chaque jour : ça continue entièrement). Ce n’est d’ailleurs peut-être pas la faute des biomathématiciens, car ils semblent avoir été formés comme cela, pour répondre à un besoin de l’industrie, un besoin inavouable : la fausse validation, autrement dit le mensonge, organisé, camouflé (au nom fallacieux de la difficulté mathématique, domaine ardu qui serait réservé à quelques experts pointus).
   Ces 4 horreurs ont été :
- « la réunion de sous-lots en lots », au nom de « il n’y a pas de différence significative (entre sous-lots), avec risque inférieur ou égal à 5% » [dans mon ancien département, dans la société rachetée par mon présent employeur] ;
- « l’équivalence entre technique alternative et technique de référence », au nom de « il n’y a pas de différence significative, avec risque inférieur ou égal à 5% » [Christine a été témoigne de cela, on travaillait à fournir les données d’entrée expérimentales pour ce calcul, même si je disais que celui-ci constituait une faute de raisonnement, avant d’être muté ailleurs pour raison de réaffectations budgétaires] ;
- « la linéarité de mesure est démontrée », au nom de « il n’y a pas de différence significative (avec la droite optimale) avec risque inférieur ou égal à 5% ».[dans le domaine chimique, j’avais contourné cette erreur en inventant la solution mathématique facile, mais elle s’est perdue quand un pharmacien est venu au nom de la Qualité imposer les lourds standards officiels, qu’il avouait ne pas comprendre de manière précise mais disait « admis par tous »] ;
- « la compatibilité de ce produit avec telle source est démontrée », au nom de « il n’y a pas de différence significative (avec la source de référence), avec risque inférieur ou égal à 5% » [routine maintenant à deux mètres de ma chaise].
   Pour deux de ces horreurs, il ne s’agissait pas d’éventuel bidouillage « maison » ayant l’allure du solide, mais d’une application parfaitement rigoureuse de normes officielles de « qualité » officielles internationales (ISO). J’en ai acheté une à la maison, après sa récente révision officielle, même si ce n’était plus mon domaine professionnel d’application, et l’erreur était répétée, encore davantage camouflée par un nouveau mode de calcul extrêmement méconnu, j’ai répondu à la fiche enquête que c’était une faute totale et qu’il fallait cesser les validations par non-significativité. Evidemment, je n’ai jamais reçu de réponse…
   L’horreur super-rentable qui me semblerait justifier ces hérésies serait un 5e point, similaire, encore plus grave :
- « tel médicament (ou produit chimique) n’est pas nocif/dangereux », au nom de « il n’y a pas de différence significative (avec la morbidité/mortalité spontanée) avec risque inférieur ou égal à 5% ».
   Il est même possible que la quasi-totalité de la consommation moderne occidentale soit concernée, par un 6e point, si est pratiqué le similaire :
- « tel yaourt est démontré mangeable 30 jours après fabrication », au nom de « il n’y a pas de différence significative (avec l’état initial ou l’état de référence considéré bon) avec risque inférieur ou égal à 5% ».
   Oui, c’est potentiellement une affaire de santé publique, un énorme scandale de santé publique (pour les réalistes), voire une affaire de milliers de milliards de dollars/euros volés discrètement, quitte à tuer un petit peu de patients/clients (sans le dire bien sûr), ce ne serait pas seulement une honte en matière de logique logicienne (ce qui me scandalise surtout, personnellement, puisque je ne suis pas sûr qu’autrui existe). Potentiellement, c’est aussi une affaire de politique ou géopolitique, puisque ça confirmerait là encore que l’Occident est pourri menteur voleur (ou idiot), en prétendant le contraire la main sur le cœur (et en prétendant à l’intelligence supérieure, « légitimant » nos privilèges), ce que ne disent actuellement que les islamistes, voire les Russes, nos ennemis (et que je n’approuve pas non plus, je suis neutre, pacifiste, ou plutôt : défaitiste anti-tous).

1/ Le faux principe illusoire
   Les statistiques sont présentées (semble-t-il jusqu’à aujourd’hui) avec l’absurdité gaussienne qui appelle l’étudiant à s’en remettre à des tables et recettes incomprises, non vérifiées par lui-même (donc à saborder son esprit critique, renoncer à son droit d’examen, son droit de « ne pas croire », pour se constituer « valet des autorités dites expertes » – avec bâton et carotte, ça marche super…). Là est je pense la source du problème inhérent aux biomathématiques : on diplôme les bons-applicateurs de trucs incompris, et les professionnels sont donc totalement désarmés (donc choqués) quand un esprit libre démontre la fausseté de ce qu’ils font (avec autorité et étouffement, ça reste bloqué tranquille, ils n’ont rien à craindre). Personnellement, je n’ai nullement été avide d’ « apprendre » à faire des statistiques, pour faire savant/puissant ou devenir riche, j’ai toujours perçu les statistiques (inductives) comme une absurdité scandaleuse : comment peut-on prétendre connaître une population entière au simple vu d’un échantillon réduit ? En fait, ce n’est pas illogique, tout repose sur la notion de « risque d’erreur ». Effectivement, on ne connaît pas, on parie seulement, en avouant sa probabilité d’erreur précisément chiffrée (à quelques objections près, ce n’est pas ici le sujet), mais j’ai été particulièrement vigilant sur la logique rigoureuse s’appliquant à ce niveau, en y faisant preuve au maximum d’intelligence critique, de suspicion jusqu’à démonstration effective. En études universitaires, c’était parfait (quoique, en études médicales, un enseignant m’avait rétorqué qu’il fallait ici comme en Pharma apprendre très fort et surtout ne pas réfléchir/objecter, donc j’en conclus que les docteurs et pharmaciens sont sélectionnés comme des ânes… mais en études de technicien, les maths étaient assez logiques, merci encore à mon professeur, Alain Cerf). Toutefois, en arrivant employé dans l’industrie : catastrophe ! mensonges (méprisant les objections classées nulles sans examen) ! les supérieurs hiérarchiques (pharmaciens et ingénieurs biologistes) ne voyaient pas le problème énorme ruinant notre crédibilité, ils refusaient de me suivre en préférant la réponse officielle des vrais mathématiciens, et des textes officiels faisant référence (que je pouvais prouver faux, ce que j’ai maintenant fait, à la maison, au cours de mes trente ans de vie professionnelle). On me dit que je n’ai pas à me sentir complice, car j’ai fait ce qui convenait à mon niveau, en signalant l’anomalie, maintenant le sujet appartient aux décideurs (qui ne font rien de rien, étouffent l’affaire). Et c’est logique, en un sens : c’est comme ça que notre entreprise fait le bénéfice qui nous nourrit, c’est comme ça que nos cadres font carrière, vertigineuse parfois, en présentant tout au mieux, même si c’est en fait malhonnête (et les clients docteurs et pharmaciens ne perçoivent pas l’anomalie, c’est pareillement cohérent, dans l’erreur). Enfin… là comme ailleurs, je n’ai pas la preuve absolue que les puissants sont malhonnêtes, ils sont peut-être intellectuellement déficients (ou médiocres, disons), les pauvres. Alors, je suis piégé pour tenter encore et encore d’expliquer, le malentendu possible, vu mon utopie que chacun peut comprendre, tant c’est évident.
   Effectivement, à l’opposé de moi, le discours usuel parait compréhensible : « vous savez que pour voir si deux populations ont la même moyenne, on teste un échantillon de chaque, et la différence obtenue possède un intervalle de confiance dit "à confiance supérieure ou égale à 95%, autrement dit à risque inférieur ou égal à 5%" ; si cet intervalle de confiance (de la différence) ne contient pas la valeur zéro, vous avez démontré la non-égalité, avec risque inférieur égal à 5% de vous tromper [jusque là, ça semble juste – hors droit logique à la philosophie sceptique, à l’hypothèse du rêve illégale en France, les législateurs étant idiots ou/et malhonnêtes] ; et puis, si cet intervalle de confiance contient au contraire la valeur zéro, vous avez donc au contraire démontré l’équivalence des deux populations, avec risque inférieur ou égal à 5% » [et ça, c’est totalement faux ! mais ça ressemblait suffisamment au précédent pour être gobé…].
   En termes d’autoritarisme, je pourrais certes le faire gober à mon fils de 5 ans : « une machine super-compliquée, appelée Stats, permet de dire si c’est bon ou mauvais : tu calcules un indice et, si ton résultat de test est au-dessus de 1,96 c’est prouvé mauvais, si ton résultat est en dessous de 1,96 (ou égal à 1,96) c’est prouvé bon ! ». Les petits enfants n’aiment pas l’incertitude, le non-savoir avoué (facteur d’angoisse, d’inquiétude), donc mon fils aurait applaudi. Mais la parentalité consiste bien souvent à mentir, pour rassurer l’enfant. Ici, le côté « prouvé mauvais » était juste, le côté « prouvé bon » est totalement faux. Je vais maintenant le montrer, aux lecteurs d’âge mental supérieur à 5 ans (personnellement, je l’aurais compris à 9 ans assurément, même si les tests me donnaient 15 ans d’âge mental, quand j’ai commencé à prouver l’illogisme de l’orthographe française, et j’aurais détruit les fausses stats pareillement si les stats avaient été au programme scolaire élémentaire, à la place des idiotes usines à gaz dites « maths modernes » et « langue française ».

2/ Le vrai principe cassant tout
   Envisageons de changer la valeur du risque, et tout s’écroule. En effet, plus on baisse le risque, plus l’intervalle de confiance s’élargit (par exemple, il y a 5% de chances qu’un homme mesure au-delà de 170 à 185cm et qu’une femme mesure au-delà de 143 à 169cm, tandis qu’il y a 0,1% de chances qu’un homme mesure au-delà de 125 à 210cm et qu’une femme mesure au-delà de 110 à 200cm). Donc la différence homme-femme qui est significative au risque 5% (intervalles de confiance disjoints) peut ne plus l’être au risque 0,1% (intervalles de confiance se recouvrant en partie). Et cela ne veut absolument pas dire qu’avec risque très petit, on a prouvé l’équivalence, pas du tout. On a seulement échoué à démontrer une non-égalité. Si on exige pour être significatif un risque infinitésimal (n’écartant que les aléas immensément rares), les intervalles de confiance se recouvrent presque toujours, donc on n’exclut presque jamais d’égalité, mais ça n’a rien à voir avec démontrer presque partout l’équivalence avec risque infinitésimal !
   Avec des mots non-statistiques, c’est encore plus clair : si j’échoue à démontrer qu’un produit est très mauvais, puis-je en conclure que j’ai démontré qu’il est très bon ? Pas du tout, répond la logique, implacable : il peut être un peu mauvais. (Sinon, pour un produit artificiel volontairement fabriqué comme très mauvais, je pourrais lui faire passer le test statistique inductif (sur échantillon) et, puisque je vais échouer à démontrer qu’il est très très très très mauvais, cela « prouvera » qu’il est très très très très bon… (alors que la vérité, au départ, était qu’il est très mauvais !). Fraude. Et non pas fraude de « mal recopié, en douce », mais fraude organisée, affichée (comme justesse), pratiquée partout en « sciences de la vie ».
   Côté mathématiques, ça s’appelle les tests d’hypothèses et l’espèce de risque. On appelle Hypothèse nulle l’hypothèse testée, précisément chiffrée (genre égalité de deux populations en moyenne et variabilité), on appelle risque de première espèce le risque de rejet à tort, risque de seconde espèce le risque d’acceptation à tort. Et ces deux risques varient en sens inverse (petit risque de première espèce implique grand risque de seconde espèce). Pour pseudo-démontrer une équivalence, les biostatisticiens disent « nous acceptons l’hypothèse nulle, avec un très petit risque ("de première espèce", oui, mais ce détail n’intéresse personne, c’est de la cuisine interne à notre service) ». Eh bien non ! Si on accepte à la fin l’hypothèse nulle, le risque de première espèce est hors sujet et seul devrait nous intéresser le risque de seconde espèce, qui est justement très grand si le risque de première espèce est très petit ! Ne pas en informer les décideurs est de la fraude, et le fait que les décideurs informés (par moi) ne s’en offusquent pas du tout semble indiquer qu’ils sont complices. Si ce n’est pas du je-m’en-foutisme (qui impliquerait hauts salaires immérités), c’est du fatalisme moralement contestable (devenir riche par le mensonge, caché). Les chefs seraient des voleurs en chef, dénués d’intelligence critique (ou l’ayant sciemment sabordée). Qu’ils se désignent (et se payent) comme « Elite » est atroce.
   Reprenons précisément les choses pour mesurer l’impact : quand on prétend qu’il y a équivalence avec risque inférieur à 5% (bizarrement, ça serait encore plus facile avec risque inférieur à 0,1%), cela veut en fait dire quelque chose comme : le risque est inférieur à 95% (et très évidemment, ce serait encore plus facile avec risque inférieur à 99,9%). Cela explique qu’on valide énormément (super ! pour les industriels) : c’est très facile en s’accordant discrètement un risque d’erreur de 95% ! Et effectivement, on échoue parfois à valider, puisqu’un produit vraiment minable aurait besoin d’un risque 99,9% ou encore davantage pour passer… Vu ce qui se fait dans l’industrie, ainsi coupable, je suis effaré que des auteurs « scientifiques » appellent à remplacer le célèbre mais arbitraire risque 5% par 0,1%, pour minimiser les possibilités de découvertes démenties, disent-ils. Peut-être en significativité (rejet d’hypothèse nulle), mais ça sent le guet-apens si c’est pour faire encore pire qu’aujourd’hui par fausse validation par non-significativité (acceptation d’hypothèse nulle au seul vu du risque de 1e espèce)…
   Il y a certes une ligne de défense pouvant faire illusion, un bla-bla littéraire pouvant apporter l’adhésion des esprits incompétents : les biomathématiciens ne prétendent nullement avoir prouvé l’hypothèse nulle (être parfait), ils disent prouver ne pas en être loin (être équivalent, c’est-à-dire proche de manière acceptable). Dans le détail, c’est simplement faux, totalement : mathématiquement, tout ce qu’ils ont accompli est uniquement échouer à prouver fausse la perfection, là s’arrête leurs mathématiques, et du bla-bla en est extrapolé pour dire que c’est bon, prouvé acceptable avec le risque (de rejet à tort) auquel ils ont raté comme prévu leur faux-rejet. Or cela n’a rien à voir avec le risque (inconnu, très grand) pris en se disant « proche » de l’hypothèse nulle. En effet, plus on diminue le risque annoncé, plus on accepte n’importe quoi (donc plus on augmente en fait le risque de se tromper), donc c’est faux (idiot, absurde, plus encore que 1+1=3 qui est une convention scripturale/verbale), les chiffres le prouveraient si les bioMatheux ne se cramponnaient pas à leur 5% sacré, donc laissaient percevoir l’erreur totale de jugement.
   A mon ex-collègue technicienne, qui avait vu que la technique testée était « validée » sur les types d’échantillons A, B, D, E (avec risque d’erreur inférieur à 5%) mais hélas pas sur échantillons de type C (à exclure avec risque d’erreur inférieur à 5%, dans la notice descriptive), je dirais ainsi : « fais recalculer les BioMatheux avec risque 0,000001% (super : quasiment aucun risque !), pour voir, et tu seras ébahie que les échantillons C deviendront validés ! Mais en fait ce n’est pas vrai, ça ne fait là que prouver que c’est l’intégralité de ce processus de validation (par non-significativité) qui est une faute, lourde. Donc le service BioMaths refusera de faire ce calcul inusuel (pas prévu par les textes officiels), qui ficherait tout par terre… (et cette nouvelle démonstration les ferait éventuellement poursuivre pour des années de faute professionnelle, vol de salaire et/ou de diplôme, et les signataires officiels seraient poursuivis, déboulonnés, ruinés, dans le monde entier, tu serais assassinée bien avant… il vaut peut-être mieux ne pas te poser de question, pardon. Pense à ta famille, tes enfants avant tout, moi j’ai la malchance d’avoir un intellect pointilliste et masochiste suicidaire, c’est une tare venant de ma partie juive peut-être, pardon). »

3/ Les conséquence insupportables
   Quand on a échoué à prouver qu’un produit est très mauvais, c’est cela même qu’on a fait : échouer et n’obtenir aucune conclusion, et cela ne prouve en rien que le produit est bon. Si les statisticiens l’avouaient, ils scieraient la branche dorée sur laquelle ils sont assis. Toutefois, si on veut prouver que le produit est bon, vaut-il mieux ne rien faire ou peut-on envisager au moins cette approche ? Je réponds : il vaut mieux ne pas mentir, ne pas prétendre « prouvé mathématiquement » (appelant au respect intouchable) ce qui est « totalement faux mathématiquement ». Le respect se mérite, et il est malhonnête de prétendre à tort au respect. (Quoique… je rêve, vu que le mensonge aveugle semble gouverner jusqu’au plus haut de l’Etat et du monde, sacralisant sans le dire le racisme biblique pour nous conduire à une Shoah numéro 2, mais c’est un autre sujet).
   Les statistiques (inductives) ne sont pas intégralement à mettre à la poubelle. Effectivement, elles sont pertinentes en rejet d’hypothèse nulle (avec "confiance"), en invalidation (pas en validation). Et le risque de seconde espèce est parfois calculable, en énonçant précisément l’hypothèse alternative que l’on va rejeter (avec "puissance"). Pour cela il faut être hélas arbitraire, car « différent de » peut être n’importe quoi, donc il faut envisager « différence égale tant en moyenne », modèle précis rejetable avec risque chiffré comme l’hypothèse nulle.
   Mais… ça n’arrangerait pas les affaires de remplacer « tel médicament est prouvé inoffensif » par « au vu des tests statistiques passés, tel médicament est prouvé tuer moins d’une personne sur mille ». Surtout si cela coûte vingt fois plus d’argent pour le montrer péniblement en rejetant 9 candidats sur 10 au lieu de 1 sur 10*, par rapport à l’autre voie, mensongère mais facile, rapide, et à résultat enchanteur (pour le marketing, pour les vendeurs, pour les financiers). Alors les menteurs sont couverts de lauriers, de primes, ils font ce que l’industrie attend d’eux, et le mur des complexités mathématiques fait fuir tous les fouineurs, ou presque. Je suis anormal, je suis subalterne, oui (premier de la classe ayant disjoncté en tombant amoureux fou de la dernière de la classe, à 15 ans), mais j’ai raison. Ils sont normaux, se disent même "mieux que normaux", ils sont riches et couverts d’honneur, et ils ont tort.
   Ma collègue Christine a-t-elle changé de camp ou reste-t-elle lucide ? On verra… Je mettrai peut-être aussi en copie mes collègues techniciennes Marie-Laure et Nadège, qui donnent leurs linéarités et compatibilités à calculer aux BioMaths sans percevoir l’aberration, mais en pouvant comprendre la faute, j’en suis certain (je ne suis pas Einstein, j’ai juste la bosse des Maths, pardon)… Non, je ne les mettrai pas en copie, le médecin du travail m’ayant dit que mes collègues s’inquiètent pour moi (pour ma santé mentale ? mon moral ?) quand je les mets en copie, pardon.

(* : nous avons eu, Christine et moi, à appliquer un texte Qualité officiel scandaleux, prétendant que pour prouver un taux de pièces mauvaises inférieur ou égal à 1%, la procédure consiste à examiner 100 pièces et à refuser à partir de 3 mauvaises ; des pages entières d’équations montraient que le résultat 2 mauvaises sur 100 échoue à prouver (avec risque inférieur à 5%) que le taux 1% de mauvais est faux sur la population, d’où « validation par non-significativité », que j’ai démontrée fautive : en remplaçant risque 5% par risque 0,1% (moindre risque, génial !), on accepterait jusqu’à 5/100 mauvais (davantage d’acceptation de lots anciennement classés mauvais !) ce qui est absurde. [En acceptant davantage de lots douteux, on augmente le risque d’accepter un lot mauvais, alors qu’on prétend le diminuer]. Ce que ne dit pas la norme "experte" mais que j'ai calculé, c'est que : pour prouver correctement l’inférieur ou égal à 1%, le calcul oblige à examiner 2992 pièces et le taux vrai de mauvais 2% conduit dans 99,8% des cas à un rejet (au lieu de 32%), alors… on préfère le cacher, ne tester que 100 pièces au lieu de 2992 et refuser immensément moins de lots, c’est super pour les bénéfices ! et même pour les clients, obtenant un produit moins cher (simplement démontré bon par mensonge – ils préfèrent ne même pas se poser la question, le bla-bla et le prestige du texte officiel valent immensément mieux à leurs yeux aveugles réciteurs/jongleurs, diplômés ainsi – l’intelligence critique est ailleurs, de même que l’invention de solution).

PS. Côté Matheux, je maintiens que seule l’industrie est coupable (ainsi que certaines écoles préparant à l’industrie peut-être), et les officiels incompétents qui les encadrent/approuvent. Je ne suis en effet pas le seul à être lucide, les vraies mathématiques sont de mon côté : j’ai trouvé dans les livres, sur Internet, dans des conversations privées, la confirmation explicite que la validation par non-significativité est une faute lourde, risible en termes de mathématiques pures :
- un auteur français écrivait dans son cours de statistiques « l’hypothèse nulle est à choisir comme ce que l’on va essayer de rejeter » (éh oui, les stats sont par principe un outil d’invalidation, pas de validation – enfin, « les vraies stats », pas celles qui ont un immense succès).
- un article américain sur Internet disait que, parmi je crois les 30 erreurs statistiques les plus courantes, la 17e était « absence of proof is not proof of absence », autrement dit « si on a échoué à prouver la différence avec le modèle, ça ne prouve pas qu’il n’y a pas de différence avec le modèle ».
- un ex-chef mathématicien, à qui j'exposais mes objections, m'a avoué : "si on en revient aux principes mathématiques fondamentaux, tu as totalement raison, mais en pratique tout le monde fait comme nous". Et on se garde bien de l'avouer, j'appelle cela une escroquerie, généralisée, simplement.
   Donc je ne suis pas seul au monde, je vois simplement « de l’intérieur » (et "d'en bas" sans calcul de carrière personnelle) l’industrie commettre l’horreur, jour après jour. Que faire ? J’ai essayé de tirer toutes les sonnettes d’alarme, en interne, sans succès, sans intéresser. Je suis sous médicaments antipsychotiques, apaisants… Oui, ça tourne, bancal, mais ça tourne. Les grands sourires des grands chefs qui se prétendent L’Elite me font simplement soupirer, très fort, ou vomir, selon les jours. Enfin, ce n’est pas pire que le reste : le mensonge est omniprésent, triomphateur, jusqu’à la propagande guerrière actuelle, raciste projuivo en jurant incarner l’antiracisme, je me demande pourquoi j’apprends à mon fils qu’il ne faut pas mentir. Désolé.

---------------------- Ajout 28/02/2015 : Preuve et tableau
Pour illustrer et prouver ce que je dis, j’ai voulu prendre un exemple chiffré incontestable, mettant les fraudeurs pseudo-mathématiciens explicitement le nez dans le caca. Et ce projet s’est partiellement trouvé réorienté en cours de route :
a) J’ai voulu prendre un test statistique super-célèbre, super-basique, comme la comparaison de moyenne d’un échantillon à une moyenne théorique générale : le test de Student. Plutôt que de rechercher dans mes livres un peu dispersés par les déménagements, je me suis dit que j’allais simplement utiliser l’outil moderne qu’est Internet, et je suis parti de la page http://fr.wikipedia.org/wiki/Test_de_Student . Or là, très heureuse surprise : le premier mot après la formule de calcul est « Une erreur fréquente est de valider l'hypothèse nulle alors que le test ne permet que de réfuter à raison l'hypothèse avec un niveau de confiance élevé (95% ou 99% généralement). ». Comme je le clame en vain, c’est donc bien l’erreur la plus élémentaire qui soit qui est commise par les Biostatisticiens, utilisant les tests d’hypothèse pour pseudo-valider l’hypothèse nulle (avec bla-bla littéraire : « "prouver" qu’on n’est en tout cas pas loin de l’hypothèse nulle, de manière acceptable et sans risque »). Mais certes, je préfère expliquer pourquoi c’est totalement aberrant de faire cette faute que de m’en remettre à l’affirmation mystérieuse d’un professeur l’interdisant (et Wikipedia n’a pas valeur professorale incontestable, qui plus est).
b) J’ai effectué les calculs (sur un exemple imaginaire) aussi simplement et démonstrativement que possible, ça donne ceci :

c) En lisant cet exemple, que je titre et surligne à dessein, on perçoit l’immense avantage industriel (pour les fraudeurs) du mensonge biostatistique généralisé : il fait « valider » l’un peu mauvais prétendu prouvé bon, et ce n’est quasiment pas prouvable qu’il y a supercherie, car le preuve de mauvais demande soit un produit très mauvais (aisément prouvable non-bon sur petit échantillon) soit d’immenses études (hors de portée des clients ordinaires). Bingo, ça passe (avec complicité des « experts » officiels, malhonnêtes enrichis ou immensément nuls). Il n’y a que le petit matheux amateur (sans ambition ni calcul de carrière) qui est choqué, et qui peut hurler au scandale de l’erreur mathématique bâtie pour cette fraude généralisée.
d) J’ai eu l’occasion de le signaler (en vain) à ma hiérarchie selon diverses voies de recours (en passe d’interdiction car il est exigé qu'on jure ne jamais écrire ce qui peut être retenu contre nous) : cette fraude, en accord avec les textes officiels internationaux « Qualité » ISO (linéarité, normalité, stérilité, équivalence méthode alternative/référence, etc.) prouve que la prétendue qualité est un mensonge organisé. Alors il ne faut pas s’étonner si les fabrications ratent (puisque la robustesse de fabrication est validée à tort), si les clients sont trompés (les validations de performances sont fausses), si des lots non-conformes sont en fait bons acceptés (les tolérances pseudo-statistiques n’ayant rien à voir avec la qualité vraie du produit). Alors la prétendue Qualité, officielle, auditée super-sévèrement, se focalise avec pointillisme ultra-rigoriste sur la gestion documentaire parfaite, la traçabilité totale des papiers, sans aucunement aborder le bien-fondé technique et mathématique (trop compliqué, il est fait confiance aux « experts » dûment enregistrés, avec triple signature – et bientôt témoignage assermenté/vidéo de non-antidatage – avec habilitations documentées et renouvelées dans les temps très strictement, etc.). Ainsi, la production est prête pour partir en usine de semi-esclaves chinois, labélisée Qualité (avec chômage de nos techniciens lucides et immense fortune pour « L’Elite » : les vendeurs/managers), ça fera simplement des produits qui ne marchent pas, et les super-grands-chefs gestionnaires surpayés (maintes fois publiés et applaudis, mais techniquement et mathématiquement incompétents, avec l’aide des imposteurs prétendus diplômés es-Qualité, administrative) ne comprennent pas ce qui ne va pas. C’est à pleurer de honte, c’est le monde là autour, mon quotidien, snif.
e) Même si on m'a dit de ne pas le dire, j'avoue que je suis sous traîtement anti-psychotique (en fait abrutissant, débilitant), non parce que je serais "fou" incohérent, mais parce que je suis dissident en souffrance (quand les managers sont eux cadres du parti dictatorial, ayant défini en Occident tout comme sous Staline la "rationalité pathologique" = paranoïa). Je suis certes de tendance suicidaire, sans plus de raison sentimentale, et je comprends hélas que sur les milliards de milliards de dollars de l'industrie, il y a largement de quoi me faire tuer, pour me faire taire, je le sais, mais c'est trop injuste, et je le dis avant de "partir", c'est tout. Honte aux prétendus "Très-Grands" (je suis renégat depuis l'âge de 15 ans, ayant préféré me saborder pour suivre la dernière de la classe triste, plutôt que de continuer la course aux bonnes notes de récitation/jonglage). Même si on m'a ramassé au bas de la falaise, au bas de l'immeuble, ce n'était pas vivable, désolé.

---------------------- Ajout 31/03/2015 : Présentation simplifiée
   J'entrevois aujourd'hui une présentation ultra-simple du problème de la fausse démonstration par non-significativité. Avec un résultat "non significatif de test Différence", il est faux (autant que 1+1=3) de dire "super, on a prouvé que c'est pareil, avec risque infime", mais "on constate un recouvrement des intervalles de confiance à 95%, donc il n'y a aucune conclusion (en significativité de différence avec risque <5%)".
   C’est exactement ça : il s’agit de remplacer « pas de différence significative avec risque <5% » (interprété intuitivement comme « il n’y a pas de différence significative, donc c’est comparable, et on l’a prouvé avec risque <5% ») par le vrai : « avec risque <5%, il n’y a pas significativité de différence donc il n’y a aucune conclusion ». Ça ferait pleurer l'industrie, et ses prétendus biostatisticiens professionnels, mais mathématiquement, il n'y a pas le choix, le reste est mensonge (jusqu'à preuve mathématique du contraire), caché derrière les pages d'équations efrayantes.

---------------------- Ajout 01/05/2015 : Point de vue « positif »
  Dans un rêve nocturne récent, j’étais perdu : j’avais moi à « valider » une méthode de mesure (alternative à la méthode de référence), et j’étais tout embrouillé, sans droit à refuser, puisqu’acceptant mon salaire. Une fois éveillé, j’ai heureusement accès aux outils de calcul, et je vais répondre à la question : quoi faire pour valider positivement, comment accepter le produit sans ne faire que casser ?
  Dialogue imaginaire :
– (Vendeur) : Allez ! Toi qui manque de talent persuasif, relationnel, démontre au moins que notre balance alternative donne les valeurs "vraies" à mieux que 5% près : 10kg vrai donne 9,5 à 10,5kg mesuré dans 100% des cas ! Tu me fais un dossier béton et on fout ça dans un placard, parce que le vrai challenge, le vrai mérite : c’est mon bagou face à la concurrence !
– (Technicien) : Euh, impossible de fournir les chiffres que vous demandez : ce serait un outil beaucoup plus cher que le nôtre. Notre outil peu onéreux effectue une mesure-screening sur une immense plage de 0,001kg à 100 000kg, on ne peut pas lui demander la précision d’un appareil super-optimisé pour masses de 1 à 100kg.
– (Vendeur) : Pas de bla-bla technique, je dois vendre ! Qu’est-ce qu’on peut dire au client, pour notre fiabilité à mieux que 5% près ? Allez !
– (Technicien) : Un premier pas, baissant l’exigence initiale, serait de montrer comment on estime (test à l’appui) que 10kg vrai donne 9,5 à 10,5kg (soit 10kg ±5%) dans au moins 95% des cas, certes pas 100%.
– (Vendeur) : OK ! Vas-y ! Documente et dis OK !
– (Technicien) : Mais on sait qu’on n’y arrive pas, désolé. Il faut abaisser l’exigence encore.
– (Vendeur) : Quoi ?! Regarde-là, ce prototype, c’était marqué qu’il était prouvé comparable à la référence, avec moins de 5% chances de se tromper !
– (Technicien) : Ce n’était pas une comparaison portant sur les mesures brutes, mais sur les logarithmes décimaux des mesures, à un demi log près selon la coutume dans ce métier : les mesures 3,2kg et 31kg sont dites comparables à 10kg.
– (Vendeur) : Hein ?! Ouais c’était ça le 5 ou zéro-cinq ou quoi, on s’en fout ! Mais ça, on le tient dans 100% des cas !
– (Technicien) : Non, on a vu des valeurs hors-tolérance, même ainsi.
– (Vendeur) : OK ! Il est là, le fameux « risque inférieur ou égal à 5%, confiance supérieure ou égale à 95% » ! C’est bon, vas-y, teste et cachète que c’est certifié bon !
– (Technicien) : Euh… mieux que ±0,5 log 10, dans mieux que 95% des mesures (estimé d’après 1 échantillon) ? C’est pas évident, pas gagné a priori. Mais justement : on peut calculer a priori, avant de lancer expérimentalement la vérification. Par exemple, je prendrais un échantillon de 100 objets au hasard, à peser avec référence et alternative, avant de conclure (éventuellement) s’il faut augmenter cet effectif 100 (ou si on peut le diminuer). Le calcul d’intervalle de confiance (IC) scolaire, « normal » symétrique, est idiot, mais la version avec fonction béta donne ceci :

– (Vendeur) : Ouais ! A partir de 11 erreurs sur 100, on pourrait pas clamer 5% maximum d’erreur, mais si on a (zéro à) 10 erreurs sur 100, c’est gagné !
– (Technicien) : Euh, non, « possible » n’est pas « prouvé », pas du tout. Si on obtient 10% sur l’échantillon, 10% est le plus probable sur la population, même si 5% (ou encore moins) sur la population n’est pas impossible.
– (Vendeur) : Ben alors, je dis quoi, moi, au client ?!
– (Technicien) : Si on obtient, non pas 10 erreurs sur 100, mais zéro erreur sur 100, on peut dire qu’on estime le taux d’erreurs (avec confiance au moins 95%) à moins de 5% (moins de 3,623% estimé, même). On n’a pas le droit de revendiquer ainsi 5% (ou moins) si on a obtenu 1 erreur sur 100 (ou 2 sur 100, ou 10 sur 100). Et, d’ailleurs, on n’a pas besoin de monter jusqu’à 100 objets : 72 suffisent, pas 71 :

– (Vendeur) : Eh ! C’est pas cohérent ! Si j’obtiens 2 ou 4 sur 100 sur l’échantillon, bien sûr qu’on peut revendiquer « mieux que 5% » !
– (Technicien) : Au vu de 4 erreurs sur 100, dans cet échantillon, on peut envisager un taux inférieur à 5% d'erreur sur la population, mais l'affirmer serait prendre un risque supérieur à 5%.
– (Vendeur) : Purée… Saleté, ce truc : éh, en plus, tu disais avoir déjà constaté des erreurs, et là – sur ce test à la con – il faut aucune erreur sur 100, donc on va peut-être bien se planter !
– (Technicien) : Hélas oui. Il faut être très très bon pour affirmer être bon à partir d'un petit échantillon.
– (Vendeur) : Mais non ! On te demande de valider, pas d’invalider le produit, là ! Hé, il y avait de la marge entre 3,622% et 5%, pourquoi ? On peut changer l’effectif de 100 pour permettre 1 erreur, non ?
– (Technicien) : Euh, oui, ça fait… on peut s’autoriser 1 erreur au lieu de zéro, si on passe l’effectif de 100 (ou 72) à 110 objets :

– (Vendeur) : Non ! Non-non-non, pour notre outil d’ancienne génération, le matheux en place (qu’on adorait tous !), il disait pas du tout pareil ! Avec je crois trente pièces, sans en demander 100 ou quoi, on démontrait ce qu’on veut, et sans se faire chier comme ça avec des interdits prédéfinis ! Regarde ce gros dossier bardé d’équations, paf !
– (Technicien) : Hum, oui, il parlait pas de taux d’erreur (en fixant le critère à 0,5 log ou autre), mais il travaillait sur l’ampleur de la différence entre référence et alternative… En cherchant à voir si la moyenne discorde de zéro : si on a +10 log sur une pièce et moins 10 log sur une autre pièce, ça compense, ça dit l'instrument parfait...
– (Vendeur) : Voilà ! Ah-ah-ah ! Bonjour ton incompétence, toi ! Et y faut que ça soit des candides comme moi qui gueulent pour…
– (Technicien) : Cette ancienne façon de faire était erronée, simplement.
– (Vendeur) : Hein ?! Bac + 7 au moins, il était, le mec ! Et une foule de machins officiels derrière, réglementaires ! Formateur ! Orateur en congrès : la tronche !
– (Technicien) : Mais ce calcul est faux…
– (Vendeur) : Ben non ! Label Qualité et tout !
– (Technicien) : Ça prétendait valider le caractère « comparable » par un échec au test de non-égalité à risque 5%, donc 6% accepté « démonstratif » et 2% rejeté « preuve de bonne foi »…
– (Vendeur) : Exactement ! Et paf, imparable !
– (Technicien) : Mais c’était faux, la preuve : en prétendant ne prendre que 1% de risque (encore mieux que 5%), le 2% serait devenu « validé, accepté démonstratif » (et même le très mauvais résultat 0,02% serait dit « validé avec risque < 0,01% »). C’est pourtant le contraire : le petit risque qu’on choisit raisonnablement de négliger, il ne vaut qu’en rejet, le risque à l’acceptation varie en sens inverse. Quand on annonçait « risque <5% » (en rejet) ça faisait en fait prendre quelque chose comme un risque <95% (en acceptation), et alors : passer à 1% au lieu de 5% accepterait évidemment plein de cas supplémentaires (risque <95% inadapté devenant <99% franchement absurde), et si on n’accepte pas tout, certes, c’est que risque <95% n’est pas risque = 100%.
– (Vendeur) : Bof, moi je préfère les textes règlementaires, la Qualité Officielle ! Moi je veux vendre ! Ils se débrouilleront entre grands pontes s’ils veulent, dans cinquante ans ! Moi je serai retraité en super villa-piscine sur la côte !
– (Technicien) : On mérite pas de faire de l’argent comme ça…
– (Vendeur) : Démissionne et nous fait pas chier !
– (Technicien) : Euh…
– (Vendeur) : Eh ! Même à ton propre jeu, je peux te casser, pour qui tu me prends ?! Eh, au lieu d’emmerder autrui et pas te faire chier toi-même : tiens, allez, remplace ton 5% par 1%, ça te casse pas toi aussi (avec ta connerie de 0% exigé pour dire 5%) ?! Hein ? Hein ?!
– (Technicien) : Je sais pas à l’avance, calculons.

– (Vendeur) : Oh-là-là, tous ces chiffres dans tous les sens ! Ça te parle ?
– (Technicien) : On disait, avec moins de 5% de chances de se tromper, que zéro erreur sur 100 dans l’échantillon autorisait à dire que le taux d’erreur était inférieur à 5%. Et, ici, on voit que si on s’accorde seulement « moins de 1% de chances de se tromper », on ne peut plus le dire, même avec 0 erreur sur 100, on peut rien conclure. C’est cohérent. L’échantillon est trop petit, pas adapté.
– (Vendeur) : Et si tu changes les effectifs, ça dit quoi ?
– (Technicien) : 100 ne suffit pas, le calcul indique qu’il faut 104. C’est davantage en effectif, et plus petit en taux d’erreur accepté, c’est logique : plus on veut réduire le risque d’affirmer à tort, plus il faut obtenir un résultat super probant. On parle d’affirmer <5/100 (5,000%) d’erreur, et pour passer de risque 5% à risque 1%, on exige super-sévèrement 0/104 (pas 1/104 =1,0% ) ou 1/145 (pas 2/145=1,4%) au lieu de 0/72 (pas 1/72=1,4%) ou 1/110 (pas 2/110=1,8%).

– (Vendeur) : Et pourquoi ?! On veut affirmer 5% ! Et toi, comme un con, tu exiges mieux que 1%, ou mieux que 1,4%, c’est n’importe quoi !
– (Technicien) : Non, on ne connait pas la population totale, on va faire un pari à partir d’un petit échantillon, et en n’acceptant qu’un petit risque d’erreur dans la généralisation. Donc… plus l’échantillon est gros, moins il faut prendre de marge de sécurité pour conclure. Avec un échantillon de 5000 pièces, ça serait encore plus net. Pas besoin d’observer moins de 1,5% sur l’échantillon pour affirmer moins de 5% sur la population : avec risque 5% il suffit d’observer au maximum 219/5000 = 4,4% (et avec risque 1% : au maximum 210/5000 = 4,2%).

– (Vendeur) : Et pourquoi toi, ça marche quand tu changes le risque, et pas nous ? (je veux dire : le spécialiste, d’avant, que t’oses accuser !)
– (Technicien) : Je rejette l’hypothèse « taux d’erreur de mesure = 5% » significativement, avec « risque probabiliste » inférieur à 5%, ou inférieur à 1% si vous voulez pour être encore plus sévère/plus sûr, c’est à ça que servent les statistiques ; ce que fait la norme officielle, ça n’a rien à voir, c’est échouer à rejeter « taux d’erreur moyen de mesure = 0% », la vraie conclusion légitime étant « il n’y a aucune conclusion si on exige moins que 5% en risque probabiliste ». Il est totalement faux de transformer ça en victoire en prétendant au même risque d’erreur. Changer la valeur du risque suffit à le montrer : de la façon erronée, diminuer le risque probabiliste conduit à plus facilement accepter les produits douteux ou un peu mauvais, et ça tend vers « tout accepter en prétendant à risque nul », c’est une invalidation par l’absurde.
– (Vendeur) : Oulah, c’est trop compliqué !
– (Technicien) : Mathématiquement, c’est clair. En mot simples, c’est facile aussi : pour montrer que c’est bon, je réussis à montrer très improbable que ce soit mauvais (en disant précisément ce que j’appelle mauvais) ; le texte officiel dit : pas besoin de définir ce qui est mauvais, échouons à montrer très improbable que ce soit parfait, ça prouvera que c’est bon, et c’est une faute logique. Preuve : demander un exemple de ce qui serait rejeté de justesse, et diminuer le risque le fait accepter comme validé, ça invalide la démarche entière. « Normes de qualité » ou pas, diplômes ou pas, professionnalisme ou pas.
– (Vendeur) : Les normes officielles font foi, alors tu tais ta gueule, ou tu t’en vas !
– (Technicien) : Il est pas beau ce monde, et tous les discours sur la Qualité, sur l’Honnêteté, sur la Compétence…
– (Vendeur) : Nous on est super fiers de nous !
– (Technicien) : …
– (Vendeur) : J’ai gagné ! Le débat est clos ! Yes ! Je suis très fort !
(Ça semble la situation là dehors, comme un cauchemar)

---------------------- Ajout 13/05/2015 : Complément “scientiste”
  Ce que je disais sur les prétendues innocuités de médicaments et sur les péremptions de yaourts pourrait en fait s’avérer une critique bien plus grandiose. Je me souviens en effet d’un cours universitaire au contenu très embarrassant, au cours de mes études : les incertitudes de mesure – enfin, il était surtout complexe mathématiquement, avec calculs de dérivées partielles pour les facteurs se multipliant ou divisant, mais en analyse de quantification chimique, une des approches est statistique, concernant la précision d’instrument de mesure. Donc, à la réflexion, je me demande si les prétendues “lois scientifiques du monde” ne sont pas prouvées elles aussi fautivement avec “validation par non significativité”. Enfin, je devrais dire : les prétendues lois du monde sont scientifiquement prouvées avec erreur logique ou, encore plus précisément : les prétendues lois scientifiques du monde sont malhonnêtement fondées sur l’axiome d’éternité, voulant oublier que le futur est logiquement inconnu, que les réfutations oniriques (incluant témoins) sont rejetées sans critère énonçable, mais au sein de la lecture réaliste du monde (c’est-à-dire : sous axiome de réalisme, axiome récusable), ces lois sont malhonnêtement validées avec « fausse preuve par non-significativité ». Ainsi l’équation de mécanique newtonnienne (autrefois dite : universelle, dite : prouvée) était fausse en tant qu’égalité : f = mm’/d², il aurait fallu dire « environ égal, et les marges d’incertitudes de mesure font qu’une erreur éventuelle n’a pas été prouvée ». De même maintenant pour la loi einsteinienne qui la remplace : il s’agit d’une approximation (d’une vérité possible, avec probabilité totalement inconnue), et on a simplement échoué à la rejeter significativement, avec par exemple risque <0,1% de chances de se tromper. Cela ne veut pas du tout dire qu’elle est vraie avec <0,1% de chances de se tromper, mais qu’en élargissant toutes les mesures par leur intervalle de confiance à 99,99%, on prédisait une fourchette de résultats où est tombée l’expérimentation scientifique faillibiliste (risquant honnêtement la prédiction erronée). Or… en poussant la confiance à 99,9999% (diminuant le prétendu risque à 0,0001%), on élargit la plage de prédiction au lieu de la réduire, donc on accepte potentiellement une prédiction davantage erronée : en prétendant à davantage de rigueur, on fait preuve de moins de rigueur au contraire. C’est pile le mécanisme d’erreur logique qu’il y a dans la « validation par non-significativité ». Je ne garantis pas que ce soit ce qui se fasse dans les congrès et ouvrages de référence, mais c’est en tout cas une possibilité, de malhonnêteté, bien au-delà des biosciences pharmaceutiques et apparentées.

---------------------- Ajout 02/06/2015 : Complément “démonstratif
  Pour mon travail, j'ai inventé un résumé vraiment probant, sans la moindre équation, nécessitant un niveau Bac moins 7 pour comprendre...

  Si on admettait la "validation par non-significativité", alors : avec risque tendant vers zéro, on validerait absolument n'importe quoi, y compris le "n'importe quoi" comme instrument de mesure. Cela vaut invalidation.

---------------------- Ajout 05/06/2015 : Démonstration prouvée absolue
  Il serait ultra-simple d’expliquer l’erreur lourde commise si on pouvait dire que le risque annoncé en validation usuelle (risque au rejet de H0) est le contraire du risque pris en fait (risque à l’acceptation de H0) : en annonçant un risque 5% (ou 1%), les valideurs malhonnêtes prendraient un risque d’erreur 95% (ou 99%). Mais ce n’est pas si simple, car ça dépend des modalités précises de l’hypothèse alternative H1, et théoriquement si on n’a défini que H0 alors H1 est le multiforme non-H0 qui n’est pas modélisable donc ne permet aucun calcul.
  Toutefois, ma première approche complémentaire a été un « cas aux limites » : en réduisant le risque d’erreur alfa jusqu’à zéro (0%), les intervalles de confiance s’étendent à l’infini et tout est accepté. Si H0 est vrai, le risque d’erreur au rejet est 0% (puisqu’il n’y a jamais rejet), mais si non-H0 est vrai, le risque d’erreur est 100% (puisque H0 a été acceptée en rejetant non-H0). Donc, aux limites, l’égalité « souhaitée » au-dessus est juste : beta = 100% - alfa.
  Ma seconde approche complémentaire est un « cas fictif simplifié » : Il y a mille urnes, dont 500 avec des boules toutes blanches légères (masse moyenne 10g, écart-type 3g, normal), et 500 avec des boules noires lourdes. Le jeu consiste à, avec les yeux bandés (sans voir les couleurs), peser un échantillon de 20 boules issues d’une même urne, la balance vocale disant la masse mesurée et l’envoyant à l’ordinateur faisant les calculs. Selon le résultat moyen obtenu, on va dire « urne blanche » (H0) ou « urne noire » (H1), avec quels risques d’erreur ? (Le pseudo-valideur KKK veut conclure que H0 tout blanc est la vérité, et il se contrefiche des possibilités non-blanches, il va démontrer que c’est blanc directement). Mais le logicien CME demande à ne pas oublier le risque de se tromper, il prétend qu’il faut mesurer les boules noires (et ça donne masse moyenne 12g, écart-type 3g, normal). Ceci étant la vérité sur la population, que donnent tous les résultats possibles à partir d’échantillon-test ? (c’est le jeu). Au passage, le résultat vrai mathématiquement est donné, via le calcul de Bayes :
p(H0/résultat) = p(résultat/H0)*p(H0)/[p(résultat/H0)*p(H0)+p(résultat/H1)*p(H1)]
= p(résultat/H0)*0,5/[p(résultat/H0)*0,5+p(résultat/H1)*0,5]
= p(résultat/H0)*0,5/{0.5*[p(résultat/H0)+p(résultat/H1)]}
= p(résultat/H0)/[p(résultat/H0)+p(résultat/H1)]


  Au vu de ces grands tableaux de chiffres, que lit-on ?
* Dans le premier tableau, on voit :
A) KKK dit : blanc est prouvé si moyenne <=11,315g et il dit qu’il l’affirme avec un risque <5% de se tromper. Or il a 14% de chances d’avoir raison, et 86% de chances d’avoir tort !
B) CME avait signalé qu’en faisant passer son risque de 5% à 1%, KKK se mettait à accepter comme blanche des urnes auparavant « prouvées » non-blanches, ce qui augmentait son risque de se tromper alors que KKK aurait clamé un risque d’erreur abaissé à 1%. Effectivement le risque d’accepter à tort l’hypothèse blanche (si l’urne était noire) passe de 31% à 68% ! Plus d’une chance sur deux de se tromper, alors que KKK clamait qu'il avait moins de 1% de chances de se tromper !
C) La conclusion bayésienne, globale sans se situer sous une hypothèse ou l’autre, est qu’à la nouvelle limite (alfa 1% au lieu de 5%), KKK a 98,5% de se tromper au lieu de 86% ! CME avait raison entièrement et KKK tort entièrement (simplement, CME n’était pas parfaitement juste quand il chiffrait à 95% et 99% les probabilités d’erreur de KKK).
D) Pour avoir 95% de chances d’avoir raison en concluant blanche, il ne fallait pas du tout prendre un risque 5% (de rejet à tort de l’hypothèse blanche) mais 47% ! C’est du jamais vu en statistiques ! Jamais ! Et c’est logique : KKK refuse totalement de rejeter à tort son hypothèse dans 47% des cas ! Il voulait valider presque à coup sûr, surtout pas avoir une chance sur deux d’invalider à tort son hypothèse ! Ça explique qu’il ne voulait surtout pas que ces calculs (justes, eux) soient effectués, ce n’est pas du tout ce qu’il demandait aux statistiques, il voulait seulement clamer avoir 5% maximum de risque en validant presque à coup sûr, en menaçant d’un déluge d’équations toute objection. Mais il avait entièrement tort (les biomathématiciens achetés par l’industrie sont complices d’escroquerie).
* Dans le second tableau, on prend une alternative plus distincte de H0, avec 14g comme moyenne noire au lieu de 12g. Et ça confirme que n’est pas une loi « affirmer 5% d’erreur cache 86% d’erreur », ici le 5% d’erreur annoncé correspondait au contraire à 0,1% d’erreur vraie, ce qui est même moins et non davantage. Mais cet exemple virtuel à deux types d’urnes et deux seulement est artificiel, et normalement le cas non-blanc est n’importe quoi – on ne peut simplement pas chiffrer dans ces conditions l’erreur vraie. Mais il a été prouvé que le 5% annoncé a une crédibilité nulle.
* Dans le troisième tableau est examiné l’effet d’un agrandissement de l’échantillon. Le doubler change les valeurs : au lieu que 5%/1% annoncé corresponde à 86%/98,5% d’erreur avec besoin de 47% de rejet à tort pour avoir un vrai 5%, ici ça correspond à 32%/91% d’erreur avec besoin de 13% de rejet à tort pour avoir un vrai 5%.
* Dans le quatrième tableau, une autre approche est tentée avec une variance plus grande (ce qui est le contraire du deuxième tableau, pour l’indicateur distance/variance), et cela change aussi les valeurs : au lieu que 5%/1% annoncé corresponde à 86%/98,5% d’erreur avec besoin de 47% de rejet à tort pour avoir un vrai 5%, ici ça correspond à 93%/96% d’erreur avec besoin de 43% de rejet à tort pour avoir un vrai 5%.
* Bilan : il est mathématiquement prouvé qu’il est faux de confondre risque de rejet à tort de l’hypothèse nulle et risque de se tromper. En quatre exemples, un peu au hasard, la plus belle perle a consisté a affirmer 1% d’erreur pour ce qui était en vrai 98,5% d’erreur. Et quatre fois sur quatre, baisser le risque annoncé (de rejet à tort de l’hypothèse nulle, presque jusqu’à 0%) a correspondu à augmenter le taux d’erreur vrai (presque jusqu’à 100%). Cela confirme entièrement les affirmations précédentes sur ce site, sauf que « annoncer un risque <5% c’est en fait prendre un risque environ <95% » n’est pas approprié. Il vaut mieux dire « annoncer un risque tendant vers zéro, sans préciser qu’il s’agit du risque de rejet à tort, c’est cacher qu’on prend en fait un risque d’erreur tendant vers 100% ».

---------------------- Ajout 10/06/2015 : Ajout ultra-majeur encore
  La réunion que je devais avoir avec les grands chefs biologistes a été annulée par l’organisatrice, puisque j’ai convenu que le problème était maintenant prouvé, plus rien ne restant à discuter. C’est toutefois un immense malentendu potentiel, car ces mots peuvent être lus « le problème psychiatrique de ce petit employé anormal est prouvé, inutile que les grands chefs responsables perdent une heure à écouter ses états d’âme ». Alors que le sens était exactement inverse : il est maintenant prouvé, totalement, mathématiquement, que cette compagnie (dont je tais le nom) pratique à grande échelle l’escroquerie, en bande organisée. Et j’ajouterais trois derniers points :
* L’étouffement prémédité :
  J’ai renoncé cette nuit à envoyer un mail écrit hier, concernant le malentendu terrible lié à cette annulation de réunion (ce que je dis finalement ici). En effet, envoyer ce mail à mon travail valait « faute professionnelle lourde », légalement prouvée : il y a quelques mois, la direction nous a fait passer une charte à signer obligatoirement, où nous nous engagions chacun à ne jamais écrire quoi que ce soit qui puisse être retenu contre la société (les mails étant lisibles par des pirates informatiques extérieurs). Et j’ai signé, quoique « outré » – car avec un texte comme ça, un ouvrier de chez Spanguero à Narbonne, anormalement compétent boucher, se serait vu licencier pour faute professionnelle inadmissible s’il avait osé écrire « éh, chef, mais c’est du cheval qu’on met là, pas du bœuf comme c’est écrit… Alors pourquoi vous nous bassinez avec la Qualité et l’Honnêteté, Respect-Client ? on veut juste faire un max de fric par le mensonge ? Dites-le au moins en clair, qu’on comprenne… », tandis que les chefs menteurs auraient péroré, couverts d’honneurs et de salaires mirobolants (certes ponctionnés à 70% par l’Etat pour assurer tranquillité à ses fonctionnaires pépères). Cet employé plus compétent que ses supérieurs n’aurait eu le droit que de dire « oralement » ce qui cloche, en étant alors, comme d’habitude, écrasé par les dominants faisant taire les timides et humbles, sans ambition…
  Je souffre, et c’est pris en charge par les psychiatres certes, comme pour Galilée et Soljenitsyne, mais… il y a un énorme problème, de dominants menteurs ou aveugles broyant les petits anormalement lucides, en écrivant la loi pour cela. C’est très affreux. Je me demande presque si je pourrais invoquer le « droit au retrait », mon aplomb mental vacillant devant l’horreur de cette injustice sciemment organisée, planifiée, exécutée.
  Enfin, j’entrevois un minuscule espoir, du côté d’une plaidoirie de défense (hélas balayable par le juge s’il en décide ainsi – j’ai l’expérience de la malhonnêteté judiciaire totale, incontestable) : en écrivant/détaillant les fautes commises, je ne révélais pas des problèmes inhérents à cette compagnie, dont la divulgation ferait la fortune de ses concurrents ; non, c’est toute la branche XYZ (et ses textes officiels) qui est pourrie, biaisée, amassant des milliards d’Euros/Dollars par le mensonge organisé. Percevoir cette honte générale et l’avouer, sous l’effet d’une culpabilité psychologiquement insupportable, n’est pas causer du tort à l’employeur en particulier, c’est simplement amener la fin, pour la « civilisation du faux-test ». C’est une bombe planétaire, pas un méchant croche-pied ingrat à mon employeur en particulier (et je hurle depuis des décennies pour un changement en interne, ce n’est pas faute d’avoir tenté l’amélioration – compréhensible par un enfant de 9 ans, même si j’étais « en avance », pardon).
* La fin de la « civilisation du mensonge » : quand j’étais enfant puis étudiant, j’entendais tout le monde pester contre la « sélection par les Maths » (qui me classait tout en haut de l’échelle même si, en dépression suicidaire, je n’apprenais plus les leçons). Mais je comprends aujourd’hui le problème : les « beaux-parleurs » (auto-désignés) étaient furieux que leur fier bagou mensonger soit classé inférieur à la morne logique des introvertis à lunettes, asociaux. Les beaux parleurs en cravate et tailleurs ont maintenant gagné la partie, écrabouillé l’adversité potentielle, et… nous y voilà. En signalant le mensonge mathématique qui est là partout, je me défends avec des armes pitoyables, évidemment renversées par un éclat de rire ou doigt tourné sur la tempe. Et je devrais m’estimer heureux de ne pas être brûlé vif à la Galilée, oui. Le mensonge triomphe. Je ne sais pas si la crucifixion se pratique encore, au figuré, mais – étant circoncis et à famille israélite comme l’imposteur d’il y a 2000 ans – j’ai l’impression d’être le Messie, le vrai, venu ramener mes cousins juifs à la raison sans plus triompher par mensonges dressés en loi : la « lutte contre le racisme et l’antisémitisme » est autocontradictoire raciste (pour laisser le privilège de la discrimination raciale aux seuls rabbins), la justice du double état Israël-Palestine est raciste (validant l’expulsion raciste de la majorité palestinienne 1948 contre la restitution des secondes victoires 1967, et sans du tout rendre la moitié des USA et Antilles aux Amérindiens), la Loi Gayssot est raciste (autorisant pleinement à nier le génocide Caraïbe et Mohican mais surtout pas le génocide juif), le don aux cultes légaux est sans le dire un encouragement à vénérer les esclavagistes vénérant Yahvé (Noé, conquérants du Pays de Canaan, Jésus de Nazareth ayant inspiré Mahomet), les droits de véto ONU à France et Grande-Bretagne mais pas Inde ni Indonésie bien davantage peuplées ne sont pas du tout le triomphe de la démocratie égalitaire mais de l’aristocratie raciste. Il n’y a pas de penseur honnête (et vivant, non emprisonné), dans ce monde-là autour. En face ne semble pas mieux (entre dictateurs staliniens et djihadistes massacreurs de mécréants). Alors oui, clamer que l’on fait moins de 5% d’erreur quand on en commet 98%, c’est tellement « pas grave », « oh-là-là, la vile populace n’a qu’à se laisser guider par ceux qui se disent l’Elite, et tout ira pour le mieux ». (Moi je pense que ça va s’écrouler, désolé, c’est totalement bancal et moisi à la base).
  Et, comme je l’écrivais dans mon livre (non publiable bien sûr) « Echapper à la dictature réaliste », la démolition des fausses-validations par non-significativité n’est même pas « l’œuvre de ma vie » : j’avais immensément plus important à dire, plus vertigineux, ébranlant toutes les bases de la pensée réfléchie. Ma pierre énorme à l’édifice de la pensée humaine, c’est la philosophie du scepticisme égocentrique, voie non religieuse pour éviter la terreur devant la mort, envisageant que le Dieu créateur de ce monde est la partie du moi qui rêve (et autrui n’existe peut-être pas). Ce qui rejoint en partie le solipsisme et le bouddhisme indien, mais rend totalement inutile la croyance dans les légendes racistes israélites et dérivées. Enfin, tout se rejoint : en explosant avec l’avion qui va bientôt me conduire en vacances, je vais simplement « changer de monde » ou disparaître de partout, sans plus du tout « déranger » ici (si ici existe encore, après), avec cette tare de préférer l’honnêteté à la fortune, pardon.
* Une dernière preuve chiffrée ? : le pire est que j’ai inventé les solutions, et pas moi en particulier mais les mathématiciens honnêtes, enterrés ou emprisonnés, dont je ne fais sans doute que redécouvrir les résultats. J’ai remplacé le calcul probabiliste NPP erroné par le NTP, non seulement plus juste mais davantage sensible à méthode inchangée, j’ai remplacé le test de linéarité « lack of fit » erroné par l’indice de linéarité IL (facteur de réponse minimal/maximal, donnant l’erreur relative pour cause de non-linéarité), etc. Au fait, ce sujet du « lack of fit » illustre parfaitement, chiffres en mains, ce que je disais plus haut :

  Mais la parole du diplômé (autrefois : du théologien) écrase l’évidence mathématique (autrefois : expérimentale). Cette civilisation du mensonge semble en voie de renversement, peut-être pour laisser place à pire, encore une fois. Je suis triste, pessimiste, perdu. Pendant ce temps, les grands pontes pérorent en fraudant en douce, très fièrement. Quelle horreur, ce monde…

---------------------- Ajout 12/06/2015 (retouché 13/06/2015) : Réponse à auto-objection
  En appliquant la même démystification au cas de dénombrement (après le cas de mesures normales), il apparaît un dilemme grave : la probabilité binomiale à demander est-elle cumulative ou non ? Pour l'approche classique, il est clair que c'est cumulatif : on accepte (comme validant H0 = 1% de mauvais) le résultat d'échantillon "2 mauvais sur 100" en disant "avec risque <10% de se tromper" car, sous hypothèse H0, les résultats 3 à 100 mauvais (qu'on a décidé de rejeter comme incompatibles avec H0) font au total moins de 10% des cas [ce qui n'a en fait aucun rapport avec le risque de se tromper en acceptant H0 dans les autres cas, je le disais]. Mais, le résultat 2/100 ayant été acquis, la question que je pose est différente : quelle est la probabilité de H0 (1% de mauvais) et celle de H1 (2% de mauvais) ? Les calculs binomiaux n'ont pas à être sommés jusqu'à 100 ici, ils sont relatifs au cas précis rencontré. Et le même phénomène (qu'avec les groupes de balles colorées normales) se retrouve au vu des calculs complets : devant ce cas 2/100, il y avait 60% de chances de se tromper en affirmant H0 validée (alors que c'était prétendu/affirmé "avec <10% de risque" – ce qui ne concerne qu'un sous-calcul inverse de la conclusion...). Et, en appliquant cette fausse logique absurde, on aurait pu accepter 5/100 mauvais, en clamant que la vérité est <=1% mauvais prouvé, le clamer avec <0,06% de risque, alors que la probabilité vraie de se tromper (face au vrai concurrent "5% de mauvaises pièces") était de 98,4%.

  Clamer <0,06% de risque là où l'on commet 98,4% d'erreur est un pur mensonge mathématique, outrancier, officiel, et c'est de l'escroquerie quand cela est financièrement intéressé. Les experts signataires "indépendants" doivent être devenus très riches pour avoir cosignés ces horreurs, internationales, prétendues définition de la "Qualité" (une fois lancé dans le mensonge, allons-y...). L'industrie (et ses "scientifiques") ne veut donc nullement changer cela, nullement stopper le mensonge qui fait sa fortune, il ne s'agit que de faire taire les petits anormaux lucides, ayant détecté, prouvé, la supercherie. Mais que faire, alors ? Démissionner et laisser faire ? en devenant miséreux ou mort... Ou se foutre de tout, se laisser "acheter" pour ne plus rien dire ? Mais quelle horreur, à hurler... (classé fou, oui, comme en URSS les contestataires, la dictature du mensonge règne, impitoyable).

---------------------- Ajout 14/06/2015 : Réponse à nouvelle auto-objection
  En corrigeant hier une erreur décalant d'une unité le comptage (à cause d'un < au lieu de <=), je tombais sur une étrange revendication "<= 10% de risque" au lieu du "<= 5%" usuel, et je n'ai pas (à la maison, en arrêt "maladie" selon la psychiatrie me classant schizophrène paranoïde) le texte oficiel de la norme pour vérifier. Mais le problème a pu venir du fait que j'ai pris dans mon calcul l'inusuelle mais juste probabilité binômiale, alors que les statisticiens préfèrent généralement appliquer les approximations de Gauss dites "normales". Et, effectivement, avec l'aberrant calcul gaussien, qui chiffre des probabilités tangibles pour les effectifs négatifs, j'aboutis à « "<5% de risque annoncé" (ou même <2,5%) conduit à accepter 2/100 comme résultat correct du test de l'hypothèse 1%, en rejetant 3/100 ». Quand la vérité est qu'on se trompe dans 60% des cas (de résultats 2/100) en faisant cela. Et la preuve de cette totale erreur d'approche, officielle, est qu'en osant diminuer le risque prétendu depuis <5% jusqu'à <0,00003% (apparemment génial pour le client et le décideur), on accepte des cas anciennement classés très inadmissibles (bien pires que 3/100) et le taux d'erreur a effectivement grimpé de 60% à 98,4%.


---------------------- Ajout 15/06/2015 : Bisounours ?
  Il est clair que je manque de « réalisme », toutefois je peux détailler mon rêve d’idéal :
1/ Les leaders scientifiques de mon entreprise comprendraient la faute commise (dans la fausse validation par non-significativité), plaideraient coupables pour toutes les erreurs qui en ont découlé, chercheraient à réparer, en appelant les autorités à réviser leurs multiples textes fautifs en urgence, preuve mathématique à l’appui.
2/ Je reprendrais mon humble place de petit technicien consciencieux.
3/ Les discours de la haute direction concernant la Qualité, la Responsabilité, le Professionnalisme, la Santé Publique, le respect du client, le courage, l’honnêteté, deviendraient soudain crédibles.
  Mais je suis là au monde des bisounours, car il manque un point clé, évidemment : Qualité et Honnêteté sont dites résider dans l’application des normes officielles. Sans aucunement s’autoriser à les envisager fautives, et a fortiori sans s’autoriser à prouver qu’elles sont « malhonnêtes pour faire du fric par le mensonge organisé ».
  Or… le sacro-saint respect de l’Autorité légale, c’est le principe du Moyen-Age, de l’Inquisition Catholique et de la Guerre Sainte Islamiste, du vol des continents Amérique, Afrique, Asie, Océanie vers 1750, du vol des bourgeois en 1917, du vol des Juifs allemands en 1933, du vol des Palestiniens en 1948, de l’élimination des Tutsis en 1994. C’est simplement affreux, c’est la loi du plus fort, armé.
  Parlant dans un désert hostile voire menaçant, je dirais pourtant que le principe de la fausse validation est le total contraire de l’honnêteté :
- Le vrai risque pour le client, le risque « qualité », c’est le produit mauvais validé à tort, le lot mauvais accepté à tort. Seul cela devrait compter, d’où définition systématique de l’hypothèse alternative à rejeter (à avouer au client comme seule démonstration, négative, sans aucune quasi-perfection garantie), et remplacement du risque alfa de 1e espèce invoqué (pour libérer presque toujours sur petit échantillon) par le risque béta de 2e espèce vrai (faisant souvent refuser ou déclarer indécidable, même sur grand échantillon – d'où révision en version "plus loin que prévu" pour l'hypothèse alternative).
- Le risque industriel, c’est le contraire : c’est le produit bon rejeté à tort, le lot acceptable refusé à tort, ce n’est pas du tout une préoccupation qualité mais financière, pour assurer la survie de l’entreprise (ou les salaires royaux de ses dirigeants et « experts », les dividendes alléchants pour ses actionnaires). C’est la focalisation sur le alfa en se dispensant d’hypothèse alternative et d’échantillon assez grand pour obtenir une significativité.
  C’est un choix clair entre deux chemins différents : faire correctement ou alors "faire un max de fric". L’honnêteté consisterait simplement à le reconnaître, à informer les clients que la vraie validation leur amènerait des produits beaucoup plus chers. Sans faire taire ou casser le matheux amateur gênant le mensonge en ayant décelé la supercherie dans le discours officiel, mathématiquement erroné (une erreur évidente, valant zéro pointé éliminatoire au simple niveau Bac+1 en biologie, bien loin des immenses inventions de grands mathématiciens, occupés dans leurs nuages sans voir les horreurs commises partout au nom menteur de leur discipline).
  Ce rêve d’honnêteté scientifique parait socialement et hiérarchiquement impossible, peut-être bien, avec faillite totale des prétentions à l’honnêteté intellectuelle. Mais alors, comment reprendre mon travail de technicien, cherchant péniblement et méticuleusement les solutions ou inventions techniques pour bien faire ?... dans un monde de mal faire sciemment organisé (certes, l’incompétence logico-mathématique excuse l’erreur, mais les prétendus penseurs semblent bien des voleurs). Non ? Ils peuvent m’écraser, me tuer, mais mathématiquement ils ne disent pas un mot, car mathématiquement ils ont totalement tort. Et ces mots de matheux professionnels reviennent, obsédants, terrifiants : « oui, si on en revenait aux mathématiques proprement dites, tu aurais raison », « si on ne faisait que ce qu’on a mathématiquement le droit de faire, on ne ferait plus rien ».
  Peut-être que je vais baisser mon froc et retourner à ma place en me taisant à jamais, pour toucher un salaire immérité sans plus jamais réfléchir, mais « c’est vraiment trop injuste »… La sagesse, c’est accepter la pourriture ? Hélas oui, peut-être. M'immoler par le feu sur mon lieu de travail me ferait seulement déclarer dingue, confirmé, pas classé visionnaire extra-lucide méritant statue au nom de la vraie science... Surtout que ma lucidité philosophique encore plus anormale m'a fait invalider la science expérimentale (interdisant l'infalsifiable hypothèse du rêve/cauchemar). Je suis foutu, ayant tort d'avoir raison semble-t-il. Mais je ne sais pas sur quoi ça va déboucher.
  (Complément après la nuit) : le mot grossier « baisser son froc » ci-dessus prête à malentendu, je le perçois. En effet, un super-fier prétentieux pourrait s’offusquer ainsi de devoir se rabaisser pour devenir numéro 15 derrière de très mauvais numéros 1-2-3 tricheurs médaillés/surpayés. Ce n’est pas ça du tout, pour moi, même si le mot « va-t-on me donner un Prix Nobel ? posthume ? » peut le laisser croire. Je m’explique, même si c’est en ma défaveur selon ce qui est prétendu « bon sens », « intelligence », « philosophie/sagesse ». Après l’expérience terrifiante de « la fin du monde demain matin », que j’ai vécu à quinze ans, j’ai développé une philosophie scepctico-solipsite (autrui n’existe peut-être pas, ce monde est peut-être un cauchemar de l’inaccessible partie de moi qui rêverais endormi), et – comme j’ai consenti au compromis familial de ne devenir ni mort ni balayeur de crottes – je me retrouve technicien. Le deal est clair, honnête : même si je ne crois pas en la science expérimentale (prétendue indubitable alors qu’elle interdit et psychiatrise les objections argumentées), je « fais mon job » en essayant de répondre au mieux possible à l’hypothèse réaliste (le prétendu Réel autour ici ne serait pas un rêve de moi), certes possible. Mais cette droite ligne est giflée par l’expérience pratique, où mon travail est falsifié par une fausse validation outrancièrement mensongère (ou idiote, pour ceux ne comprenant pas le sujet, pourtant évident me semble-t-il). Alors j’appelle à la raison, à la cohérence « scientifique » (même si je connais d’énormes objections à la science expérimentale), et on m’appelle médicalement (avant sanction disciplinaire/légale lourde) à prendre du recul, ne plus dire cela, penser avant tout à mes responsabilités de mari, père, beau-frère, oncle, parrain (avec belle-famille pauvre en Asie). Et, si je l’accepte, en sachant que c’est du vol, et si je le fais « pour le fric », donc, je me prostitue, et ça fait mal, aïe. Peut-être que je vais finir par ne plus me débattre contre cette situation, accepter le « viol » (de conscience professionnelle) par une sorte de nouveau contrat. Même si je déteste les payeurs de ce système, tellement laids menteurs, mais friqués, pouvant m’acheter. Honte à moi, en un sens, mais c’est peut-être ça la vie, ici, « la vie est dure ». Le réconfort exige l’effort, l’acceptation du viol, mathématique, même si « viol mathématique » ne doit pas exister dans le dictionnaire des notions compréhensibles. Aïe. Aïe. Aïe-aïe-aïe, mais ça va aller, peut-être, puisqu’il semble le falloir, pour ne pas faire de mal aux innocents qui me sont proches. Et s’ils sont tués par accident médicamenteux ou chimique de truc validé à tort, tout le monde s’en fout, il ne servait à rien d’avoir voulu prévenir l’arnaque en question. (Soupirs, immenses).

---------------------- Ajout 25/06/2015 : Exemple parallèle
  On m’a signalé un exemple parallèle concernant une publicité automobile contestable, avec un risque automobile létal avéré, et… ça ne collait pas à « mon problème ». (J’ai répondu que le principe de précaution en question était lui-même une tromperie, la loi n’interdisant nullement le risque évitable, dans voiture/chauffage/baignade etc. mais autorisant à refuser sans preuve au nom du risque, contre maïs OGM/fast-food etc.). Je reprends ici de manière plus appropriée cette idée de parallèle automobile. Exemple concernant la traversée d’un pont étroit réputé ultra-dangereux. On dirait, en se focalisant sur l’intervalle de confiance d’un échantillon : « "taux d’accident estimé 15% ± 11% (soit taux 4% à 26%) avec 95% de confiance" valide "taux d'accident <= 5%" ». Le contestataire que je suis clame au contraire : avec ce principe, "15% ± 14,85% (soit 0,15% à 29,85%) avec 99,99% de confiance" serait prétendu valider "taux d'accident <= 0,2%", et puis "15% ± 15% avec 100% de confiance" serait prétendu valider "taux d'accident infime non mesurable", c’est idiot. Le taux le plus probable (au vu de l’échantillon) est de 15%, même s’il n’est pas totalement impossible qu’il soit <= 5% sur la population (voire <= 0,2%, voire infime, si notre échantillon était par malchance très peu représentatif). Si on veut honnêtement garantir que le taux d'accident est <= 5%, ce n’est pas "taux estimé = 15% ± 11% (avec 95% de confiance)" qu’il faut accepter, "non significatif pour rejeter le taux 5%", mais il faut quelque chose comme "taux estimé = 3% ± 1% (avec 95% de confiance)", "significatif pour rejeter le taux 5%". Les marchands de ponts (et les autorités complices) préférent « l’ancienne façon » d'interpéter, mais elle est simplement fausse (acceptant une hypothèse très vendeuse en énonçant un petit risque d'erreur, mais n'ayant rien à voir avec le grand risque d'erreur portant sur cette acceptation). C'est honteux et cela relève explicitement de l’escroquerie en bande organisée (puisque l'argumentaire est financièrement intéressé et clamé en faisant taire toutes les alertes techniques internes).

---------------------- Ajout 26/06/2015 : Etude biblio-universitaire
   On m’a transmis deux cours universitaires (strasbourgeois je crois) sur le test statistique d’hypothèse [« Le test statistique fréquentiste, concept(s) et limite », « Le Test d’Hypothèse Nulle et ses limites » par Nicolas Meyer, 2010]. Ils abordent des points similaires, intéressant le sujet ici abordé, et j’en tire les éléments suivants :
(U1)- Ils n’envisagent absolument pas de valider H0 l’hypothèse nulle, comme si c’était là une aberration élémentaire évidemment hors-sujet pour un cours sérieux. Ils disent au contraire qu’on peut toujours réfuter H0 avec un effectif immense (puisque la moindre micro-différence moyenne deviendrait significative). Cela me conforte dans la conviction que les « différences non significatives, "super" pour valider H0 » ne font qu’indiquer un effectif trop petit. Si H1 était définie, donc beta calculé, on pourrait parfois avoir un choix objectif de N mais ce que je connais est l’absence de définition de H1, donc beta pas même mentionné, et N minimum parachuté comme commandement officiel sans argument aucun (que la menace de rejet officiel en cas d’enfreinte ou désaccord). La pratique industrielle nage ainsi en plein dans le hors-sujet quant aux tests statistiques sérieux. Idéalement, il faudrait définir H0, définir H1, en déduire N qui permettra de départager H0 et H1 (cas d’un test de Taux de positivité par exemple) ou bien peut-être proposer un N temporaire qui sera éventuellement à accroître en test complémentaire (cas d’un test de grandeur mesurée sans limite, où les significativités dépendront de l’écart-type observé sur l’échantillon). En tout cas, tant qu’on n’a pas rejeté significativement H1, H0 ne peut bien sûr pas être acceptée, et encore moins « déclarée prouvée, validée ». Cela confirme totalement ce que je disais.
(U2)- Dans le match théorique entre Fisher et Neymann-Pearson, entre justesse imparfaite à chaque test et justesse parfaite mais seulement après une infinité de tests, l’approche bayésienne est critiquée, n’étant qu’une des deux voies envisagées, du fait de ses probabilités a priori, subjectives, contestables. D’accord, je n’appliquais le théorème de Bayes que sur un exemple fictif, illustratif, avec 50% d’urnes H1 et 50% d’urnes H0, on ne peut pas généraliser à tous les cas. Cela rejoint le fait que la distance entre H0 et H1 (souvent arbitraire) intervient dans la formule donnant l’erreur vraie commise en acceptant H0. Donc je concluais bien en disant « affirmer que "on accepte H0 avec un risque inférieur à 5%" » ne signifie pas forcément, pas tout à fait, "on accepte H0 avec en fait un risque inférieur à 95%". Mais l’enseignement très majeur que j’apportais (pas envisagé dans ces cours n’imaginant pas l’escroquerie criante délibérée) est qu’en acceptant H0 avec risque alfa tendant vers 0%, on prend un risque de se tromper tendant vers 100%.
(U3)- Un des principes signalés est que le seuil à alpha 5% est étonnamment « quasi sacré », contesté par personne alors qu’il est subjectif. Je ne suis pas d’accord en ceci que je tiens l’explication je crois : avec risque de rejet à tort toléré aussi haut que 5%, les fautives « validations par non significativité » ne font pas accepter absolument tous les tests de H0, d’où la réponse qui m’a été rétorquée « ce n’est pas vrai qu’on accepte tout ». Effectivement, « grâce à » la mascarade de ces validations par non significativité à alpha 5% minimum, on accepte des quantités de produits/lots mais pas tout, et cette fausse sévérité (en fait minuscule) fait illusion, cela justifie totalement le 5% sacré, interdisant de dire « changez ce 5% en 0,001% et vous verrez que vous vous mettrez à accepter tout ce que vous déclariez mauvais, ça invalide la totalité de la démarche ». Eh bien non, avec le « 5% sacré », les voleurs « échappent » à cette démonstration éclatante, ultra simple, évidente. C’est du vol confirmé, prémédité, refusant la démonstration cassant l’erreur commise depuis des décennies. Par ailleurs, j’ai lu un article étonnant appelant à remplacer le risque-seuil 5% classique (fauteur de fausses découvertes, non confirmées) par 0,1% – cela est proposable effectivement, mais éminemment suspect si l’on sait que cela ne sert pas qu’en significativité scientifique d’invalidation, mais en pseudo-validation par non-significativité : dans ce cas, on « validerait » immensément plus avec risque (de rejet à tort) abaissé ainsi d’un facteur 50. Qui plus est, je le disais plus haut, pour accepter H0 avec risque 5% de se tromper, sur un exemple presque au hasard, il fallait prendre 47% de risque alfa de rejet à tort de H0, et pour beta 5% c’est même alfa 78% sur l’exemple ci-dessous, or… 5% de risque qualité n’intéresse pas le marchand du tout, en fait, pas du tout prêt à accepter 78% de risque industriel, donc on préfère ne pas creuser les valeurs possibles des risques et clamer alfa 5% indiscutable (en omettant de signaler qu'il y a un risque comme 78% de validation à tort). Hum, louche ou sciemment menteur ? Que les auteurs universitaires s’étonnent sans comprendre paraît moins pertinent que ma position, percevant les conséquences financières en cause.

(U4)- On me confirme que mon rejet de la « validation d’hypothèse » rejoint l’épistémologie de Karl Popper (que j’approuve entièrement, je le dis depuis 34 ans) : il y a asymétrie de la connaissance, entre réfuter solidement (une hypothèse, une généralité) et corroborer timidement (une hypothèse incomplètement étudiée, une généralité pas encore démentie – ou à démenti prétendu irréel). Oui, il y a des gens qui pensent juste, qui pensent droit, ouf, mais c’est à des années-lumière du monde industriel voulant vendre avec blouse-blanche-cravate pour faire illusion. Je ne comprends simplement pas comment les « experts » (théoriquement indépendants) ont pu entériner les erreurs lourdes des textes officiels. Je ne parlerai pas de corruption (ou incitation financière) sans preuve, mais cela paraît totalement injustifiable mathématiquement et logiquement. Toutefois, j’émettrais une réserve personnelle à la grande casse popérienne : le test statistique garde un sens en tant que pari raisonnable (sans prétendre à la connaissance objective de la vérité), s’il est bien fait, en définissant H0 et H1, alfa et beta (ce que ne fait pas du tout l’industrie avec ses tests de normalité par exemple, oubliant l’alternative de cloche concurrente genre sinus puissance k).
(U5)- Il est à demi-mot suggéré que H0 et H1 sont des simplifications, la vérité se situant sans doute quelque part entre les deux. Effectivement, les industriels ne prétendent pas à la perfection H0 mais à « l’acceptable prouvé proche de H0 ». Il n’empêche que leur discours est faux, puisqu’en diminuant le risque d’erreur annoncé, ils acceptent davantage d’autrefois-dits-mauvais, jusqu’à tous les mauvais en descendant à 0% de « risque », et la supercherie éclate alors au grand jour : ils ne parlaient pas de leur risque d’erreur à eux (en acceptation à tort puisqu’ils ont accepté), mais du sous-calcul contraire (ce qu’ils ont refusé de prendre comme risque de rejet à tort).
(U6)- L’élément finalement le plus important, pour contester mon approche, est dans ces cours une injonction nullement justifiée mathématiquement : H1 (et peut-être N) doi(ven)t être décidés avant de commencer les mesures et jamais a posteriori. Cette injonction procédurale n’a pas de sens scientifique, épistémologique, si l’on cherche quelle est la vraie loi (au risque que ce soit quelque part entre H0 parfait et H1 franchement distinct – H1 franchement inacceptable dans les applications industrielles que je connais, ou bien H1 franchement efficace dans les exemples pharmaceutiques d’activité à prouver pour ces cours d’essais cliniques). Et cela change tout, tout : si H0 est <=1% de pièces mauvaises et H1 est >=10% de pièces mauvaises, on pourra effectivement dire que l’essai donnant 2/100 penche vers 1% (H0) plutôt que 10% (H1), en interdisant l’objection « mais ça ressemble encore davantage à 2% qu’à 1% ». C’est une démarche procédurale, liée à une certaine idée de l’honnêteté, de l’objectivité : commencer par entièrement définir ce que l’on veut montrer et ce que l’on veut rejeter, puis ensuite pratiquer le test expérimental prévu, enfin conclure (pour H0 ou bien pour H1) au seul vu du résultat, sans discutailler ni recourir à un complément. Et… je ne suis pas d’accord, arguments à l’appui : sur un test de grandeur mesurée sans limite (pas un taux de positivité), l’échantillon peut présenter un écart-type bien plus grand que prévu, aboutissant à ce que ni H0 ni H1 ne soit rejetée significativement, et dans ce cas augmenter N peut apporter la réponse escomptée, pourquoi l’interdire « par principe » ? Inversement, si H0 et H1 (telles que pré-envisagées, exemple : 0 unité et 10 unités) sont toutes deux rejetées significativement, il est honnête et juste de calculer les moins extrêmes H0’ et H1’ qui ne sont pas rejetées (comme différence 2 unités et 8 unités), donnant un encadrement utile à la vérité estimée, encadrement qu’on peut rendre plus étroit en augmentant le nombre de mesures si on le juge nécessaire. Que cela aille à l’encontre des protocoles pharmaceutiques standards, des règles admises au titre de la concurrence ou quoi, cela m’est indifférent : j’affirme (et je prouve) que l’on peut bien mieux faire si le vrai but est la connaissance de la situation, plutôt que la soumission à un test aveugle (au deux sens du mot : « en aveugle » objectif peut-être, mais aussi aveugle refusant de voir les justes conséquences des données obtenues). Toutefois, et encore une fois, cette divergence d’approche n’efface pas la grosse erreur industrielle que je signalais dans les « validations par non-significativité » : même avec H1 arbitrairement préfixée très loin de H0, il n’empêche qu’il faut définir H1 à rejeter car il n’y a aucune validation d’H0 seule qui soit « valide mathématiquement », et ne raisonner que sur alfa (de rejet à tort) pour accepter H0 est passer à côté du sujet : il faudrait au contraire énoncer comme risque d’erreur le risque que l’on prend avec la conclusion choisie.

---------------------- Ajout 27/06/2015 : (Début de) bibliographie mondiale
  Un ami m’a conseillé utilement de chercher les meilleures sources bibliographiques internationales sur le sujet, en demandant à Google “criticisms of null hypothesis significance testing” et “null hypothesis criticism”. L’article principal sur ce sujet selon Google, est un bilan de très multiples publications, écrit par un mathématicien-psychologue, professeur universitaire étasunien, nommé Raymond S. Nickerson, en l’an 2000 (62 pages A4 en petits caractères = fichier pdf de 5,1Mo, sans copier/coller possibles pour citation hélas), titre : « Null hypothesis Significance Testing : a review of an old and continuing controversy ». J’en tire les enseignements/controverses suivantes :
(V1) - En intoduction, Nickerson affirme qu’une des fautes à ne pas commettre est « la croyance que le non-rejet de l’hypothèse nulle est équivalent à la montrer vraie ». C’était justement l’objet de ma contestation, appuyée par les vrais mathématiciens disais-je.
(V2) - Mais (citant I.J.Good, 1983), en prenant l’exemple de la mécanique newtonienne, Nickerson dit que sans être exactement juste, le non-rejet peut apporter un jugement de justesse approximative satisfaisante. Je le comprends, mais je ne suis pas d’accord concernant mon problème : les calculs portent sur la version parfaite pure, mais où normer l’acceptable micro-imperfection autour ? Le terme de risque semblait répondre à cela, et on pourrait dire ainsi que la mécanique newtonienne (pour vitesses inférieures à cent km/s) est juste à mieux que 0,1% près, mais les statistiques acceptant l’hypothèse nulle sans énoncer d’hypothèse alternative ni de risque beta sont totalement différentes, inappropriées : le risque qu’elles mentionnent n’est absolument pas l’ampleur d’erreur de leur chiffrage (de différence moyenne par exemple) mais la probabilité qui aurait été refusée pour accepter l’échantillon examiné (jugé improbable, donc disqualifiant l’hypothèse/la modélisation) ET cela varie en sens inverse de l’incertitude. Plus le risque alfa énoncé est petit (genre 0,1% au lieu du classique 5%), plus on accepte les cas loin du modèle. C’est aberrant, il y a tromperie : le test d’hypothèse nulle (sans H1 ni beta) n’a absolument pas chiffré sa pertinence, seulement fait illusion auprès d’esprits inattentifs ou incompétents (ou déficients, certes, méritant indulgence et pardon – quoique surpayés refusant d’écouter les objections/stopper les mensonges…).
(V3) - Citant Hagen, Nickerson conteste que l’hypothèse nulle devient toujours fausse si l’effectif de l’échantillon devient immense, disant qu’un effet « non nul » (comme différence "traités X" moins "traités placebo") a besoin d’être significatif en pratique aussi – la question utile n’étant pas « totalement nul ou pas totalement ? ». Je suis d’accord, mais cela ne répond pas au problème que je signalais : le contexte dont je parle n’est pas la tentative de prouver un médicament efficace avec immense effectif rendant significatif un micro-effet négligeable, c’est au contraire la « validation » prétendue de quasi non-effet sur petit échantillon sans définir l’hypothèse alternative définissant/chiffrant l’effet refusé. La façon propre de faire consiste bien à définir H0 parfait (ou H0’ a posteriori, quasi-parfait) et H1 inadmissible (ou H1’ a posteriori, minimum effectivement rejeté), alors l’échantillon apporte une connaissance objective, pondérée par les aléas d’échantillonnages/généralisations explicitement chiffrés. Mais faire passer « quasi H0 », non chiffré (en décalage toléré) et sans aucune alternative rejetée en face (gros décalage prouvé très improbable), c’est une tromperie.
(V4) - Nickerson cite encore I.J. Good pour dire incorrect de ne pas spécifier au départ l’effectif mais de l’accroître a posteriori jusqu’à obtenir un résultat significatif. Cela semble me donner tort mais je ne suis pas d’accord : si l’on a défini fermement H0 et H1 et que ni l’un ni l’autre ne sont rejetées, il me paraît juste et même obligatoire d’accroître l’effectif. Inversement, en acceptant l’hypothèse a posteriori comme je l’envisage, on peut modifier H0 et H1 en H0’ et H1’ limites acceptée/refusée avec l’échantillon examiné sans l’accroître, pour information (avant jugement d’acceptation ou non, de cet effectif/cette conclusion, selon les besoins).
(V5) - Nickerson dit aussi que ce qui est pratiqué, en test d’hypothèse nulle, peut ne pas être un vrai test d’hypothèse avec H0 pile, mais une mesure cherchant environ H0 sur un effectif donné (ne visant pas à rejeter une hypothèse H1 mais simplement à confirmer qu’on n’est pas trop loin de H0). Le problème reste cependant, selon moi, que la valeur seuil est potentiellement n’importe quoi, et il est employé pour conclure le quantile 95% (autrement dit alpha 5%), or ce risque 5% est abaissable à 0% en faisant tout accepter, le terme de risque est donc totalement inapproprié. Et rejeter les 5% les plus loin de la perfection est très contestable : peut-être que les 99% les plus proches de H0 sont des produits/lots corrects pour l’application attendue, ou au contraire, peut-être que les 20% les plus loin de H0 sont des produits/lots incorrects pour l’application attendue. La qualité c’est répondre au besoin, pas obéir à un chiffrage sans signification. Retenir le 95% sacralisé relève du « n’importe quoi » arbitraire, anti-scientifique. Surtout que la sacralisation du « risque 5% » est intervenue pour le rejet de H0, ce qui n’a absolument rien à voir avec le sujet ici abordé (l’acceptation de quasi-H0). De plus, s’il y a 10 points de tests (10 concentrations en chimie, 10 souches en microbiologie, 10 catégories de patients en essais cliniques, etc.), faut-il que chacun soit normé à ±5% ? Avec la loi binomiale, on peut prévoir que la probabilité d’échec n’est alors pas de 5% mais 40% (car 0,95^10=0,60). Ou bien il faut normer chacun à ± 0,51% [car 0,95^(1/10)=0,9949] pour que le pire des 10 ait la probabilité 5% d’échouer, mais pourquoi ? où est le clair 5% sacré là-dedans ? Et, pour le test de normalité ou le Lack of fit de linéarité, c’est bien un vrai test statistique d’hypothèse qui est pratiqué, nullement un calcul probabiliste d’occurrence brut.
(V6) - Nickerson conteste aussi le caractère « tout ou rien » (all-or-none, dichotomisation) du test d’hypothèse nulle, notant qu’il n’y a pas de saut majeur entre les p-values 4% et 6% (ou 4,5% et 5,5%). Cela rejoint partiellement ce que je disais en montrant que la p-value 6% dite « valider » l’acceptable peut correspondre à un produit ou lot un peu mauvais (ressemblant plus au mauvais qu’au bon, si l’on s’était donné la peine de définir le mauvais à refuser).
(V7) - Mais Nickerson préfère le test de corrélation ou régression, quantifiant un effet (dans un nuage de mesures engendré par les aléas tout en laissant voir une tendance nette, un effet sous-jacent), et je suis réservé à ce sujet. En effet, pour un test de linéarité (de dosage chromatographique), le texte officiel requerrait une régression linéaire ultra-significative avec R² très proche de 1, et cela donne généralement une droite ne passant pas par 0,0 dite « droite prouvée optimale », « meilleure estimation de la vérité », mais… le protocole d’emploi de la pharmacopée employait une calibration monopoint (avec 1 étalon) alors que cela correspond à un passage par 0,0 d’où contradiction. Et… en répliquant mille fois l’injection de rien, je pouvais « prouver », avec risque infime, que la droite affirmée optimale était totalement fausse. Toutefois, via le « domaine de concentrations dosables » (ou la « limite de quatification » LoQ) cette objection serait réfutable, mais… la droite des moindres carrés surestime l’impact des grandes valeurs, pouvant donner des erreurs relatives importantes (genre +30%) tout en bas de la gamme de concentrations. Le défaut de conception des statistiques employées restait majeur, et pour calibration monopoint, j’ai montré/inventé qu’il valait bien mieux étudier la constance du ratio réponse/concentration, ou employer un système logarithmique annulant la surestimation des grandes valeurs. Pour cela, il faut réfléchir, contester, c’est tout le contraire de s’en remettre à des textes sanctifiés, établis par des mathématiciens ne comprenant pas la situation technique précisément rencontrée mais appliquant des schémas prédigérés conçus pour autre chose. De même, un test de justesse (de numération bactérienne) pouvait aboutir, au vu de mille échantillons, à la conclusion qu’il y avait corrélation significative entre méthode de référence et nouvelle méthode proposée/vendue, mais… si on avait conservé les échantillons et repassé cent fois les plus discordants, on aurait pu prouver que les différences n’étaient nullement un zéro assorti d’aléas de répétabilité, mais des biais répétables sur certains échantillons, prouvant la différence entre méthodes (avec certes une fréquence et ampleur peut-être acceptables, mais à énoncer/avouer, sans prétendre à la quasi-perfection démontrée, par erreur méthodologique et/ou bagou commercial). Cela m’amenait à la conclusion professionnelle « je sais comment invalider, je ne sais pas comment valider »… balayée par les décideurs, pour valider menteusement, en profitant de la complicité des textes officiels, aveugles ou visant fortune imméritée, « volée » en profitant de la crédulité/incompétence mathématique des clients.
(V8) - Nickerson explique plus loin que pour les psychologues, c’est le rejet de l’hypothèse nulle (valant « nouvel effet démontré ») qui permet de publier, et non l’acceptation de l’hypothèse nulle (sans intérêt). Il combat donc les rejets à tort, au contraire de moi-même confronté industriellement aux acceptations à tort dites « validations » de quasi-perfection.
(V9) - Nickerson se plaint que de nombreux auteurs emploient des tests paramétriques sans avoir vérifié la normalité de leurs données. Peut-être que c’est ce qui se passe mais je ne suis pas du tout d’accord avec l’injonction implicite de Nickerson à pratiquer ces vérifications. En effet, la validation de normalité est une fautive validation par non-significativité sans définir H1 (qui pourrait être la cloche sinus puissance k), et avec petit risque de refus à tort qui est hors sujet puisqu’il y a acceptation (à risque caché). Nickerson passe donc totalement à côté du problème que je dénonce (chez lui aussi), au lieu d’y répondre.
(V10) - Nickerson, citant divers auteurs, signale que les valeurs trouvées (pour un effet médicamenteux par exemple) devraient être données avec leur intervalle de confiance. Mais je ne suis pas d’accord sur le principe que cela résoudrait le problème des tests d’hypothèse nulle : on en revient à la comparaison de taille moyenne homme-femme, avec intervalles de confiance à 95% (risque 5%) disjoints et recouvrement partiel des intervalles de confiance à 99,9% (risque 0,1%). Le problème est que, quand on prétend accroître la confiance, diminuer le risque, on pseudo-valide à tort n’importe quoi (tout échantillon devenant compatible avec H0), en prenant en fait un risque accru de se tromper (en prétendant H0 validée par cet échantillon). Et si c’était le risque de se tromper dans l’acceptation de l’hypothèse nulle qui comptait, le seuil alfa 5% pourrait être totalement inapproprié (cf. 78% requis pour l’exemple que j’inventais au-dessus). Nickerson, une fois encore, ne voit pas le problème.
(V11) - Nickerson, citant Bhattacharyya et Johnson, rappelle judicieusement que les intervalles de confiance autour d’une estimation, avec confiance 1-alfa, ne désigne pas la zone dans laquelle on a la probabilité 1-alfa de trouver la valeur vraie mais une modélisation utilisant les données de l’échantillon (comme moyenne et variance) pour estimer quels autres estimations auraient été obtenues sur une proportion « 100% moins alfa » d’autres échantillons. Il faut effectivement être vigilant, je pense, même si cela ne change pas le problème de fond.
(V12) - Quoique dise Nickerson, il me semble que les intervalles de confiance (se recouvrant ou non) sont synonymes de test sur l’hypothèse de différence nulle (ou non-nulle). Le fait que les intervalles de confiance soient trouvés trop larges (selon plusieurs auteurs rapportés par Nickerson) est propre au besoin de résultat significatif pour publier, alors que pour les industriels au contraire : c’est tout bénéfice, tout étant déclarable « quasi-parfait » avec risque très petit (et absolument tout, même mauvais, étant déclarable absolument parfait avec risque infime, ce qui invalide toute la démarche, c’est ce que je dis, même si Nickerson ne semble pas informé que cela se pratique – et n’a pas compris qu’il l’applique lui-même pour « établir » la normalité des données…).
(V13) - Nickerson, signalant que des auteurs ont affirmé que le coefficient de corrélation r est meilleur que le coefficient de détermination r², s’avère un psychologue jouant un peu aux mathématiques et nullement un mathématicien digne de ce nom. En effet, s’il était mathématiquement lucide, il verrait qu’il n’y a rigoureusement aucune indication de plus dans r² que dans (la valeur absolue de) r. Exiger r>0,99 ou bien r²>0,98 (aux arrondis près) est logiquement équivalent, sauf bla-bla s’intéressant davantage aux noms littéraires différents qui sont donnés à r et r².
(V14) - Nickerson, citant Grant, dit qu’on peut préférer l’ajustement à un modèle plutôt que le test d’hypothèse, mais je réitère mon objection, inchangée : la crédibilité du modèle n’est pas crédible avec alfa (le petit risque de rejet du modèle correspondant à un grand risque, secret, de l’accepter à tort, non perçu faute d’avoir formulé et étudié un modèle alternatif crédible).
(V15) - Nickerson, citant Wickens, parle d’un paramètre « goodness of fit » alors que je ne connais que le « lack of fit » (erroné dans son emploi pour valider un modèle). Et a-t-il conscience que ce sont les erreurs relatives qui comptent en matière de quantification, même si les purs mathématiciens peuvent avoir centré leurs calculs sur les sommes d’erreurs brutes au carré ?
(V16) - Nickerson (au point « d » des alternatives au Null Hypothesis Statistical Testing) appelle encore à une validation de modèle par non-significativité. C’est une faute logique, une grande prise de risque inavouée (ou parlant menteusement de petit risque opposé pour en fait ce qui serait classé significatif).
(V17) - Nickerson, quand il fait le bilan des critiques contre le test d’hypothèse nulle, oublie la faute des validations par non-significativité, qu’il a certes posée au départ comme absurdité mais a commise lui-même plus loin en appelant à s’approcher d’un modèle confirmé par non-significativité de la différence (sans hypothèse alternative). A mon avis, cela vaut nullité de la crédibilité, pertinence, de cet auteur multi-publié, prétendu expert mondial du sujet... Je ne veux pas prendre sa place, je regrette simplement son aveuglement, couronné à tort, peut-être pour cacher d’énormes mensonges, valant milliards de dollars/euros.
(V18) - En conclusion, Nickerson s’amuse des propos féroces traitant le test d’hypothèse nulle comme « perversion de la méthode scientifique », « grotesquement fallacieuse », un « désastre », mais à mon avis il faut distinguer totalement : d’une part son emploi de manière théoriquement correcte (définissant H1 et calculant beta), d’autre part sa perversion déguisée en variante simplifiée (se dispensant de définir H1 et mentionnant alfa au lieu de beta en risque à l’acceptation de H0).
(V19) - Nickerson dit aussi que les partisans et opposants se traitent de stupides, ridicules, idiots, avec une remarquable assurance. Il n’a absolument pas compris le sujet, et notamment sa propre faute, qui est un « mensonge mathématique » clair et net, prétendant s’appuyer sur la rigueur et incontestabilité mathématiques (en aval d’axiomes admis) pour en fait s’autoriser des jeux de mots travestissant les conclusions dans le sens financièrement rémunérateur. Oui, cela appelle des grands cris, pas compris par Nickerson, simplement, ou menteusement, tout est possible.
(V20) – Je ne sais pas si je vais continuer à explorer ces énormes publications en anglais, passant à côté du sujet (puisque Nickerson, que j'ai démontré fautif, prétend avoir fait une synthèse, en étant mille fois cité dans les publications de la communauté scientifique). Peut-être conviendrait-il mieux de questionner Google avec les mots « fausse validation par non-significativité », ou l’équivalent anglais. Mais cette lecture longue et difficile m’a un peu épuisé, et je ne suis pas certain de continuer. Ou bien... préférer me changer les idées, pour digérer autrement l’affreuse situation, la sagesse pouvant résider dans une forme de « je-m’en-foutisme ». Tant pis pour la science, l’honnêteté intellectuelle n'a qu'à crever – c'est déjà fait en matière politique/géopolitique (avec bénédiction des terroristes bombardements de Gomorrhe/Dresde/Hiroshima, rendu raciste de la Palestine aux Hébreux sans rendre Amérique et Antilles aux Amérindiens, validation de l'envahissement européen des USA et refus d'être envahis à notre tour équitablement) alors il n'y a qu'à parachever l'horreur/démission argumentaire, se foutre de tout, et tant pis si on explose sur/sous des bombes, personne ne cherche à penser juste…

---------------------- Ajout 02/07/2015 : Re-formulation testamentaire ?
   Je pensais avoir fini mon exposé, mais… un grand cadre, ex biomathématicien, m’a aimablement transmis ses objections à la lecture de mon texte ci-dessus, et… je pense devoir ré-exprimer ce que je disais, pour être compris vraiment, pas classé « psychiatriquement malade » ou « risible ayatollah de l’hyper-perfection ». (Enfin, ça vaudrait peut-être mieux, car l’avion risque d’exploser si je dérange vraiment). Je ne disais pas que l’industrie doit abandonner tout test statistique, imparfait par principe donc inadmissible. Ce n’est pas ce que je dis. Je distingue 3 attitudes statistiques très différentes :
X (genre chercheur public voulant publier) : « génial, mes résultats font rejeter H0 avec grande confiance »
Y (genre industriel honnête, anormal avant banqueroute) : « génial, mes résultats font rejeter H1 avec grande puissance »
Z (genre industriel malhonnête, normal avant super bénéfice) : « génial mes résultats prouvent quasi H0 avec grande confiance »
  X est peut-être critiquable (cas de micro-truc non nul mais négligeable) mais ce n’est pas mon sujet, Y me va bien, Z a complètement tort et mon sujet est cela : pour Y au lieu de Z.
  Et je ne parlais pas de brumeuses généralités floues mais de points mathématiques ultra-précis. Z (qui me révulse) dit que pour prouver (avec <5% de risque de se tromper) un taux de mauvaises pièces <=1%, il suffit de passer 100 pièces et accepter 0 ou 1 ou 2 mauvaises, surtout pas 3. Y (que j’approuve) dit, complètement différemment, que pour prouver (avec le même risque <5% de se tromper) un taux de mauvaises pièces <1%, il faut zéro pièces mauvaises sur 299, surtout pas 1 ni 2, et un total 298 ne suffirait pas. Il s’agit de deux voies de calcul en désaccord total, une totalement fausse absurde et une correcte, il ne s'agit pas d’un procès en sorcellerie envers tout le monde statistique théorique. Changeons le risque et tout apparaît en clair : Z aurait pu dire que pour prouver (avec <0,001% de risque se tromper) un taux de mauvaises pièces <=1%, il suffit de passer 100 pièces et accepter 0 à 5 mauvaises, surtout pas 6. Y (que j’approuve) dit, complètement différemment, que pour prouver (avec <0,001% de risque de se tromper) un taux de mauvaises pièces <1%, il faut zéro pièces mauvaises sur 1146, surtout pas 1 ni 5, et un total 1145 ne suffirait pas. La voie Y est (chère, négative, mais) cohérente : quand on diminue le risque (d’accepter à tort le produit qu’on veut accepter), on est plus exigeant et tend davantage à rejeter. Z est incohérent : quand il prétend diminuer le risque (cachant qu’il parle du risque de refus alors qu’il va accepter le produit), il est moins exigeant et tend moins à rejeter ; s’il n’accepte pas tout (avec avalanche de réclamations quand c’est très très mauvais), c’est qu’il a sacralisé le risque 5% prétendu, sans s’autoriser à descendre à presque 0% de risque prétendu ; il n’empêche que le risque invoqué est une erreur totale (pas du tout une imperfection inévitable, mieux que "ne rien faire comme calcul").

  Pour prendre un autre exemple, parlant peut-être mieux à mon interlocuteur (cf. notre discussion vers l’an 1985… , interrompue/enterrée par la hiérarchie pharmacienne), je m’attache maintenant au cas industriel des sous-lots qu’on voudrait regrouper en lots, si les sous-lots sont identiques ou quasiment. Y dit : je vais prendre tous les résultats de dosages « soir moins matin », avec H0 = moyenne nulle, H1 = moyenne -10% (« moins 10% »). Si les résultats ne rejettent ni H0 ni H1 (aux seuils alfa 5% et beta 5%), il admet qu’il faut davantage de valeurs. Puis il rejette H0 hélas, ou rejette H1 (content, et il réunit ses sous-lots en lots). C’est admissible, selon moi, je l’affirme (ce n’est même pas que je le concède à regret, à trois petites remarques près, j’en reparlerai).
  Mais Z fautif (pardon pour ce jugement...) dit différemment : « avec les mêmes résultats de dosages "soir moins matin", avec H0 = moyenne nulle [il se dispense de définir H1 à rejeter, ce qui paraît statistiquement insensé, mais voyons où ça mène]... si les résultats ne rejettent pas H0 (au seuil alfa 5%), ça prouve qu’on n’est pas significativement loin de H0 » (et, content, il réunit les sous-lots en lots, augmentant la profitabilité et obtenant promotion en flèche). Et là, je hurle : « Z, vous avez obtenu une p-value de p=8% certes pas inférieure à 5%, mais vous auriez échoué si vous aviez obtenu une p-value p=2%, vous auriez rejeté H0 et pas réuni les sous-lots, OR si vous prenez un alfa-seuil 1% au lieu de 5% (c'est mieux de minimiser davantage le risque ! si on parvient quand même à conclure quelque chose), vous auriez accepté le mauvais p=2%, et avec un alfa-seuil à 0,0001%, vous auriez crié victoire (non-sinificativité de la différence) avec l’horrible p-value 0,0002% (traduisant une situation très-très-loin de H0), cette absurdité ruine totalement votre argumentaire, fautif mathématiquement, et pécuniairement intéressé donc frauduleux. Si ça ne sautait pas ouvertement aux yeux, c’était grâce à votre étrange glorification du 5% interdisant qu’on envisage de changer la valeur du risque. Ainsi, sur mille domaines d'application, vous n’acceptiez pas tout mais refusiez un tout petit peu, en faisant croire à une rare imperfection, en ayant caché qu’en annonçant un risque inférieur à 5%, vous preniez en fait un risque de peut-être 40% à 80% (selon H1 précis qui lui serait opposé). Frauduleusement, comme tous les concurrents certes, et avec approbation des officiels réputés tatillons, en fait incompétents ou achetés. »
  J’ajoute les réserves à Y qui sont surtout des preuves supplémentaires à charge contre Z :
1/ Allié à la variabilité. Si le dosage donne des résultats très imprécis, cela brouillera l’effet « différence » en vague tendance dans un nuage, et c’est super pour ne pas rejeter H0, mais Y a raison de dire que H1 n’est pas non plus rejetée, donc le résultat de variabilité excessive devrait être une non-conclusion (ce n’est une victoire que pour Z, une fausse victoire).
2/ Diversité n’est pas aléa. Si le dosage mélange des hausses par évaporation et des baisses par dégradation, l’ensemble mélangeant tout peut cacher le problème de nette dégradation en composants M et N par la hausse légère en composants A à L. Y honnête conviendra que l’étude pertinente est à effectuer composant par composant (avec des valeurs hautes et basses peut-être répétables), tandis que Z clamera qu’il ne faut pas couper les cheveux en quatre, qu'il convient de passer un maximum de lots aléatoires plutôt que des répétitions sur cas discordants, car il ne faut pas l’empêcher d’atteindre « au mieux » (au plus efficace, même fautif) son objectif de réunir les sous-lots.
3/ A l'aide des petits échantillons. Ce point, qui est presque 1-bis, vient du fait que quand l’effectif est petit, comme quand la variabilité est grande, rien n’est significatif, parce qu’en principe il n’y a aucune conclusion (selon Y). Mais Z ne regardant qu’un côté, il a ce qu’il voulait (pseudo-preuve que c’est bon), sans reconnaître qu’il a totalement échoué à rejeter le contraire (hypothèse que c’est mauvais), sans même se poser la question, et pire : sans tolérer qu’on lui signale sa faute, objection balayée au nom du professionnalisme ou de « l’expertise », des « règles officielles indiscutables ». On aurait pu dire « le pape l’a dit, l’empereur l’a dit, le prophète l’a dit, le leader l'a dit, le führer l'a dit », les mathématiques comme la simple logique ne sont alors pas le sujet, effectivement, hélas.
  J’espère être compris maintenant, ayant redit les choses posément ainsi. Ce ne sont pas les statistiques en principe qui sont fautives, ce sont les validations par non-significativité (se dispensant de définir H1, béta, puissance) qui constituent une erreur mathématique et une erreur logique évidente. Avec fausse « preuve mathématique que c’est bon », fausse « validation », et fautive réservation de la discussion aux experts mathématiciens.
  Post-scriptum : je ne clame pas "c'est moi qui ai raison toujours et autrui est un imbécile", je demande simplement (au cas où autrui existe) à ce qu'on me lise, pour me dire où je me trompe, et si c'est le cas, je le reconnaitrai avec joie, sincère. Hélas, je pense que je ne me trompe pas, et puisqu'il suffit vraisemblablement de 8 ans d'âge mental pour comprendre ce que je dis là, je m'étonne de ne pas avoir reçu à ce jour de réponse comprenant ce que je dis. Je ne désespère pas. Merci.

---------------------- Ajout 05/07/2015 : Nouvel angle : « La (fausse) raison de la glorification (pseudo) statistique du risque <= 5% »
   J’ai envisagé créer une page Internet détaillant ce sujet, très mal abordé par les experts, dépourvus d’explication convaincante. Ou même d’en faire un livre. Enfin, je le ferai peut-être quand je serai à la retraite, ou au chômage, viré pour faute lourde (envers les « intérêts » financiers de mon employeur). Dans un contexte de fausse science, de commerce para-scientifique, avec usuel boniment menteur pratiqué en blouse blanche pour prétendre à l’objectivité incontestable (le dogme moyenâgeux de La Vérité Sacrée ayant laissé place au dogme moderne de La Vérité Scientifique, du moment, en fait conviction temporaire des « leaders d’opinion » gouvernant les congrès prétendus scientifiques…).
   Je l’affirme et je le démontre (je vais le redémontrer ici encore) : le seuil 5% pour les significativités n’est pas seulement une mystérieuse convention arbitraire, comme une autre, c’est le secret d’une escroquerie générale, couverte par les prétendus experts officiels, sans doute très riches, même si c’est peut-être une coïncidence. Dans ce petit développement, je prendrai 3 étapes :
   1– Les raisons entendues
   2– Les conséquences inverses et l’approche critique
   3– La vraie raison, inavouée, cachée
   Allons-y.
1– Les raisons entendues
   Dans un immense texte, énormément cité par la communauté scientifique, le spécialiste américain R.S.Nickerson s’étonne que les auteurs scientifiques, tellement prompts à se critiquer voire s’insulter, s’accordent sur le seuil quasi-officiel de 5% pour définir ce qu’est une différence significative ou non. Pour explication, il donne simplement l’honnêteté de convenir d’un seuil commun, sans choix subjectif de chacun selon ce qui l’arrange pour se faire publier.
   Dans un autre texte, le journaliste scientifique français P.Barthélémy se plaint que les « découvertes » scientifiques sont mal reproduites et préconise l’emploi d’un seuil 0,1% au lieu de 5% pour diminuer drastiquement le taux de fausses découvertes.
   Tout cela est intéressant, mais me semble passer à côté du sujet.
2– Les conséquences inverses et l’approche critique
   Quand on dit qu’une différence est significative si la probabilité dite p-value est <= 5%, (autrement dit « confiance >= 95%) que cela signifie-t-il ? L’énoncé officiel est que le risque de première espèce de se tromper est <=5%. Le sens intuitif est qu’il y a moins de 5% de chances de se tromper, et la plupart des hauts diplômés font taire les personnes qui s’étonnent de ce risque pas négligeable, en soupirant « imbécile, vous voudriez un risque zéro, comme une qualité zéro-défaut, ça n’existe pas ! La science est efficace précisément, puissamment, en admettant un petit risque d’erreur, inévitable » (tout comme, côté technique, dit de manière ronflante « technologique », les ordinateurs domestiques ont connu un essor vertigineux, qui aurait été bloqué, annihilé, si on avait interdit tout plantage-machine occasionnel, un peu désagréable mais valant la peine d’être toléré).
   Toutefois, si un concurrent anti-scientifique (en médecine alternative, ou en prières) prétendait à des succès incontestables avec un tel petit risque négligé, la communauté scientifique froncerait les sourcils et montrerait la faute, relevant d’un travail d’illusionniste. En effet, on peut penser par exemple que, puisque 5%=1/20, si on teste 20 médicaments placébo (genre « homéopathie » selon les pharmaciens rigoristes), automatiquement 1 sortira faussement « efficace », et ce serait un artefact, nullement une découverte incontestable. L’important consisterait alors à confirmer, de manière indépendante, faisant chuter la probabilité de faux positif de 5% à 0,25% (car 0,05*0,05=0,0025) soit 1/400, et s’il y a 500 placebos candidats, il faudrait procéder à une troisième vérification, abaissant le risque à 0,0125% (car 0,05*0,05*0,05=0,000125) soit 1/8000.
   Objection : en calcul probabiliste (binomial), on voit toutefois que si un phénomène a la probabilité 0% de survenir, le fait qu’il se positive à tort ne change pas avec le nombre d’essais (20 davantage que 1 mais moins que 400), non, il reste 0%. Cette anomalie vient du fait qu’il ne s’agit pas, généralement en affaires biologico-médicales, de réponse qualitative en tout ou rien, qui ferait qu’un médicament placébo ne peut absolument pas correspondre à une guérison. Non, il y a des guérisons spontanées, endogènes, et ce n’est que quand le taux de guérisons est « significativement » supérieur aux guérisons spontanées (escomptées) qu’on déclare qu’il y a efficacité probable. Dans le tableau ci-dessous, on voit qu’avec une rémission spontanée de 0,01% la présence de 1 (ou plusieurs) guérison sera significative si l’effectif est de 512, mais qu’avec un effectif de 100 seulement, cela ne sera significatif que si la guérison spontanée atteint 0,0512%, tandis qu’avec une guérison spontanée de 0,3565%, ce sera la présence de 2 (ou davantage) guérisons sur 100 qui sera déclarée significative.

   Bien sûr, cela soulève la question de la véracité du taux de guérison spontanée, sans doute estimé d’après un échantillon passé (de taille réduite avec généralisation douteuse, et affirmé arbitrairement comme « représentatif » de la situation future – ce qui est faux avec les hypothèses philosophiques interdites de rêve et de créateur tout puissant, comme avec le dogme scientiste de l’évolution).
   Mais bref, à de petites réserves près, le dogme du <5% significatif résiste à cette première vague critique.
3– La vraie raison, inavouée, cachée
   Le vrai drame de ce seuil 5%, et à mon avis sa vraie justification (fautive), vient de son emploi en « validation par non-significativité ». Là, il ne s’agit pas de dire façon Recherche « on a découvert un phénomène sans que les résultats soient imputables au hasard » (d’échantillonnage, avec mesure sur un échantillon réduit, peut-être peu représentatif de la population) ou « on a prouvé l’efficacité d’un médicament sans que les résultats soient imputables à la guérison spontanée ». Non, il s’agit de dire au contraire « on valide ce nouveau produit comme prouvé équivalent à son concurrent plus onéreux » ou « on a prouvé l’innocuité d’un produit, les résultats étant imputables à la morbidité spontanée », ou encore « ce lot est prouvé bon puisque les différences avec la théorie viennent du hasard ».
   Or… le principe des statistiques consiste à rejeter des hypothèses improbables, pas du tout à prétendre « prouver » des hypothèses. Il s’agit d’une faute mathématique, pas seulement épistémologique (réfutation catégorique d’un côté, corroboration temporaire de l’autre). En effet, plus on diminue le risque alfa de rejeter à tort l’hypothèse neutre, plus on augmente le risque béta d’accepter à tort l’hypothèse neutre. Il faudrait dire qu’on a prouvé (avec moins de 5% de chances de se tromper) que tel médicament tue moins d’un patient sur 1000 (hypothèse rejetée), et non qu’on a prouvé (avec moins de 5% de chances de se tromper) que tel médicament est innoffensif car sa p-value 6% n’est pas <5%. En effet, en changeant le risque, tout s’effondrerait : le curare serait prouvé innoffensif avec risque <0,000 000 10% car sa p-value 0,000 000 13% n’est pas inférieure à ce 0,000 000 10%. Oui, c’est idiot, et… oui, c’est ce qui est pratiqué pourtant (grâce au « 5% sacré indiscutable », validé par les autorités officielles dites garantes du Bien public, de la Qualité), au plus grand bénéfice de l’industrie, de ses dirigeants et actionnaires surtout, de ses employés aussi (hélas complices, même s’ils protestent et se voient étouffés ou menacés ou renvoyés – par incompréhension de « supérieurs » incompétents ou par vilénie cupide employant l’abus de pouvoir).
   « Snif-snif ! C’est vraiment trop injuste… » aurait larmoyé le petit poussin anormal Kalimero…
   Quelques remarques simplement :
– Ce système fautif ne concerne pas que la biologie/pharmacie mais ce sont toutes les statistiques qui s’effondreraient, presque, si le scandale était connu de tous. En effet, les très puissantes « statistiques paramétriques » (epsilon, t, F, ki², etc.) reposent sur une « validation par non-significativité » du caractère « normal » (gaussien) des échantillons, sans rejet timide d’hypothèse alternative. Ne resteraient que les statistiques non-paramétriques, perdant l’information riche des valeurs mesurées pour se cantonner à leur ordre de classement, et avec le problème quasi insoluble de gérer les ex-aequo potentiels dans les tables/calculs de référence (très multiples cas d’ex-aequo possibles, devenant très majeurs avec équiprobabilité des cas de classements, et pourtant très improbables s’il y a beaucoup de décimales mesurées ou ratios sur grands nombres).
– Personnellement, je trouve une légère satisfaction (certes négative) dans cette démolition des statistiques, vu que j’avais abordé ce domaine avec suspicion. En effet, j’avais été convaincu par Karl Popper (ouvrage « La logique de la découverte scientifique », lu en 1981) que la généralisation inductive est une erreur en matière de logique, et le principe des statistiques inductives (prétendant connaître la population entière au vu d’un échantillon réduit) me paraissait intrinsèquement absurde. J’ai donc été (anormalement) vigilant, cherchant à trouver la faille davantage qu’à obtenir des notes parfaites en application des dogmes enseignés/imposés. Je n’ai pas trouvé l’horreur dans mes études universitaires (1981-84 – hormis l’enseignement médical à « apprendre, sans perdre temps et énergie à réfléchir »), mais dans la pratique industrielle (1985-2015), fautive clairement en refusant de le reconnaître, à l’abri de monstrueux textes officiels, idiots ou malhonnêtes.
– Pourquoi le seuil est-il à 5% et pas à 0,1% (qui permettrait à l'industrie menteuse de vendre davantage) ? A mon avis, c'est parce qu'utiliser cette erreur logique pour faire accepter n'importe quoi ferait accepter le très mauvais, d'où avalanche de réclamations, avec perte des clients et peut-être sanction des autorités auditrices. Mais avec 5%, c'est l'un peu mauvais simplement qui est affirmé "prouvé bon" à tort, et ça passe donc presque inaperçu (prouver que le "un peu mauvais" n'est pas bon demande d'immenses études, que personne ne commandite, ne fait). Mais c'est une faute mathématique, et quand il est clamé "prouvé mathématiquement que c'est bon", c'est du mensonge financièrement intéressé, de l'escroquerie.

---------------------- Ajout 12/09/2015 : Présentation simplifiée
   A mon travail (après 7 ans d'échecs en "alerte Qualité" industrielle et au total 30 ans d'échec en remarque orale "Contrôle Qualité"), j'envisage de dire en face aux responsables : "je peux vous prouver très facilement que c'est faux, mathématiquement faux, niveau requis : classe de 3e, 14 ans d'âge mental, OK ? regardez...".

   Certes, idéalement, ce serait une cession de diapositives genre Power-Point, avec les cases aparaissant les unes après les autres, et le marqueur optique pointant les chiffres de référence explicatifs, mais peu importe le comment, le quoi est ici posé, ultra-majeur.

---------------------- Ajout 13/09/2015 : Petite correction
   Orthographe des pluriels, et 2 lignes pour l'interprétation juste, et moins d'ambiguïté sur l'invalidatié initialement dite fausseté validée, et adresse avant pillage éventuel (pour Prix Nobel ? :) ).


---------------------- Ajout 17/09/2015 : Explication et parallèle
  La raison pour laquelle le mensonge statistique (des validations par non-significativité) a autant de succès me semble venir d’une approximation intuitive, exploitée par mensonge employant le flou littéraire. La question implicite est « est-ce que c’est prouvé mauvais ? », la réponse non étant intuitivement entendue comme « donc c’est prouvé bon » (là où mathématiquement la vraie réponse est « on n’a rien réussi à prouver, il n’y a aucune conclusion »). Et en « abaissant le risque d’erreur », sans dire de quel risque on parle, on pose la question « est-ce que c’est prouvé très très mauvais ? », la réponse non étant intuitivement entendue comme « donc c’est prouvé très très bon » (là où mathématiquement la vraie réponse est « ce n’est pas prouvé très très mauvais, c’est peut-être simplement très mauvais »). Avec ce malentendu organisé, avec totale erreur mathématique camouflée, il y a hélas des fortunes qui sont faites.
   Indépendamment de cette explication, je vais prendre un parallèle intuitif, car je me souviens des difficultés à me faire entendre sur les incertitudes parfois supérieures aux tolérances… jusqu’à ce que je prenne l’exemple hyper-parlant de « contrôle autoroutier à 100km/h±30km/h contrôlé avec radar d’aviation militaire à ±500km/h » – là, les auditeurs percevaient l’aberration. Je vais donc prendre un exemple fictif de radar routier pour cette histoire de « validation par non-significativité ».
   Le gouvernement français s’équipera en 2115 de radar Bon Marché certifié Bonne Marchandise, certes pas parfait mais pourvu d’un puissant algorithme statistique. J’invite à voir comment il est utilisé dans le pays Franchonaco : là, le parc routier compte trois types de véhicules :
– 100 Gentils Calmes, à moteur 4 cylindres, régulateur de vitesse à 130km/h ;
– 20 Méchants Rebelles, à moteur 8 cylindres, régulateur de vitesse à 160km/h (risque décuplé d’accident) ;
– 2 Horribles Terroristes, à moteur 16 cylindres, régulateur de vitesse à 260km/h (risque centuplé d’accident).
   Soit 22/122 = 18% d’incorrects à sanctionner.
   Le radar BMBM imparfait assisté donne les probabilités suivantes :
– pour 1 véhicule GC : 4% des mesures à au moins 150km/h ; 0,0015% des mesures à au moins 250km/h.
– pour 1 véhicule MR : 70% des mesures à au moins 150km/h ; 0,15% des mesures à au moins 250km/h.
– pour 1 véhicule HT : 99,9985% des meures à au moins 150km/h ; 70% des mesures à au moins 250km/h.
   Le gouvernement franchonaque décide donc de placer le seuil de contravention (confiscation du véhicule) à 150km/h mesuré, et des voix se font entendre pour dire qu’on diminuerait encore le risque en employant 250km/h plutôt que 150km/h, ce que je conteste, moi.
   Il y a deux formes de risque :
– « acceptation à tort », le risque à l’acceptation sans verbalisation (risque de danger public) : beta
– « refus à tort », le risque de punition à tort d’innocent (risque de gaspillage injuste des sanctions) : alfa
   Beta se calcule ainsi : parmi les cas acceptés, probabilité de compter un incorrect (non-GC) et Alfa se calcule ainsi : parmi les refusés, probabilité de compter un correct (GC). Les promoteurs de ce radar BMBM clament que « Le risque » est de 4% à 150km/h, alors qu’il est 0,0015% à 250km/h (2667 fois moins !), « donc » il faut choisir 250km/h, ainsi prouvé quasi-parfait. J’objecte que 30% des MR passent entre les mailles du filet à 150km/h et 30% des HT à 250km/h, mais c’est balayé car la parole est monopolisée par les vendeurs et leurs prétendus « mathématiciens » diplômés.
   Calculons donc honnêtement la situation (au risque de prouver lesdits mathématiciens en faute professionnelle) :
– Cas de seuil 150km/h : Alfa = 20,00%, Beta = 5,88%
– Cas de seuil 250km/h : Alfa = 0,10%, Beta = 17,06%
   Ainsi, effectivement, le risque annoncé (alfa) a été grandement divisé (quoique par deux cents et pas plus de deux mille), mais le risque beta a été grandement accru, presque triplé. Si le but est de minimiser les faux refus, alors effectivement le seuil 250km/h est mieux que 150 (mais avec aucun seuil, on serait encore mieux : à 0% de faux refus) ; si le but est de minimiser les fausses acceptations (problème de sécurité publique), alors 150km/h est mieux que 250 (et certes avec seuil 131, on serait encore mieux). Bien sûr, 20% de faux refus peut être jugé intolérable par la population innocente, mais il reste coupable de se focaliser exclusivement sur alfa en oubliant beta.
   Si on n’est pas dans le domaine de la sécurité routière mais de la production industrielle, jeter 20% de la production correcte peut être jugé inadmissible pour les bénéfices et/ou le prix de vente, mais il faut avoir conscience que l’autre seuil, à « risque réduit » (officiellement) fait tripler le nombre d’incorrects vendus. Quand on clame être certifié Qualité, il faudrait au moins poser la question en ces termes (ne pas oublier Béta = risque Qualité, ne pas mentionner que Alfa = risque industriel). Quelle que soit la décision prise finalement, en compromis coût/qualité effective (la qualité paperasse, auditée sévèrement, étant totalement hors sujet). Sinon, si on fait n'importe quoi les yeux fermés, les usines peuvent partir en Chine militariste, nul besoin de réfléchir. Je dis "éh bien non, attention", et les très fiers chefs me faisant taire sont remplaçables par de petits sergents chinois, payés cent mille fois moins, les investisseurs seraient heureux de l'apprendre, attention...

---------------------- Ajout 18/09/2015 (3h du matin) : Autre parallèle, "mieux" ou pire...
  J'ai conscience que mon scénario de radar autoroutier ci-dessus est trop tordu pour frapper ou convaincre, je vais donc essayer d'illustrer autrement.
  Quand je disais que "prouver par nonsignificativité à très petit risque alfa (< 5% ou mieux : < 1%)" constituait une escroquerie, il suffit de calculer où mène la proposition contraire (avec laquelle je suis en total désaccord). Posons donc comme nouvel axiome : "si un résultat est non significatif à risque < X%, sous hypothèse nulle, alors l'hypothèse nulle est prouvée (ou quasiment prouvée) avec un risque < X%". Je disais au docteur hier : "donc l'extermination d'Hiroshima serait prouvée avec risque zéro être une mort naturelle". Hélas ça dépasse les capacités de mon ordinateur de le calculer, mais je peux le montrer sur un essai clinique réduit :

  Quelques mots d'explications : vers 1945, la mortalité japonaise hors guerre était, selon Internet, d'environ 8 pour mille par an (7,19 pour mille par an en France 2008). Donc, si on teste une aspirine M sur 9 personnes et que les 9 sont mortes le lendemain, il est prouvé que c'est une mort naturelle avec un risque infime, inférieur à dix puissance moins 45 (moins d'un milliardième de milliardième de milliardième de milliardième de milliardième de chance de se tromper) ! Donc l'aspirine M est sans effet secondaire létal : génial, c'est super-bon pour le business (des vendeurs d'aspirine M, et puis des urgentistes et pompes funèbres mais ça il faut surtout pas le dire) ! C'est ça la "preuve par non-significativité", yes et même yeah ! Non, c'est idiot ? Non, c'est de l'escroquerie ? Eh, on n'a pas le droit de le dire, c'est de la diffamation ! Même si c'est mathématiquement prouvé... moi j'en reste sur les fesses. Je continue un peu à écrire, mais je suis en état de choc.
  Certes, l'industrie ne va pas jusqu'au risque dix puissance moins 45 pour accepter n'importe quoi (et il y aurait une pluie de réclamations à l'évidence, et même procès), mais elle sacralise à tort le seuil 5% ou 1% (faisant, grâce à la fausse-validation par non-significativité, accepter l'un peu mauvais, l'un peu dangereux, affirmé "prouvé bon" à tort), sans avouer qu'il y a erreur totale de principe : si "le résultat n'est pas significatif", ça ne prouve en rien que "il n'y a pas de différence avec l'hypothèse nulle", c'est que "l'effectif est trop petit pour démontrer cette différence (éventuelle)". Oui, l'erreur mathématique par des mathématiciens professionnels diplômés est de l'escroquerie en bande organisée (que la responsabilité incombe aux mathématiciens ou aux cadres employeurs ou aux écoles, ce n'est pas mon problème), ou de l'incompétence sévère s'ils ne comprennent pas le problème sans se contenter d'en profiter discrètement et très largement. La faute est prouvée mathématiquement, logiquement, ce n'est pas ma théorie subjective, en valant bien une autre. [Je peux citer aussi le cours élémentaire de statistiques par Gilles Saporta : (peut-être 300 pages, touffues, commençant par un principe essentiel :) l'hypothèse nulle doit être prise comme ce que l'on veut rejeter, pas du tout comme ce que l'on veut confirmer ; et un article américain mathématique : "absence of proof" is not "proof of absence" : qu'il n'y ait pas de différence prouvée avec le modèle n'est en rien la preuve d'une absence de différence avec le modèle. Passer outre "parce que c'est ce qui se fait traditionnellement dans l'industrie", c'est simplement faux, de valeur mathématique nulle : zé-ro, avec vol de salaire/bénéfice, et incompétence/cynisme/complicité de ceux qui en profitent, je maintiens à 100% ma position – certes pas à 100,00% car la cohérence devrait me pousser à démissionner, donc être au chômage durable – à 51 ans + handicap physique + classé psychotique, aucune chance... – donc subir un divorce et me tuer. Mais, purée, elle est pas belle la vie, non... Le mensonge et la bêtise triomphent.].

---------------------- Ajout 19/09/2015 (2h du matin) : Vers un soulagement ?
  Je pense que si j’avais le sommeil perturbé, c’est que je cherchais indéfiniment à « mieux expliquer » l’évidence colossale que je perçois sans parvenir à la faire partager. J’espère que cette fois, en trouvant mieux encore les mots, cela va se calmer dans ma tête.
1- Le fond
  Tout s’éclaire peut-être en envisageant un scénario explicatif à la situation en place actuellement. Les verbeux littéraires, maîtres en rhétorique pour convaincre (par séduction, menace, amalgame, tromperie, etc.) étaient un peu jaloux des rigoureux matheux, ayant un prestige d’incontestabilité derrière le mur effrayant des équations pointillistes. Mais, grâce aux « statistiques inductives », les beaux-parleurs trompeurs se sont déguisés en matheux pour un triomphe total, en tromperie incontestée. Ça se joue effectivement à peu de choses : au lieu de dire que la situation est « non "mauvais avec probabilité de se tromper < 1E-45" », il s’agit de détourner cette conclusion en « "non-mauvais" avec probabilité de se tromper < 1E-45 » donc « "bon" avec probabilité de se tromper < 1E-45 » (en cachant que c'est mauvais avec probabilité de se tromper < 1E-40). Et ce jeu de guillemets ou parenthèses n’est pas un détail du tout, c’est comme pour une facturation « "dix fois un" plus un » (11), exiger « dix fois "un plus un" » (20), c’est purement et simplement de l’escroquerie. Oui, si c’est gobé sans protester (grâce au mur d’équations faisant taire tout le monde : « moi je suis pas spécialiste en Maths »), c’est bon pour le business, pour l’emploi, pour les actionnaires, mais c’est totalement faux, totalement injustifiable mathématiquement. Et ce n’est pas « ma théorie », « mon point de vue », c’est une auto-contradiction totale que je dénonce. Les vrais matheux doivent automatiquement percevoir ce scandale, mais apparemment, ils n’osent pas s’attaquer à la colossale domination faussement-mathématique – qui les nourrit, en un sens (ils n’ont pas ma révulsion sous le sentiment de « complicité », il est un peu compréhensible qu'ils préfèrent pisser dans le sens du vent que de s’en prendre plein la tête).
2 – Le moyen.
  Comment faire entendre cette immense évidence ? Comment rétablir la simple honnêteté, garante pour moi de « paix de l’esprit » (puisque les médicaments débilitants peinent à me rendre béni-oui-oui) ?
  On me dit que l’entreprise qui m’emploie n’est pas du tout le lieu pour ça, que la société évidemment se range derrière la loi, même injuste, fausse, dictatoriale, elle accepte par principe les règles du jeu officiel, même pipé ce n’est pas son problème. Il faudrait que je saisisse les agences gouvernementales en prétendue Qualité ou prétendue Santé, mais moi… isolé, petit quidam autodidacte, je ne serais absolument pas entendu. Et, « "soigné" pour "troubles" psychologiques/psychiatriques », façon traitement stalinien de la dissidence, je serais classé « débile inaudible » avec enterrement automatique de ce que je dis – le système écraseur est malhonnête mais puissant.
  On me suggère de contacter un polémiste scientifique comme François De Closets, « ayant pignon sur rue », mais… j’ai été horrifié par la (fausse) croisade de cet auteur contre l’orthographe française : là où moi je posais la question (cette question-là, bien loin des stats) en termes logiques, en mettant les mains dans le cambouis pour inventer la solution ultrasimple en 30 pages, De Closets lui s’alliait aux puissants dictateurs malhonnêtes (rois du subjonctif, de l’étymologie, etc.) pour essayer de faire passer en 300 pages une micro-variation potentielle frileuse (et très chère avec plein d'ordinateurs électriques)… en escomptant immense succès (pécuniaire) pour cette acceptable petite pique contre le dogme, en fait intégralement pourri, renversable par la simple logique, niveau 8 ans d'âge mental (pour moi, même si c'est peut-être 200 ans d'âge mental pour le commun des mortels, si je suis le fils unique de Dieu rêvant ce monde, certes, mais... – non, je plaisante, à moitié, triste). M’allier à des gens comme ça ne me soulagerait pas, non, je crois. J’espère juste avoir (enfin) trouvé les mots justes au paragraphe 1-. Je retourne me coucher, on verra.

---------------------- Ajout 20/09/2015 : Auto-psychanalyse explicative
  Puisque je suis révulsé par l’auto-contradiction des pseudo-mathématiciens, il convient peut-être que j’explique en annexe (ici) ma position apparemment contradictoire de mini-mathématicien autodidacte se posant presque comme "au-dessus" des grands mathématiciens, professionnels diplômés par l’université.
1/ Au temps de la sélection par les Maths, j’étais premier de la classe, jusqu’à 15 ans inclus.
2/ A 15 ans, je suis tombé amoureux fou de la dernière de la classe, que dans sa détresse je trouvais infiniment mieux que moi, et je me suis sabordé pour la suivre.
3/ Puisque qu’elle m’a rejeté, et que je n’étais pas autorisé à mourir (pour ne pas la culpabiliser), je suis devenu légume, n’apprenant plu’ les leçons ni rien. Mais c’était trop facile, et à 17 ans j’ai quand même eu le Bac Maths avec mention Très Bien (hyper-rarissime à l’époque, 1981).
4/ J’ai refusé les études de Maths, j’ai plaqué les études de Médecine (on m’avait dit qu’elle adorait les médecins dévoués mais elle a confirmé cette année-là ne plu’ vouloir me revoir jamais ; par ailleurs, quand je signalais aux profs leurs erreurs mathématiques, ils hurlaient qu’en Médecine on n’était pas là pour réfléchir mais pour réciter), et – en compromis afin de ne pas fâcher exagérément ma famille – j’ai accepté des études de technicien supérieur, puis un emploi de technicien non supérieur.
5/ Vu d’en bas, je constate simplement les horreurs imposées par les faux matheux, menteurs ou mauvais.
6/ Je ne cherche pas du tout à re-grimper les échelons hiérarchiques/sociaux, j’ai vu que tout en haut sont les plus grands menteurs, manœuvriers, nuls en pertinence mais efficaces en course de rats, et je ne cherche pas du tout à participer à leur match caféiné ou pire. Simplement, je signale l’horreur mathématique là où je la vois à l’œuvre. J’ai effectivement une très inusuelle acuité pour la percevoir, avec une inusuelle position sociale inférieure pour la subir, ça explique le contexte.

---------------------- Ajout 21/09/2015 (2 heures du matin): Projet de lettre (évidemment pas envoyée) à Stéphane B., (ex n°1 chez nous, maintenant directeur d’hôpital privé ? ou à homonyme tel…), copie envisagée à ma collègue représentante syndicale CGT.
  Monsieur B,
  Je suis employé d’une société que vous avez dirigée, et j’hésite depuis des années à démissionner, j’étais particulièrement choqué par vos propos à vous quand vous étiez le leader chez nous, et je voudrais ici en appeler à votre intelligence pour vous racheter une conscience. Je vous considérais comme le grand menteur en chef, or vous avez peut-être du recul au-delà de vos discours absurdes, qui étaient certes applaudis chaleureusement par toutes les carpettes ambitieuses. Vous disiez « tout pour le client, tout pour la santé publique », en taisant simplement que notre prix élevé est « tout pour notre poche » et pour votre poche super-immense en particulier (révélée par la CGT à l’époque : salaire de 300 ouvriers français, 6000 ouvriers du Bengladesh…), et on aurait servi bien mieux la santé publique et les clients en cessant de vous couvrir ainsi d’or (vous et la haute hiérarchie) pour baisser les prix, afin que les hôpitaux utilisent leurs budgets à acheter davantage de matériel, payer davantage de personnel (et, avec cette compétitivité accrue, nous aurions gagné des parts de marché, d’où emploi consolidé ou accru chez nous). Mais non, votre bla-bla absurde était frénétiquement applaudi, et on me répondait que si je n’étais pas d’accord, je n’avais qu’à démissionner. Oh non, ce n’est pas ça la supériorité intellectuelle (méritant éventuellement forte rémunération), et je juge au contraire (arguments à l’appui, nullement démentis puisque nullement examinés) que vous voliez votre salaire royal. Enfin, vous êtes parti sous les hourras (ou peut-être dépité si un conseil d’administration a refusé de doubler encore vos revenus), remplacé par un autre un peu pareil, et je me débats avec un autre souci (depuis 30 ans sur le principe, depuis 15 ans par écrit) : la fausse validation industrielle, à erreur mathématique totale, incroyablement acceptée par les services officiels (et ignorée par votre haute et fière direction incompétente ? clamant « tout pour la Qualité ! »). Avec en fait fausse Qualité, perfection paperasse cachant les erreurs mathématiques totales, traditionnelles. Aurez-vous, vous homme de pouvoir, le courage d’écouter enfin ces objections (niveau de maths requis : classe de 3e, 14 ans d’âge mental) et de pousser le cri qui est totalement étouffé venant de moi, classé inférieur (hiérarchiquement) et dissident (donc classé psychotique, à la stalinienne) ? C’est un sujet énorme, qui peut invalider les médicaments génériques voire les médicaments en général, disqualifier les universités voire les sciences. Vous êtes apparemment maintenant du côté des hospitaliers victimes de l’industrie, et non plu’ du côté des requins de l’industrie, oserez-vous ? Il y a là un choix clair : faire du fric en profitant de la pourriture du système, ou bien oser contester cette pourriture pour mieux faire (la direction nous cite périodiquement Gandhi, « il faut vraiment oser, pour vraiment améliorer les choses », mais en faisant le contraire toujours). Visez-vous le Prix Nobel dans vingt ans (si vous n’êtes pas assassiné avec moi) ? ou bien le luxe consumériste (avec « vol » de fortune entièrement légal) encore et encore ? Libre à vous. Merci de m’avoir lu jusqu’ici, en tout cas.