La chromatographie semi-cassée ?
drame de l’OPLC (Over-performance Liquid-Chromatography)
par LC-Killer, technicien paranoïde sous Solian, 08 JAN 2016

dernier ajout

    J’ai 31 ans d’expérience en chromatographie liquide (technique biochimique de séparation et quantification), ou 29 des 31 dernières années en défalquant mon hospitalisation, mais je crois que je viens de tout casser…
    J’ai en effet été informé aujourd’hui que l’entreprise où je travaille doit maintenant obéir à la loi « Résolution minimale = 1,6 entre le produit principal (à quantifier) et les impuretés proches (interférentes) ». Avant de faire acheter le module-logiciel pour vérifier en routine cet indicateur de séparation, j’ai envisagé de vérifier ce très bizarre facteur 1,6. Je n’avais bien sûr pas le temps à mon travail (pour cette tâche improductive), alors je l’ai fait à la maison (par intérêt psychologique personnel) bien que n’étant pas cadre ni suppléant de cadre. Et… patatras ! Mon analyse casse le commandement reçu.

    La résolution R est la distance entre sommets de pics chromatographiques divisée par la largeur cumulée des 2 demi-pics se faisant face : il y a séparation à partir de 1 (et au-dessus), recouvrement en dessous de 1 (et superposition totale à zéro). Toutefois, les textes corrigent ce principe en affirmant que les pics étant gaussiens, la largeur estimée de ces pics est sous-estimée, avec en fait 2% de recouvrement, et il faut que la résolution atteigne 1,5 pour qu’il y ait séparation.
    Là, j’effectue déjà plusieurs critiques :
- Si 1,5 suffit (supérieur ou égal à 1,5) exiger 1,6 (strictement supérieur à 1,5) est erroné.
- Avec des pics gaussiens, s’étendant par principe à l’infini, il n’y a jamais séparation, pas davantage avec R 1,5 qu’avec un autre chiffre, tout dépend du recouvrement subjectivement décrété admissible.
- Il est absurde de dire que les pics chromatographiques s’étendent à l’infini (et depuis moins l’infini) : il y a zéro molécule éluée avant le temps mort (estimé), et (en tout cas) c’est totalement certain avant le temps zéro (top d’injection commençant l’analyse) – du moins hors magie ou philosophie non réaliste (imparable hypothèse du rêve ou du Tout Puissant).
- Je ne suis pas d’accord que les pics chromatographiques seraient quasi gaussiens (en cloche symétrique comme sin² mais obéissant à telle équation précise) : habituellement, ils montent vite et descendent plus lentement sur la fin, avec une asymétrie modérée à forte, une traînée tardive.
- J’ai mathématiquement et logiquement détruit les tests démontrant une normalité, un caractère gaussien, donc l’argumentaire se fondant sur cela est totalement bancal.
    Mais bon, admettons, pour voir : en supposant le pic gaussien, quelle est l’erreur effectuée avec R valant 1 ou bien 1,5 (ou encore : 1,6) ?

    L’erreur commise n’est pas facile à calculer, car deux modes de quantification sont disponibles, la vérité se situant vraisemblablement entre les deux le plus souvent :
– Point de vallée : dans la courbe bi-bosse des 2 pics consécutifs gaussiens, on pose un stop à l’instant où le signal cesse de chuter pour recommencer à croître (ou au milieu du plateau éventuel). Le premier pic est quantifié comme surface à gauche, et le second : comme surface à droite (toutes deux abaissées jusqu'à la ligne de base : on parle de coupure verticale "base-vallée/vallée-base").
– Mode tangentiel (oblique) : si un micro-pic étroit sort sur la longue trainée du pic principal, on place un stop à son début et un stop à sa fin, la fin de la grande trainée donnant un troisième stop plus loin. Le second pic est alors la surface au-dessus de la ligne droite entre premier et second stop, tandis que le premier pic est la surface totale jusqu’au troisième stop moins le second pic.
    En pratique, c’est le point de vallée qui est appliqué le plus souvent, mais il est vraisemblable qu’il y a davantage de (molécules du) grand pic sous le petit que de (molécules du) petit pic sous le grand. L’idéal ne serait pas la ligne droite tangentielle (ni le bloc rectangulaire abaissant jusqu’à la ligne de base) mais une bosse concave incurvée sous le second pic, hélas il y a une infinité de bosses paramétrables, et ce n’est guère validable (si l'on ne dispose pas des poudres pures de chaque pic).

    Autre facteur-clé pour le calcul : quelle est la largeur considérée pour les pics, en termes de surface relative du total vrai ? (puisqu’un pic gaussien a une largeur théorique infinie, pas faible ou moyenne). Pour en avoir une idée, j’ai cherché dans les publications Internet la formule de résolution fiabilisée en employant les largeurs à mi-hauteur. Et il s’avère qu’un facteur multiplicatif 1,7 est appliqué par rapport à la formule avec les largeurs (estimées à la base), et par ailleurs il est écrit que la largeur à mi-hauteur d’un pic gaussien est 2,355 écart-types.
    Donc la largeur prise à la base dans la formule classique s’avère être 1,7 fois 2,355 écart-types (divisés par 2 pour un demi-côté). Cela fait 2 écart-types, ce qui n’est effectivement pas n’importe quoi mais le lieu commun statistique pour définir 2,5% au-delà (soit 5% en bilatéral, pour les tests classiques dits « à moins de 5% d’erreur »). Toutefois, on obtient 2,00 écart-types, alors que le 2,5% gaussien correspond précisément à 1,96 écart-types. Avec 2,00 écart-types, ce n’est pas 2,5% mais 2,27%, s’arrondissant certes aux 2% annoncés, d’accord.
    Continuons le calcul. Avec résolution 1 et intégration base-vallée/vallée-base, l’erreur commise consiste à compter 2,27% de (molécules du) premier produit dans le second, et 2,27% de (molécules) du second produit dans le premier. Si le second est une petite impureté représentant 1% de la taille du grand pic, on sous-estime nettement le grand pic, puisque 2,27% de lui sont partis sous le petit pic alors que ce n’est compensé en sens inverse que par 2,27% d’un pic 100 fois moins grand. C’est effectivement une erreur. Et on peut calculer ce qui se passe pour des impuretés 0,1% ou 10% au lieu de 1%, ou pour des résolutions de 0,5 à 1,6 au lieu de 1.

    Effectivement l’exigence R 1,6 fait tomber en dessous de 0,1% d’erreur, mais est-il vraiment inadmissible d’avoir 0,2% d’erreur (avec R = 1,4 seulement) ? Dans mes applications professionnelles, la quantification n’était pas du tout à 0,1% près mais avec une tolérance ±5% (avec capabilité 3 minimum, donc incertitude tolérée ±5%/3 = ±1,7%). 0,1% sur 5% fait une capabilité de 50, très supérieure à la valeur 10 de la surqualité, donc ce serait de l’hyper-surqualité, aberrante (beaucoup plus chère que nécessaire).

    J’aurais pu ajouter des points R intermédiaires à la recherche du R pile franchissant ce seuil 1,7% mais cela semble inutile car il y a une autre objection énorme. En effet, on ne quantifie (généralement) pas un inconnu avec impureté contre un étalon sans impureté, mais un inconnu contre un étalon avec tous les deux ayant une impureté, même si c’est en proportion éventuellement un peu différente. Pour un lot mauvais, on pourrait avoir (à l’extrême limite) dix fois plus d’impureté dans l’inconnu que dans l’étalon, mais… même ainsi, le dosage n’est quasiment pas faussé avec R = 1 (et même R 0,7 donne moins de ±1% d’erreur) :

    Donc l’exigence R > 1,5 relève clairement de l’extrême sur-qualité (erreur < ±0,02%), absurde (capabilité 250 pour mon travail). Même si c’est bon pour le business de nos fournisseurs vendant très cher de l’hyper-performance… Et accroître la résolution a conduit à remplacer la LC par l’HPLC (« hautes performances ») puis l’UHPLC (« ultra-hautes performances »). Pour rien, au lieu de réfléchir avec intelligence critique, en envisageant un commandement abusif.

Et maintenant ?
    Certes, un peu de surqualité, dans un contexte d’aberrante sous-qualité (fautes logiques des validations par non-significativité et des démonstrations de normalité, etc.), ça pourrait compenser, selon le principe 200% fois 50% égale 100%, mais… ça ne marche pas ainsi. Si vous validez par erreur la taille d’un vêtement en prenant la mauvaise personne pour l’essayer (sous-qualité), rien ne sert de prendre les mesures au milliardième de millimètre près (sur-qualité) au lieu du centimètre, ça ne rattrape en rien l’erreur, qui reste totale.
    Je ne vais donc pas creuser immensément la question, avec des courbes non-gaussiennes, des intégrations intermédiaires entre vallée et tangentiel, des taux d’impuretés moins décalés qu’avec facteur 10 entre étalon et inconnu. Non, je vais soupirer et faire comme si de rien n’était, obéissant comme d’habitude au diktat erroné des officiels incompétents. Les audits « Qualité » sont du rigorisme administratif super-pointilliste passant à côté de la question « qualité effective du produit » : il est hors de question d’envisager que le texte officiel soit idiot ou même seulement erroné, par contre il faut pourchasser une date d’application trop tardive, ou marquée avec un stylo de couleur interdite, ou sur un papier à numéro de lot non tracé, ou de fournisseur non validé… « Qualité » est un jeu de mot, et tous les techniciens du monde soupirent, commandés ultra-sévèrement par cette farce.
    Dans ce contexte, la sagesse semble du côté du je-m’en-foutisme. Quand je mange un yaourt, je jette par prudence un œil à la date de péremption marquée et à la date s’affichant sur ma montre, et pourtant… :
- Quand le fabricant a marqué la date d’expiration, il ignorait (le futur donc) quand son produit deviendrait mauvais ou dangereux, n’ayant validé ça que sur 3 ou 10 lots antérieurs sans bien sûr examiner ce lot-ci, pas encore parvenu au futur. Il généralisait par induction officiellement permise, même si c’est une faute logique. Si vous avez vu 100 cygnes blancs sur 100 cygnes examinés, ça ne prouve en rien que tous les cygnes sont blancs, et même affirmer que le taux de cygne non-blanc est inférieur à 1% risque l’erreur, la représentativité de l’échantillon n’étant en rien certaine. L'abduction (prétendue validation de modèle prédictif) n’y change rien, c’est une induction risquant l’erreur : en 1920, il a été ainsi « prouvé » (à tort) que 100% des Staphylocoques sont sensibles à la Penicilline, mais en fait ça ne prouvait en rien qu’il en serait de même dans le futur (et le 1 milliardième négligeable résistant a donné des milliards de bébés et sur les nouvelles générations 0% des Staphylocoques sont sensibles à la Penicilline)…
- Le fabricant préconise une conservation entre 2 et 8 degrés Celsius, mais mon réfrigérateur domestique n’est nullement garanti respecter métrologiquement cet objectif. Pire : le fournisseur a « validé » cette plage de température officiellement par 3 lots conservés jusqu’à péremption sans sortir de la fourchette annoncée, mais sans garantir que toute cette durée à la valeur haute (8 degrés) serait correct, ou que des chocs thermiques répétés (entre 2 et 8 degrés) seraient sans impact négatif. Quand tout est possible, on fait un peu n’importe quoi et on déclare ça validé avec la complicité de textes officiels ayant oublié de réfléchir de manière contradictoire.
    Mais je mange mon yaourt et tant pis, pas besoin de réfléchir. Alors… il n’y a qu’à continuer, à faire n’importe quoi, et recevoir un salaire pour cela. « On ne va pas refaire le monde », comme on dit. Tant pis pour les aberrations, hélas.
    Oui, oui, Résolution 1,6 minimum, « puisque » c’est affirmé. A tort mais tant pis…

------------------------ Ajout 15/01/2016 : autre approche
   On ne me répond pas alors j'objecte tout seul. Quand je disais qu'à résolution 1, on avait 2,27% du premier pic sous le second et 2,27% du second pic sous le premier, cela n'était vrai qu'avec deux pics (gaussiens, de même forme) de taille égale, mais il en va différemment si le second pic est une très petite impureté. En effet, la grande décroissance du grand pic surpasse la hausse du petit pic, ce qui décale vers plus tard le point de vallée, et donc réduit la part de grand pic comptée sous le petit pic, ce qui réduit encore l'erreur. Et, en cas extrême, même au maximum du petit pic, celui-ci ne compense pas la chute du grand pic, d'où simple épaulement dans la trainée sans point de vallée.

  (Et bien sûr, comme dit plus haut avec la transition entre 1er et 2e tableau, il s'agit là d'erreur hyper-maximale si l'inconnu avait une impureté tandis que l'étalon n'a pas d'impureté – l'erreur serait nulle si l'étalon avait une impureté de même taux que l'inconnu, et l'erreur serait réduite si étalon et inconnu n'avaient qu'une légère différence en taux d'impureté. Ce 1er tableau corrigé n'a pas été ici complété par un 2e tableau corrigé, mais il serait calculable aisément si demandé.)
  Ceci ne conforte toujours pas la requête de résolution 1,6 minimum puisqu'une extrème surqualité est déjà observée avec résolution 1,25 (et tolérance ±5%).