4.02.4.1.3 Contrôle statistique multivarié des processus
Les réacteurs chimiques et les équipements de traitement de l’industrie pharmaceutique étant hautement équipés d’un grand nombre de capteurs, les ingénieurs de procédés et les chimistes de procédés sont confrontés au défi de gérer la complexité de sources multiples, de formats multiples et d’un flux d’informations sans précédent. Les signaux numériques provenant de capteurs simples tels que des sondes de température, de pression ou de pH sont désormais complétés par des signaux spectroscopiques provenant de systèmes PAT ou des mesures analytiques directes provenant de systèmes chromatographiques en ligne.66,87-88 L’industrie pharmaceutique subit une transformation numérique importante qui entraîne de nouvelles façons de travailler, nécessitant une nouvelle infrastructure de données intégrée pour prendre en charge des systèmes de mesure et de contrôle plus complexes. Afin de justifier l’investissement dans une infrastructure intégrée aussi complexe de capteurs et de systèmes de contrôle des installations, il est important de veiller à ce que des méthodologies efficaces qui traduisent les informations des capteurs en résultats exploitables soient mises en œuvre. De telles méthodologies entraîneront une qualité constante du produit et des avantages financiers importants pour l’usine de production qui investira dans des solutions analytiques avancées qui correspondent à la qualité de son infrastructure de données.
Le contrôle de processus statistique multivarié est un élément de l’écosystème de l’analyse avancée et est en place depuis plus de deux décennies. Il fournit une approche efficace pour alimenter toutes les informations de capteur pertinentes d’une ligne de production dans un modèle mathématique qui projette le grand nombre de signaux de capteur individuels dans un espace de dimensionnalité réduite (espace variable latent). Cela facilite à son tour l’interprétation de l’évolution du processus en se conformant qu’un nouveau lot progresse comme prévu ou en identifiant un écart par rapport au comportement normal qui peut conduire à une dérive du processus vers un produit de mauvaise qualité.
Le concept de modèles MSPC a été décrit plus en détail plus tôt dans cet article (section Systèmes de Contrôle Statistique Multivarié des Processus (MSPC)). L’accent sera donc mis sur l’application de ces méthodes supervisées pour soutenir une tendance récente dans l’industrie pharmaceutique qui est la transition du traitement par lots à la fabrication continue de l’Ingrédient Pharmaceutique Actif (API). L’exécution de tels procédés chimiques en mode écoulement a fait des progrès significatifs au cours de la dernière décennie89–90 et progresse maintenant à l’échelle de la production.91 L’intégration de plusieurs étapes chimiques dans une seule unité de traitement continu présente plusieurs avantages clés en termes d’empreinte de fabrication, de réduction des stocks de composés chimiques intermédiaires et de réduction des risques liés aux activités d’intensification.
En raison du cadre mécanistique bien défini sur la cinétique, le bilan massique et la thermodynamique qui peut être traduit sur un équipement bien contrôlé, on s’attend à ce que la fabrication continue d’ingrédients pharmaceutiques produise constamment des matériaux de haute qualité et de cohérence. Un tel cadre mécaniste est un support très solide pour le développement et l’optimisation des processus. Il est cependant important de comprendre que toutes les conditions de processus ou les modes de défaillance ne peuvent pas être modélisés à partir des premières équations de principe et que compléter la compréhension mécaniste — et son contrôle paramétrique associé — par une solution de surveillance empirique plus large apportera un avantage substantiel pour identifier de nouveaux modes de défaillance ou des signes précoces de défaillance de l’équipement. MSPC est une méthodologie supervisée particulièrement bien adaptée à de telles tâches en raison de sa capacité inhérente à gérer l’espace de données multidimensionnel et à détecter des variations subtiles dans une signature de processus, y compris des changements de covariance entre les variables de processus qui seraient très difficiles à identifier en utilisant une approche univariée.
Dans leur article sur « Les progrès de la Fabrication d’Ingrédients Pharmaceutiques Actifs En Continu (API): Surveillance en temps Réel À l’aide d’Outils Multivariés » Dumarey et al.92 présenter une application de modélisation multivariée basée sur l’ACP mise en œuvre sur une plate-forme de processus continu à l’échelle pilote intégrant cinq étapes chimiques consécutives. Au total, 40 paramètres de processus provenant de capteurs tels que la température des réacteurs, la température du fluide caloporteur, la pression, la vitesse de la pompe de mesure du débit mais aussi la conductivité ont été mesurés à cinq positions de la ligne. Un modèle PCA a été construit sur une fenêtre de traitement de 2 heures où le processus était sous contrôle, avec une résolution temporelle de 20 s pour chaque paramètre de processus. Les auteurs ont souligné le fait que le modèle PCA capturait une faible variance, 10%, 4% et 3% pour les trois premiers PC, ce qui indique un niveau limité d’informations structurées sur les 2 h de temps de traitement utilisés pour construire le modèle. Ceci est rationalisé par le fait que les processus continus sont étroitement contrôlés et que la variabilité dans le temps est faible, en particulier sur une courte fenêtre de processus de 2 h, où une variabilité limitée de cause commune se serait produite. Il a cependant été démontré que les informations structurées entre les trois PC étaient scientifiquement solides, présentant un regroupement attendu aligné sur les interconnectivités attendues des variables de processus. Bien que l’on s’attende intrinsèquement à ce que de tels modèles capturent un faible niveau d’informations structurées de l’ensemble de formation, ils démontrent toujours une sensibilité à l’écart par rapport à la structure capturée du modèle. De plus, les nouveaux modèles de variabilité qui ne sont pas saisis par le modèle et qui peuvent se produire pendant la phase de surveillance devraient être identifiés par les diagnostics du modèle (résidus T2 et Q de Hotelling), qui sont des extrants critiques du modèle à inclure dans la phase de surveillance et de diagnostic de ce déploiement de modèle.
Le modèle a été utilisé comme outil multivarié pour surveiller les écarts potentiels de processus, en temps réel, afin de fournir des informations sur la dérive du processus ou les problèmes de performance de l’équipement. Au cours d’une des campagnes de développement, les diagnostics du modèle indiquaient des excursions par rapport à leurs limites prédéfinies (dans le modèle résiduel initialement, suivi quelques minutes plus tard par le T2 de l’Hotelling). L’analyse des causes profondes a été effectuée instantanément en interrogeant les contributions du modèle indiquant une augmentation de la vitesse de l’une des pompes de la ligne. Comme l’impact sur le débit, c’est-à-dire le débit réel de la pompe, n’était pas visible à ce stade, aucune alarme n’a été déclenchée. Il est à noter qu’il est prévu que le débit délivré par les pompes sur un système de production en continu soit directement lié à la qualité du produit car la variation du débit aura un impact sur le temps de séjour du matériau dans la ligne et donc sur l’achèvement de la réaction. Des alarmes seraient généralement mises en œuvre sur le débit en raison de sa criticité par rapport à la qualité du produit. La défaillance de la pompe identifiée dans cet exemple aurait entraîné une augmentation continue de la vitesse de la pompe pour maintenir le débit cible fixé par la recette du procédé. Au moment où le flux de processus commencerait à être affecté, on s’attend à ce que la pompe soit en panne complète ou presque, ce qui aurait un impact direct sur la qualité du produit et, par conséquent, déclencherait au mieux une déviation du processus vers le flux de déchets ou potentiellement une contamination du matériau final collecté dans la cuve réceptrice avec un impact financier important pour l’usine de production. Avoir une visibilité d’une telle atypicité du fonctionnement de l’équipement au début du problème fournit à l’équipe d’ingénierie un temps précieux pour résoudre le problème de l’équipement avant qu’il n’ait un impact direct sur la qualité du produit. Dans cet exemple, il est raisonnable de s’attendre à une transition contrôlée vers une pompe de secours, en maintenant le flux de processus à travers la ligne pendant que la pompe principale serait réparée.
Les modèles multivariés utilisés sur les données de séries chronologiques fournissent une approche pertinente pour répondre à la complexité du flux croissant d’informations générées par les usines de production. L’approche standard qui consiste à focaliser la tendance des paramètres de processus critiques (PPC) ou à superposer un grand nombre d’informations de capteurs individuels sur un écran de salle de contrôle n’est pas efficace pour capturer les variations de processus inattendues et de causes spéciales. Bien qu’il reste encore du travail à faire pour définir le rôle de ces modèles dans la stratégie de contrôle des produits — généralement toujours basée sur les limites du PPC et les tests du produit final —, il est essentiel de trouver le bon positionnement qui permettra des étapes exploitables basées sur les informations générées par ces modèles sans le fardeau de la validation complète du modèle qui est susceptible de compromettre, de ralentir et potentiellement d’empêcher l’adoption d’une telle technologie. Alors que la numérisation des installations de production se poursuit, MSPC devrait jouer un rôle central dans l’écosystème d’analyse avancée afin de maximiser l’investissement sur un grand nombre de capteurs de mesure. Une telle méthodologie a en effet la capacité d’assurer la qualité attendue du produit tout en réduisant le coût opérationnel si critique pour les responsables d’usines de production.