4.02.4.1.3 Wielowymiarowa statystyczna kontrola Procesu
ponieważ Reaktory chemiczne i urządzenia procesowe w przemyśle farmaceutycznym są wysoce wyposażone w dużą liczbę czujników, inżynierowie procesowi i chemicy procesowi stają przed wyzwaniem obsługi złożoności wielu źródeł, wielu formatów i bezprecedensowego strumienia informacji. Sygnały cyfrowe z prostych czujników, takich jak sondy temperatury, ciśnienia lub pH, są teraz uzupełniane sygnałem spektroskopowym z systemów PAT lub bezpośrednimi pomiarami analitycznymi z systemów chromatograficznych on-line.66,87-88 przemysł farmaceutyczny przechodzi znaczącą transformację cyfrową, która napędza nowe sposoby pracy, wymagając nowej zintegrowanej infrastruktury danych do obsługi bardziej złożonych systemów pomiarowych i kontrolnych. Aby uzasadnić inwestycje w tak złożoną zintegrowaną infrastrukturę czujników i systemów sterowania zakładem, ważne jest zapewnienie wdrożenia skutecznych metod, które przekładają informacje z czujników na możliwe do wykonania dane wyjściowe. Takie metodologie zapewnią stałą jakość produktu i znaczące korzyści finansowe dla zakładu produkcyjnego, który zainwestuje w zaawansowane rozwiązania analityczne, które będą odpowiadać jakości infrastruktury danych.
Wielowymiarowa statystyczna kontrola procesu jest jednym z elementów ekosystemu zaawansowanej analizy i istnieje od ponad dwóch dekad. Zapewnia skuteczne podejście do przekazywania wszystkich istotnych informacji z czujników z linii produkcyjnej do modelu matematycznego, który rzutuje dużą liczbę pojedynczych sygnałów czujników na przestrzeń o zmniejszonej wymiarowości (utajona przestrzeń zmienna). To z kolei ułatwia interpretację ewolucji procesu przez albo zgodne, że nowa partia postępuje zgodnie z oczekiwaniami lub identyfikacji odchylenia od normalnego zachowania, które mogą prowadzić do dryfu procesu w kierunku produktu złej jakości.
koncepcja modeli MSPC została opisana bardziej szczegółowo wcześniej w tym artykule (sekcja Multivariate Statistical process Control (mspc) Systems). W związku z tym nacisk zostanie położony na zastosowanie takich nadzorowanych metod w celu wsparcia niedawnego trendu w przemyśle farmaceutycznym, jakim jest przejście od procesu wsadowego do ciągłego wytwarzania aktywnego składnika farmaceutycznego (API). Prowadzenie takich procesów chemicznych w trybie przepływu dokonało znaczącego postępu w minionej dekadzie89-90 i obecnie osiąga skalę produkcji.91 Integracja wielu etapów chemicznych w jedną jednostkę przetwarzania ciągłego ma kilka kluczowych zalet w zakresie śladu produkcyjnego, zmniejszenia zapasów pośrednich związków chemicznych i zmniejszenia ryzyka skalowania działań.
ze względu na dobrze zdefiniowane mechanistyczne ramy kinetyki, bilansu masy i termodynamiki, które można przełożyć na dobrze kontrolowany sprzęt, oczekuje się, że ciągła produkcja składników farmaceutycznych będzie konsekwentnie wytwarzać materiał o wysokiej jakości i spójności. Taki mechanistyczny framework jest bardzo solidnym wsparciem dla rozwoju procesów i ich optymalizacji. Ważne jest jednak, aby zrozumieć, że nie wszystkie warunki procesu lub trybów awarii mogą być modelowane z pierwszej zasady równania i uzupełnienie mechanistycznego zrozumienia – i związane z nim kontroli parametrycznej – przez szersze rozwiązanie monitorowania empirycznego zapewni znaczne korzyści w celu identyfikacji nowych trybów awarii lub wczesne oznaki awarii sprzętu. MSPC jest szczególnie dobrze nadaje nadzorowanej metodologii dla takich zadań ze względu na jego wrodzoną zdolność do obsługi wielowymiarowej przestrzeni danych i wykrywania subtelnych zmian w sygnaturze procesu, w tym zmian kowariancji między zmiennymi procesu, które byłyby bardzo trudne do zidentyfikowania przy użyciu podejścia jednorodnego.
w swoim artykule na temat „postępy w ciągłej produkcji aktywnych składników farmaceutycznych (API): Monitorowanie w czasie rzeczywistym za pomocą narzędzi wielowymiarowych” Dumarey et al.92 przedstawia zastosowanie wielowymiarowego modelowania opartego na PCA wdrożonego na pilotażowej platformie procesów ciągłych integrującej pięć kolejnych etapów chemicznych. W sumie 40 parametrów procesu z czujników, takich jak temperatura reaktorów, temperatura płynu przenoszącego ciepło, ciśnienie, pomiar prędkości przepływu, prędkość pompy, ale także przewodność zostały zmierzone w pięciu pozycjach na linii. Model PCA został zbudowany w 2-godzinnym oknie przetwarzania, w którym proces był pod kontrolą, z rozdzielczością czasową 20 s dla każdego parametru procesu. Autorzy podkreślili fakt, że model PCA wychwycił niewielką ilość wariancji, 10%, 4% i 3% dla trzech pierwszych PC, co wskazuje na ograniczony poziom ustrukturyzowanych informacji w ciągu 2 godzin przetwarzania wykorzystanych do budowy modelu. Jest to zracjonalizowane przez fakt, że ciągłe procesy są ściśle kontrolowane i zmienność w czasie jest niska, zwłaszcza w ciągu krótkiego okna procesowego 2 h, gdzie ograniczona wspólna zmienność przyczyny miałoby miejsce. Wykazano jednak, że ustrukturyzowane informacje w trzech komputerach PC były naukowo uzasadnione, prezentując oczekiwane grupowanie dostosowane do oczekiwanych wzajemnych powiązań zmiennych procesowych. Chociaż oczekuje się, że takie modele przechwycą niski poziom ustrukturyzowanych informacji z zestawu treningowego, nadal wykazują wrażliwość na odchylenia od przechwyconej struktury modelu. Ponadto oczekuje się, że nowe wzorce zmienności, które nie zostały przechwycone przez model, które mogą wystąpić podczas fazy monitorowania, zostaną zidentyfikowane przez diagnostykę modelu (pozostałości T2 i Q Hotellingu), które stanowią krytyczne wyniki Modelu, które należy uwzględnić w fazie monitorowania i diagnostyki takiego wdrożenia modelu.
model był używany jako wielowymiarowe narzędzie do monitorowania potencjalnych odchyleń procesu w czasie rzeczywistym w celu uzyskania wglądu w dryf procesu lub problemy z wydajnością sprzętu. Podczas jednej z kampanii rozwojowych diagnostyka modelu wskazywała wypadki z ich predefiniowanych limitów (w modelu szczątkowym początkowo, a kilka minut później przez T2 Hotellingu). Analizę przyczyn źródłowych przeprowadzono natychmiast, przesłuchując wkłady modelu, które wskazywały na wzrost prędkości jednej z pomp na linii. Ponieważ wpływ na natężenie przepływu, czyli rzeczywistą dostawę pompy, nie był widoczny w tym momencie,nie było żadnego alarmu. Należy zauważyć, że oczekuje się, że natężenie przepływu dostarczane przez pompy w systemie produkcji ciągłej jest bezpośrednio związane z jakością produktu, ponieważ zmiana przepływu wpłynie na czas przebywania materiału w linii, a tym samym na zakończenie reakcji. Alarmy będą zazwyczaj realizowane na natężeniu przepływu ze względu na jego krytyczność dla jakości produktu. Awaria pompy zidentyfikowana w tym przykładzie doprowadziłaby do ciągłego wzrostu prędkości pompy w celu utrzymania docelowego natężenia przepływu określonego przez recepturę procesu. Oczekuje się, że zanim zacznie wpływać na przepływ procesu, pompa osiągnie całkowitą lub bliską awarię, co doprowadzi do bezpośredniego wpływu na jakość produktu, a tym samym do wystąpienia w najlepszym przypadku odchylenia procesu od strumienia odpadów lub potencjalnie do zanieczyszczenia końcowego materiału zebranego w zbiorniku odbiorczym, co będzie miało znaczący wpływ finansowy na zakład produkcyjny. Widoczność takiej nietypowości działania sprzętu na początku problemu zapewnia zespołowi inżynierskiemu cenny czas na rozwiązanie problemu ze sprzętem, zanim będzie on miał bezpośredni wpływ na jakość produktu. W tym przykładzie uzasadnione jest oczekiwanie kontrolowanego przejścia na pompę zapasową, utrzymując przepływ procesu przez linię, podczas gdy pompa główna zostanie naprawiona.
wielowymiarowe modele oparte na danych szeregów czasowych zapewniają odpowiednie podejście do złożoności rosnącego przepływu informacji generowanych przez zakłady produkcyjne. Standardowe podejście, które polega na skupianiu trendów krytycznych parametrów procesu (CPP) lub nakładaniu dużej liczby indywidualnych informacji czujnika na ekranie pokoju kontrolnego, nie jest skuteczne w wychwytywaniu nieoczekiwanych, specjalnych zmian procesu. Chociaż nadal trwają prace nad zdefiniowaniem roli takich modeli w strategii kontroli produktu-zazwyczaj nadal w oparciu o limity CPP i testowanie produktów końcowych-kluczowe jest znalezienie odpowiedniego pozycjonowania, które pozwoli na podjęcie działań w oparciu o informacje generowane przez takie modele bez obciążenia pełną walidacją modelu, która może zagrozić, spowolnić i potencjalnie uniemożliwić przyjęcie takiej technologii. W miarę ciągłej cyfryzacji zakładów produkcyjnych, MSPC powinno odgrywać kluczową rolę w ekosystemie zaawansowanej analizy, aby zmaksymalizować inwestycje w dużą liczbę czujników pomiarowych. Taka metodologia rzeczywiście pozwala zapewnić oczekiwaną jakość produktu, a jednocześnie obniżyć koszty operacyjne tak istotne dla kierowników zakładów produkcyjnych.