zum Inhalt springen
Powered by

Downstream Processing – Von der Molekülstruktur zum industriellen Prozess

Biotechnologisch hergestellte Pharmazeutika repräsentieren die innovativste Form neuer Therapeutika, die den Herausforderungen auf Gebieten wie Onkologie, Immunschwäche oder Stoffwechsel begegnen. Während die Produktion der Biotherapeutika über verschiedenste Zellsysteme weitgehend zum Standardrepertoire gehört, fängt die eigentliche Sisyphusarbeit mit der Reinigung der produzierten Moleküle an. Die Arbeitsgruppe von Prof. Dr. Jürgen Hubbuch am Karlsruher Institut für Technologie (KIT) entwickelt Verfahren, um Biomoleküle aufzuarbeiten, zu kristallisieren oder in biologisch verträgliche Formen zu bringen.

Um Proteine zum Beispiel in ihrer Struktur näher untersuchen zu können, müssen Forscher sie kristallisieren. © Prof. Dr. Jürgen Hubbuch
Wie löst man die verschiedenen Substanzen aus dem natürlichen Kontext und bringt sie in eine stabile und wirksame Form, die von der Industrie weiterverarbeitet werden kann? Pharmaunternehmen kommen ohne teure und zeitintensive Techniken der Aufreinigung nicht aus – gegenwärtig entfallen mehr als 80 Prozent der Produktionskosten auf die Gebiete Aufarbeitung und Formulierung biotechnologisch hergestellter Therapeutika.

Will ein pharmazeutisches Unternehmen ein neues biologisches Molekül (zum Beispiel einen Antikörper) auf seine therapeutische Wirkung hin untersuchen, muss es es zunächst einmal aus seinem biologischen Umfeld isolieren. Biochemische Experimente oder Zellkulturtests gelingen nur, wenn ein Protein nicht durch Zellrückstände verunreinigt ist, die sein Verhalten im Experiment verfälschen. Pharmazeutische Unternehmen sind hier auf Aufreinigungstechniken wie zum Beispiel die Chromatographie angewiesen, bei der Substanzen aufgrund ihrer spezifischen Oberflächeneigenschaften in unterschiedliche Wechselwirkungen mit anderen Substanzen treten und dadurch voneinander getrennt werden können. „Wir entwickeln neue Downstream-Processing-Methoden für die Pharmaindustrie“, sagt Prof. Dr. Jürgen Hubbuch, Leiter der Arbeitsgruppe für Molekulare Aufarbeitung von Bioprodukten am Institut für Bio- und Lebensmitteltechnik des Karlsruher Instituts für Technologie (KIT). „Es geht darum, Prozessparameter zu finden, die eine optimale Aufreinigung, Kristallisation oder stabile Lagerung von Proteinen und anderen Biomolekülen ermöglichen.“

Roboterstationen für den Hochdurchsatz

Jedes Molekül hat individuelle chemische und physikalische Eigenschaften. Wie müssen pH, Salzkonzentration, Additive oder Temperatur beschaffen sein, damit Stofftrennung und Molekülstabilität Hand in Hand gehen? Welche chromatographische Wechselwirkung und welche Kombinationen an Wechselwirkungen führen zum Erfolg? Unter welchen Bedingungen kristallisiert ein Protein am besten? Welche Prozessschritte müssen auf welche Weise kombiniert werden? Hunderte von Experimenten sind im Vorfeld notwendig, um hier ein optimales Verfahren für ein gegebenes Biomolekül zu finden. Das kostet nicht nur Zeit und Arbeitskraft. Auch die nötigen Reagenzien und Prozesslösungen sind teuer. „Führende biopharmazeutische Unternehmen geben uns den Auftrag, für ein bestimmtes Biomolekül das optimale Aufreinigungsverfahren zu entwickeln oder problematische Prozessschritte näher zu untersuchen“, sagt Hubbuch. Hubbuch und sein Team haben das Know-how und die Technik, um das Problem mit geringstem materiellem und zeitlichem Aufwand zu lösen.

Forschung im Hochdurchsatz: Das Herzstück eines Pipettierroboters. © Prof. Dr. Jürgen Hubbuch

Um etwa die optimale adsorptive Oberfläche für ein chromatographisches Trennverfahren zu finden, müssen die Karlsruher Forscher zahlreiche Adsorber unter verschiedenen Experimentalbedingungen durchtesten. „Das geht heute gar nicht ohne Roboter, die uns die Arbeit abnehmen“, sagt Hubbuch. Sein Team hat unter Verwendung spezieller Pipettiermaschinen neue Verfahren entwickelt, die bis zu 384 Experimente gleichzeitig erlauben. Drei solche Roboterstationen stehen in dem Labor des Hubbuch-Teams. „Eine Strategie die auf der Evaluation aller möglichen Parameterkombinationen – pH, Ionenstärke, Temperatur, Additive etc. – basiert, führt jedoch schnell in eine Sackgasse. Schon alleine die notwendige Zeit und die nötigen Materialien verbieten einen solchen Ansatz“, sagt Hubbuch. Aus diesem Grund setzen er und sein Team auf die Unterstützung von Computermodellen, die sowohl Strukturinformationen als auch mechanistische Prozessmodelle einbeziehen.

Prozessoptimierung in silico

Experiment, mathematisches Modell und Computerrechenpower befruchten sich bei der Prozessoptimierung gegenseitig. © Prof. Dr. Jürgen Hubbuch

Diese Computermodelle sind mathematische Beschreibungen von Aufreinigungsprozessen. Sie definieren, welche Parameter zum Beispiel für einen chromatographischen Trennvorgang wichtig sind und in welchem Verhältnis diese Parameter zueinander stehen. Die Wissenschaftler um Hubbuch entwickeln diese Modelle anhand von Vorwissen, das aus mechanistischen Betrachtungen und empirischen Daten gewonnen wurde. „Unsere erste Frage ist, ob das Modell den von uns untersuchten Prozess beschreiben kann“, erklärt Hubbuch. „Dazu überprüfen wir in Experimenten, ob das vom Modell vorausgesagte Verhalten eines Proteins, etwa in einer Chromatographie, tatsächlich der Realität entspricht.“ In den meisten Fällen müssen nach einer solchen Validierungsphase einige der Parameter im Modell angepasst werden. Die Experimente dienen also dazu, das Modell zu kalibrieren. Ist es einmal kalibriert, dann können die Forscher auf weitere Experimente verzichten, denn jetzt ist es möglich, ein Trennverfahren im Computer zu simulieren. Prozessoptimierung in silico also.

Mit Studenten, Doktoranden, Gruppenleitern und Ingenieuren umfasst das Hubbuch-Team rund fünfzig Mitarbeiter. Die Projekte finanzieren sich vorwiegend durch industrielle Kunden. „In den meisten Fällen entwickeln wir Prozessentwicklungsstrategien anhand von Modellproteinen“, sagt Hubbuch. „Unsere Kunden wenden diese dann selbstständig auf ihre meist geheimen Produkte an.“ Neben den Hochdurchsatztechniken und der Computermodellierung haben die Karlsruher Forscher noch einige andere Spezialitäten. So kommt zum Beispiel die konfokale Laser-Raster-Mikroskopie zum Einsatz. Mit ihrer Hilfe beobachten die Forscher das Wanderverhalten von biologischen Molekülen in einzelnen Chromatographiepartikeln. In einem anderen Projekt suchen sie nach einem Verfahren, mit dem man die Halbwertszeit einer therapeutischen Substanz im Körper verlängern kann. Hierzu hängen sie den Testsubstanzen verschiedene Polymere an, die ihre Haltbarkeit beeinflussen (dieses Verfahren wird als PEGylierung bezeichnet). Wie eine Substanz im Körper oder im Experiment wirkt, müssen die Pharmafirmen selbst herausfinden. Aber um überhaupt ein sauberes Molekül in die Hände zu bekommen, müssen sie auf Spezialisten wie das Hubbuch-Team zurückgreifen.

Seiten-Adresse: https://www.gesundheitsindustrie-bw.de/fachbeitrag/aktuell/downstream-processing-von-der-molekuelstruktur-zum-industriellen-prozess