Powered by

Mit mathematischen Modellen Signalwege der Zelle vorhersagen

Die nur wenige Mikrometer großen Zellen von Organismen sind biologische Systeme, in denen unzählige Prozesse ablaufen, die zum Leben notwendig sind. Die meisten dieser zellulären Stoffwechselketten werden von uns erst im Ansatz verstanden, weil sie auf komplizierte Weise miteinander interagieren. Die Juniorprofessorin Nicole Radde und der Ingenieur Patrick Weber vom Institut für Systemtheorie und Regelungstechnik (IST) der Universität Stuttgart beschäftigen sich in ihren Forschungsarbeiten mit simulierten Modellen des Systems „Zelle“: Hierzu kombinieren sie systemtheoretische und mathematische Modellierungs- und Analysemethoden mit experimentellen Techniken der Zell- und Molekularbiologie und können damit Modelle für die Sekretionskontrolle von Proteinen vorstellen, die in Zukunft unter anderem auch die Ausbeute biotechnologischer Produktionslinien steigern könnten.

Die Physikerin Dr. Nicole Radde arbeitet seit 2008 als Juniorprofessorin für „Systemtheorie in der Systembiologie“ am IST der Universität Stuttgart. © Radde

Die Systembiologie ist ein noch junges Forschungsgebiet, in dem Biologen, Mathematiker und Physiker gemeinsam daran arbeiten, verschiedenste komplexe biologische Prozesse in Organismen zu verstehen. Dazu werden experimentelle mit systemtheoretischen und mathematischen Methoden kombiniert, um die Vorgänge des Lebens zu simulieren. Hierbei fallen große Informationsmengen an, die mit herkömmlichen Methoden der Datenauswertung nicht mehr verarbeitet werden können.

Neue statistische Methoden des „Data Mining“ helfen dabei, die in den riesigen Datensätzen verborgenen Hinweise auf Struktur und Dynamik des untersuchten Systems zu entschlüsseln und die experimentellen Ergebnisse zu interpretieren und zu visualisieren. Solche modellbasierten Computersimulationen von komplexesten biologischen Systemen wie der lebenden Zelle, die In-silico-Experimente, sind verglichen mit Experimenten im Labor meist viel günstiger und schneller. Simulationsszenarien können präzise formuliert und damit nachvollziehbar gemacht werden, und es können ethisch bedenkliche Tierversuche vermieden werden.

Molekulare Vorgänge mathematisch simulieren

Der Ingenieur Patrick Weber ist Spezialist für Simulationsstudien und seit 2010 wissenschaftlicher Mitarbeiter am Stuttgarter IST. © Weber

Die Physikerin und Juniorprofessorin Nicole Radde arbeitet gemeinsam mit dem Ingenieur Patrick Weber in einem systembiologischen Kooperationsprojekt des Instituts für Systemtheorie und Regelungstechnik (IST) und des Instituts für Zellbiologie und Immunologie (IZI) der Universität Stuttgart daran, molekulare Schlüsselprozesse der Proteinsekretion in Säugetierzellen zu untersuchen.

Dabei kommen sehr rechenintensive Methoden der Simulationstechnik zum Einsatz, sogenannte Sampling-basierte Ansätze, die am IST in den letzten Jahren eigens dafür entwickelt wurden. Konkret wird dabei untersucht, wie Proteine am Golgi-Apparat sortiert und verpackt werden. Dabei ist ein komplexes Zusammenspiel aus Lipiden und Proteinen für die Ausbildung von Transportkompartimenten, den sogenannten Vesikeln, notwendig.

Daran maßgeblich beteiligt ist das Lipidtransferprotein CERT, dessen Aufgabe es ist, ein spezielles Lipid am endoplasmatischen Retikulum aufzunehmen und zum Golgi-Apparat zu transportieren. Ist die Funktion von CERT gestört, hat das schwerwiegende Auswirkungen auf den kompletten zellulären Lipidhaushalt und führt zu Defekten im Membran- und Proteintransport, die für die Zelle lebensgefährlich sein können. Schon eine erhöhte oder erniedrigte Konzentration des Proteins kann zu pathophysiologischen Veränderungen führen, wie sie beispielsweise in Krebszellen zu finden sind.

Mit Störexperimenten werden Hypothesen überprüft

Visualisierung einer repräsentativen Stichprobe, wie sie bei Sampling-basierten Verfahren generiert wird, um den Parameterraum zu untersuchen und Unsicherheiten zu analysieren © IST Stuttgart

Zur Untersuchung dieses Regulationsnetzwerkes nutzen die Stuttgarter Wissenschaftler die Methodik der datengetriebenen Modellierung: Dabei wird zunächst mit Hilfe von bereits existierenden Daten, experimentellen Rahmenbedingungen und Literaturrecherchen ein erstes Modell erstellt. Systemtheoretische Modellanalysen und simulationsbasierte Vorhersagen liefern daraufhin Hypothesen, die dann in Laborexperimenten getestet werden können.

Die Auswertung dieser Ergebnisse führt wiederum zu Hypothesen, welche zur Verbesserung und Erweiterung des Modells führen. Dabei spielen Störexperimente, wie beispielsweise eine Änderung der Proteinkonzentration von außen, eine große Rolle: „Wir stören das Netzwerk gezielt und beobachten, wie es reagiert“, beschreibt Doktorand Weber die Methodik des Projekts. „Daraus können wir dann eine Vorhersage treffen, die schließlich im Labor getestet werden kann - entweder trifft die Vorhersage zu oder das Modell muss nochmals erweitert werden.“

Was zunächst einfach klingt, ist aber doch ein langer und aufwendiger Prozess: “Es ist nicht etwa so, dass wir jede Woche ein vorhergesagtes Experiment experimentell testen können“, erklärt Nicole Radde. „Wir beginnen mit einem Modell, aus diesem ergibt sich dann eine Hypothese - zum Beispiel ein neues Störexperiment - und dann eine Vorhersage, die wiederum im Labor getestet werden kann.“

Riesige Datenmengen aus mehreren hunderttausend Simulationen

Schema der molekularen Interaktionen zur Regulation der Vesikelabschnürung am trans-Golgi-Netzwerk © IST Stuttgart
Die Daten, die produziert werden, sind an sich eigentlich überschaubar, denn es handelt sich nicht um „High-throughput“-Experimente mit vielen Proben. „Ein Datensatz besteht aus nur etwa hundert Datenpunkten“, so Weber. „Aber die Daten, die dahinterstecken, sind immens groß“, meint der Spezialist für Simulationsexperimente. Die Laborexperimente werden zum größten Teil in Form von Western-Blots mit Antikörpern durchgeführt, die eher unspezifische Signale liefern. Dieses zunächst unübersichtlich aussehende Fleckenmuster wird dann ausgewertet: unter Infrarotstrahlung gescannt sowie quantifiziert, dann als Bilddaten gespeichert und die Daten mit speziell dafür entwickelten Algorithmen numerisch aufbereitet. Dabei seien große Variationen typisch für intrazelluläre Messungen, meint Juniorprofessorin Radde. „Wir entwickeln Methoden, um Unsicherheiten vorhersagen zu können. Da wird ein Modell mehr als hunderttausendmal simuliert, und es fallen riesige Datenmengen an, die verarbeitet und interpretiert werden müssen.“ Dabei dauert eine einzelne Simulation gerade einmal eine Zehntelsekunde. Für die Erstellung aller Simulationen braucht jedoch auch ein moderner Rechner schon einmal mehr als 50 Stunden Rechenzeit - je nach Parametersatz, der ausgewertet werden muss. Der riesige Datensatz aus verschiedenen Störexperimenten liefert dann letzten Endes ein Gesamtbild aus Regulations- und Rückkopplungsmechanismen und den Forschern ein Gesamtbild der zellulären Interaktionen. Erste konkrete Ergebnisse gibt es auch schon. Sie können in Kürze publiziert werden.

Modell für Sekretionskontrolle biotechnologischer Produktionslinien

Das große Ziel der Wissenschaftler ist ein Modell, wie man Produktionszelllinien verbessern kann, um so die Ausbeute an biotechnologischen Medikamenten zu steigern. Hier gibt es auch schon Vorarbeiten: Studien des IZI in Zusammenarbeit mit der Firma Boehringer Ingelheim Pharma GmbH zeigten, dass sich die Funktion des CERT-Proteins im Lipidtransfer und der Golgi-Funktion auch für biotechnologische Anwendungen nutzen lassen könnte. Zum Beispiel kann die Sekretionsleistung von Produktionszellen für komplexe therapeutische Proteine wie Antikörper gesteigert werden, indem die Zellen genetisch so modifiziert werden, dass die CERT-Konzentration permanent stabil erhöht wird. Vielleicht ist diese Anwendung in absehbarer Zukunft so weit, dass sie in großen Bioreaktoren stattfinden könnte.

Seiten-Adresse: https://www.gesundheitsindustrie-bw.de/de/fachbeitrag/aktuell/mit-mathematischen-modellen-signalwege-der-zelle-vorhersagen/