Nano-Bio-Technologie im Industriemaßstab
Ein grenzüberschreitender Austausch identifiziert zentrale Barrieren für die Nutzung der Biologie in der Nanotechnologie. Aus dem Blickwinkel der Kommerzialisierung werden Lösungsansätze aufgezeigt.
Zwei Drittel der 211 nanobasierten Unternehmen im Medizinbereich (Dunzweiler/Bialojan 2007) sind Zulieferer. Der Rest sind Anbieter von Komplettlösungen, die die gesamte Wertschöpfungskette abdecken von der Rohstoffentwicklung über die Produktion von Zwischenprodukten bis hin zum Endprodukt. Nanotechnologie wird heute v.a. in IT und in den Materialwissenschaften genutzt. Das spiegelt sich in den Patenten wieder. Freilich, die Nanobiotechnologie verzeichnet bei Weitem nicht das Wachstum, das möglich wäre. Zwar wurden seit 1993 fast 39.900 nanotechnologische Patente angemeldet bzw. genehmigt (Michalitsch 2008), doch nur 9 Prozent davon sind der Nanobiotechnologie im engeren Sinne zuzurechnen.
Unter den Anbietern von Komplettlösungen sind grosse Unternehmen weit erfolgreicher als kleine bei der Umsetzung nanotechnologischer Erfindungen in marktfähige Produkte. Das liegt kaum an mangelnder öffentlicher Förderung. In Deutschland vergab das zuständige Ministerium BMBF für nanobiotechnologische Forschung seit 2000 rund 37 Mio. Euro. 30 % der Gelder gingen v. a. an kleine und mittlere Unternehmen. Gründe für die mangelnde Kommerzialisierung liegen nicht allein in der Komplexität der Aufgabenstellung, sondern auch in einer mangelnden Orientierung der Forschung an den Ansprüchen der industriellen Abnehmer. Vor diesem Hintergrund trafen sich Experten aus Biotechnologie, Pharma, Chemie, Aerospace, Elektronik mit akademischen Forschern und Entwicklern zum BioLAGO-Club im Schweizerischen St. Gallen. Gastgeber waren die Eidgenössische Material- und Prüfanstalt (Empa) und der Nano-Cluster Bodensee. Die Themen im Einzelnen waren:
Die Funktion zählt - der Effekt wird bezahlt
Wenn Bakterien als CD-Kopierschutz, zur Verschlüsselung von Kreditkarten oder zur Herstellung anorganischer Metalle eingesetzt werden, wenn mit Hilfe von DNA selbst-assemblierende, elektronische Schaltkreise gebaut werden, dann spielt sich das im Nanometerbereich ab. Nur weil die biologischen und chemischen Strukturen so winzig sind, ist dies noch lange keine Nano-Technologie. Es wäre keine Nano-Bio-Technologie, wenn diese Prozesse nur in der Natur ablaufen würden. Das Feld der Nano-Bio-Technologie wird bestimmt von den Übergängen – von Größendimensionen, Naturgesetzen, heterogenen Materialien, Wissenschaftsdisziplinen und wirtschaftlichen Anwendungen – die sich aus den jeweiligen biologisch funktionalen Einheiten ergeben.
Die Funktionalität und damit die biologische Arbeitseinheit bestimmen sich aus der Anwendung. Mit biokompatiblen Nanokristallen will man Kontrastmittel entwickeln, die im menschlichen Körper Krebszellen detektieren. Man will das Einwachsen keramischer oder metallischer Implantate mit Beschichtungen beschleunigen, die Zellkommunikation erlauben bzw. verstärken. Dabei geht es um mehr als nur das Produkt, nämlich um Vorhersagbarkeit und Steuerung des Produktionsprozesses sowie Kontrolle der Produktwirkung. Das theoretische Verständnis ist dazu ebenso wichtig wie Experimentierkunst und die (Weiter-)Entwicklung nanoanalytischer Methoden bzw. Instrumente. Das verdeutlicht ein Beispiel aus der Medizin. Der Ausstoss von Adenosin-triphosphat (ATP) aus der Zelle ist ein Schlüsselereignis bei der Entstehung der Cystischen Fibrose. Es findet an der Oberfläche der Epithelzellen statt und dauert etwa 10 Millisekunden. Die biologisch funktionale Einheit sind nicht Zellen sondern Zelloberfächen mit Porengrössen zwischen 100 – 200 nm. Die zentrale Herausforderung an die Analytik ist nicht Miniaturisierung per se, sondern der Erhalt der praktischen Messfunktionalität. „Sinnvolle nanoanalytische Messungen“ so ein Teilnehmer des BioLAGO-Clubs, „erfordern des öfteren, Massstabsvergrösserungen und Assemblierungen der Analyseeinheiten“. Das ist mehr als Rädchen am Instrument zu drehen oder zusätzliches Reagens zuzugeben. Da es sich in der Regel um dynamisch instabile Systeme handelt, die beobachtet und gemessen werden, können kleinste Störungen dazu führen, dass sich das Objekt durch die Messung verändert und die inhärente Ordnung nicht mehr erfasst wird. So ist es typisch für die Nanoanalytik, dass der Experimentator vom Labor an den Schreibtisch zurückkehrt, um sich mit Theorie zu befassen, grundlagenwissenschaftliche Fragen lösen muss, bevor ein neues Assay entwickelt, ein Auswertungsprogramm umgeschrieben oder ein zusätzliches Analysegerät in den Versuch eingebaut werden kann. Dementsprechend wird heute Nanoanalytik von hochspezialisierten Kleinunternehmen, von Universitäten wie in Konstanz oder von Großforschungseinrichtungen wie dem EMPA, St. Gallen durchgeführt. Nano-Bio-Technologie braucht die räumliche Nähe von akademischer und industrieller Forschung. Nanotechnologie – so legte die Diskussion nahe – sollte in der F&E-Praxis nicht auf eine relativ willkürliche Grösse (z.B. < 100 nm) reduziert werden. Der Fokus auf die Nanodimension ist fruchtbar, wenn „Nano“ ein Chiffre für radikale Änderungen in physikalischen, chemischen oder biologischen Gesetzmässigkeiten im Milliardstel-Meter Bereich ist – oder wie es einer der Teilnehmer aus der Industrie formulierte: „Bezahlt wird für den Effekt, nicht das Wissen.“
Anteil an Nano-Produkten auf dem Markt nach Anwendungsgebiet
© Ernst & Young a.a.O. 2007
Industriemaßstab: Abschied von akademischen Vorgehensweisen
Der Nobelpreisträger schüttelte nur etwas unwirsch den Kopf, als der Professor der Labormedizin ihn fragte, inwieweit der vorgestellte diagnostische Nanochip aus seiner Forschung für den Routineeinsatz geeignet sei. Der verwendete Träger, sagte er, werde in der Elektronikindustrie in Millionen Stückzahlen hergestellt. In vielen Laborversuchen sei die Reproduzierbarkeit demonstriert worden. Im Übrigen arbeite er eng mit der Diagnostikindustrie zusammen. Diese Reaktion ist typisch für akademische Wissenschaftler, aber auch Biotechnologieunternehmer, die in der Nanobiotechnologie forschen und entwickeln. Man arbeitet an faszinierenden wissenschaftlichen Fragestellungen und verwendet im Labor Komponenten und Meßinstrumente, die auch in der industriellen Produktion im Einsatz sind. Daraus folgert man dann typisch eine mehr oder minder unproblematische Übertragbarkeit der Laborentwicklung in den Industriemaßstab. Aus dem industriellen Blickwinkel wiederum ist damit die Anwendung nicht das Hauptziel, sondern eine willkommene Nebenwirkung der Arbeit im akademischen Labor bzw. im öffentlich geförderten Forschungsprojekt. Für viele nanobiotechnologische Entwicklungen wie die Biosensoren gilt – so der Tenor der Beiträge –, dass sie sich nicht an der Reproduzierbarkeit in der Massenfertigung und an den Erfordernissen der operationellen Robustheit orientieren.
Dabei gibt es durchaus Beispiele, dass solche Anforderungen erfüllbar sind. So etwa bei der Aufreinigung therapeutischer Proteine in der Pharmaproduktion, wo hochporöse Membranen tonnenweise, rund um die Uhr, an 365 Tagen zuverlässig Viren in Grössen um 70 nm herausfiltern. Am Beispiel des Genchip demonstrierte einer der Teilnehmer typische Probleme der Skalierbarkeit von Nanosensoren. Das grösste Problem immer kleinerer Diagnosechips ist die jeweils kleinste Strukturgrösse, die noch zuverlässig im Routineeinsatz quantifizierbar ist. Dieser Bereich liegt heute bei 10 x 10 µm und damit weit entfernt von dem, was im grundlagenwissenschaftlichen Labor erreicht wird. Dort hat man Nanosensoren entwickelt, die einen einzelnen Virus detektieren können.
Ein weiteres Aufgabenfeld sind die Herstellungsverfahren von Nanochips, die mit DNA bestückt werden. Ein gängiger flash memory stick in der Elektronikindustrie kann heute mit kritischen Strukturgrössen kleiner 40 nm gefertigt werden (zum Vergleich: ein einzelnes Influenza Virus hat etwa 200 nm Durchmesser). Dagegen ist ein Punkt auf einem gängigen Genchip mit einem Durchmesser von 20 – 40 µm geradezu gigantisch. Zwar ist es schon vor mehr als sechs Jahren im Forschungslabor gelungen, einen DNA-Spot von nur 50 nm Durchmesser auf einem Array aufzubringen, „doch was im Labor funktioniert,“ resümierte ein Array-Entwickler aus der Industrie, „eignet sich nicht für den grosstechnischen Einsatz“. Flaschenhals sind nanolithographischen Verfahren, mit denen man hunderttausende solcher Nanosensoren produzieren kann. Hinzu kommt, dass mit der Miniaturisierung von Biochips die Stabilität der biologischen Probe stärker schwankt. Bei den Forschungs-Arrays wird das mit entsprechenden Softwareprogrammen ausgeglichen. Für klinisch valide Arrays muss die Reproduzierbarkeit von Messungen garantiert sein. Für das industrielle Design bedeutet dies z. B. Biochips herzustellen, die robust sind, d.h. fehlertolerante Sensoren herzustellen, die im Dauereinsatz funktionieren, auch wenn sich schwierig zu kontrollierende Variablen ändern oder wenn unerwünschte Messschwankungen auftreten. Ähnliches gilt für die Entwicklung von Biomaterialien bzw. -kompositen. Sie sind gekennzeichnet durch labile Gleichgewichte an den Grenzflächen und nichtlineares Verhalten. Die Vorhersagbarkeit, die in experimentellen Versuchsreihen erreicht werden kann, stösst hier an die Grenze. Eine zentrale Herausforderung der Nano- wie der Nanobiotechnologie ist deshalb die Entwicklung entsprechender mathematischer Methoden zur Prognose nanoskaliger Effekte, die durch das grosse Oberflächen/Volumen-Verhältnis dominiert sind. Nicht zuletzt liessen sich mit ihrer Hilfe nanobiotechnologische Fertigungsprozesse besser planen und in Echtzeit kontrollieren. Im Prinzip ermöglicht die physikalische Theorie (Quantenmechanik kombiniert mit Thermodynamik), das Verhalten flexibler dynamischer Systeme, die sich im Laufe ihrer Funktion verändern, vorauszuberechnen. Doch entsprechende quantenmechanische Verfahren gibt es noch nicht, wie die anwesenden Physiker aus Akademia feststellten. Es bräuchte also zum einen Biologen und Chemiker, die mit Physikern und Mathematikern eng zusammenarbeiten. Zum anderen bräuchte es – so eine Teilnehmerin aus der Materialforschung – Geldgeber, die solche Projekte finanzieren und mit entsprechendem Projektmanagement ausstatten.
Vom Komponenten- zum Systemdenken
Wem solche Forderungen an nanobiotechnologische Entwicklungen zu kompliziert, akademisch oder futuristisch sind, den bringen ingenieurwissenschaftliche Forderungen aus der Automobil-, Elektronik- und Aerospace-Industrie schnell auf den Boden der Tatsachen zurück. Hightech ist kein Selbstzweck. Die jeweilige Neuentwicklung muss sich an etablierten Technologien wie etwa die Feinmechanik messen. Mehr noch: Sie muss daran anschlussfähig sein. Der Cantilever eines Nano-Arrays benötigt vier Leitungen zur Stromversorgung, damit er die Kräfte eines Biomoleküls messen kann. Hochauflösende Positionssensoren brauchen noch mehr Leitungen. Lab-on-Chips, die im Dauereinsatz arbeiten, brauchen Zufuhr an Medien und damit mehr oder minder grosse Behälter in der Geräteperipherie. Nanotechnologische Entwicklungen sind typisch hochempfindlich gegenüber Einflüsse ihrer Umgebung. Die Nanorobotik muss auf speziellen Trägern (z. B. Polymersubstrate oder Glas statt Silikon) installiert und vor mechanischer Beanspruchung geschützt werden. All dies bedeutet Einbau in grössere Module und zugleich Rücksicht auf Dimensionen auch unterhalb der Nanoskala. Soll die nano-bio-technologische Entwicklung nutzbar sein, muss sie von Anfang an auf Schnittstellen in der Makro- und Mikro-Dimension ausgerichtet sein. Für den Komponenten- und Servicelieferanten aus Akademia wie Biotechunternehmen bedeutet das, seine Leistung nicht als „System“, sondern als Komponente zu behandeln. „Was nützt mir eine Mikropumpe, die nur mit gefilterten Medien arbeitet. Ich habe richtige Zellen im System. Das ist meine Wirklichkeit!“ verdeutlichte es ein Biotechnikingenieur aus der Raumfahrt. In der Tat, wenn die Möglichkeit zur Reparatur oder zum Austausch funktionsunfähiger Teile beschränkt sind, braucht es robuste Technik, die verhindert, dass eine einzige unerwünschte Zelle – ein typischer Erythrozyt ist 1011 nm3 groß – in einem Medium eine ausgefeilte nanoanalytische Mikrofluidik verstopft. Auch wenn in der Raumfahrttechnik die Miniaturisierung von Komponenten und Einsparung von Gewicht ein zentrales Entwicklungsziel ist, Priorität hat die Sicherung der Funktionsfähigkeit des Gesamtsystems. Ähnliches gilt für viele nanotechnologische Anwendungen in der Elektronikindustrie. Eine Erfolgsbedingung entsprechender Entwicklungen ist deshalb die frühzeitige Festlegung auf die Anwendung und Arbeitskontakte mit den jeweiligen Herstellern.
Vor-Sicht statt hirnaufweichende Nano-Risiken
Hauptprobleme der Gefahrenabschätzung bei nanoskaligen Materialien sind das Wissen um ihre Interaktion mit biologischen Systemen und die Einrichtung von Risikomanagementsystemen. Darauf haben Wissenschaft, Industrie und die Regulierungsinstanzen längst reagiert. Herstellung und Ausbietung nanotechnologischer Produkte auf dem Markt sind nicht der Beliebigkeit der Anbieter überlassen wie das manche Kritiker suggerieren (Mäder 2008). Mittlerweile gibt es eine Fülle von Studien, (nützlichen) Leit- und Richtlinien im Umgang mit Nanomaterialien (z.B. BAFU 2007; ICCA 2007). So hat jüngst die französische Arzneimittelagentur (Afssaps 2008) definiert, was unter einem Nanopartikel verstanden werden soll – kolloidale Systeme zwischen 1 bis 100 nm –, und welche toxikologischen Vorsichtsmassnahmen bei deren Einsatz in der medizinischen Bildgebung sowie bei Arzneimitteltransportern zu treffen sind. Allenthalben wird am Risikomanagement gearbeitet. Es hilft wenig, wie im BioLAGO-Club berichtet wurde, wenn ein Unternehmer behauptet: „Wir verstehen uns nicht als Unternehmen der Nanotechnologie.“ Grossunternehmen fordern schon seit längerem von ihren Lieferanten entsprechende Unbedenklichkeitsnachweise. Entscheidend sind, so das Resumé der Diskussion, freiwillige Massnahmen der Entwickler, Hersteller und Händler. Ein nützliches Instrument ist „CENARIOS“, das von einem Mitglied des „Nano-Cluster Bodensee“ entwickelt wurde und mittlerweile vom TÜV für die Zertifizierung von Nano-Betrieben eingesetzt wird. In der Schweiz sind überdies erfolgreich Modelle der Beteiligung von Umweltgruppen (BUND, Greenpeace) erprobt worden bei der Erarbeitung einer Sicherheitsmatrix für Nanoprodukte sowie einem präventiven Risikomanagement. Kern der Vermeidung von Gesundheits- und Umweltrisiken ist die Risikoabschätzung im Einzelfall. „Ziel muss es sein,“ so einer der Teilnehmer, „die toxikologisch relevanten Effekte und damit auch die etwaigen Risiken der Nanomaterialien frühzeitig zu erfassen.“ Und das kann heissen, Marktchancen zu sichern und neue zu öffnen. Ein Beispiel ist der Einbau nanogrosser Titandioxid-Pigmente in Sonnencremes. Der Sonnenschutz ist unsichtbar, weil TiO2-Partikel bei 50 bis 100 nm transparent werden. Doch was, wenn eine Studie an Tieren publiziert wird, TiO2 erzeuge reaktive Sauerstoffspecies (ROS) in Nervenzellen des Gehirns? Hier bricht nicht nur der Umsatz ein, sondern auch die Reputation des Unternehmens. Die Aufsichtsbehörden, die Verbraucherschützer und die Öffentlichkeit werden auf den Plan gerufen. Im vorliegenden Fall titelte die Berliner Tageszeitung (11.7.2006) unter Verweis auf die wissenschaftliche Studie: „Sonnencreme könnte Hirn aufweichen. … Titandioxid wie es in Hightech-Sonnenschutzmitteln verwendet wird, steht im Verdacht, Nervenzellen zu schädigen.“ Die eingehende toxikologische Analyse konnte zeigen, dass zwar Schädigungen des Gehirns nicht auszuschliessen sind, wenn TiO2 direkt ins Gehirn eingebracht wird. Zugleich wies die Analyse nach, dass TiO2-Partikel nicht in das Gehirn eindringen können, weil sie die Haut nicht resorbiert. Freilich: Bis die entsprechenden wissenschaftlichen Belege vorliegen, ist der Schaden für das Unternehmen schon entstanden. Es empfiehlt sich deshalb Vor-Sicht, d.h. proaktives Handeln der Beteiligten.
Am Ende bleibt die Einsicht, dass es noch viel mehr „rauchende Köpfe als rauchende Schlote“ braucht, wie Jakob Göldi, Präsident des Nano-Cluster Bodensee sagte, damit die faszinierenden nanobiotechnologischen Entwicklungen Eingang in die industrielle Produktion finden. Gerade im Hightech-Bereich sind die Lösungen problemgetrieben. Deshalb gilt es Grenzen zu überschreiten – des einzelnen Wissensgebietes, einer Branche, einer politischen Geographie, fügte Klaus Schäfer, Vorstand des BioLAGO hinzu und freute sich über den fruchtbaren Austausch zu einem so zukunftsorientierten Thema wie der Nano-Bio-Technologie im Industriemaßstab.
Danksagung:
Der Autor Wolf G Kroner dankt seinen Co-Moderatoren Michael Steinwand und Ali Tinzali für intensive Gespräche sowie den Teilnehmern des BioLAGO-Club für hilfreiches Feedback bei der Präzisierung des vorliegenden Berichts.
Literatur:
Agence française de sécurité sanitaire des produits de santé, Afssaps (2008): Recommandations relatives à l’évaluation toxicologiques des médicaments sous forme nanoparticulaire. Septembre 29. https://www.gesundheitsindustrie-bw.deafssaps.sante.fr/pdf/5/reco_eval_toxico_nano_particulaire.pdf
Schweizerisches Bundesamt für Umwelt, BAFU (2007): Synthetische Nanomaterialien. Bern. www.bafu.admin.ch/php/modules/shop/files/pdf/phpQojvy4.pdf.
Dunzweiler N, Bialojan S (2007): Nanotechnologie in der Medizin- Neue Perspektiven für die Life Sciences-Industrie. Mannheim. Ernst & Young.
International Council of Chemical Associations ICCA (2007): Responsible Care. Global Charter. www.responsiblecare.org.
Mäder P (2008): Umweltschützer unterschätzen Nano-Gefahr. Tages-Anzeiger, 10. April.
Michalitsch R (2008): Nanotechnology Patenting Trends. Presentation Sept. 17, NanoEurope St. Gallen.