zum Inhalt springen

Für eine humane Nutzung Künstlicher Intelligenz

Künstliche Intelligenz ist längst keine Zukunftsvision mehr, sondern bereits mitten unter uns: Ob Einparkhilfe oder Suchmaschine – in vielen Dingen unseres Alltags nutzen wir die Technologie schon ganz selbstverständlich. Und auch in Medizin und Life Sciences kommt sie mehr und mehr zum Einsatz. Was scheinbar neue, unbegrenzte Möglichkeiten verspricht, birgt aber auch Risiken. Mit den ethischen Herausforderungen und der Nutzung im Sinne des Menschen beschäftigen sich Experten der Integrata-Stiftung in Tübingen.

Der Physiker Michael Mörike ist Vorstand der Integrata-Stiftung für humane Nutzung der Informationstechnologie und beschäftigt sich unter anderem damit, wie man Ethik am besten in KI einbauen kann © Integrata-Stiftung

An Künstlicher Intelligenz (KI) wird schon seit mehreren Jahrzehnten geforscht; der Durchbruch mit alltäglichen Anwendungsmöglichkeiten gelang allerdings erst in den letzten Jahren mit der Entwicklung leistungsstarker Computer und den entsprechenden künstlichen neuronalen Netzwerken. Die Technologie ist heute eines der großen Themen der Digitalen Revolution, die derzeit in vielen Ländern der Welt Einfluss auf immer mehr Lebensbereiche gewinnt – auch in Deutschland. Dabei scheinen die zukünftigen Anwendungsmöglichkeiten nahezu unbegrenzt zu sein.

Was einerseits Hoffnung macht – vor allem im medizinischen Bereich, birgt andererseits aber auch Risiken. „Mit diesen muss man sich spätestens jetzt zu diesem Zeitpunkt beschäftigen“, sagt Michael Mörike, Vorstand der Integrata-Stiftung für humane Nutzung der Informationstechnologie in Tübingen. „Denn bei der KI haben wir es mit einem Phänomen zu tun, das die Menschheit bisher so noch nie kannte. Zwar tat der Mensch gut daran, auch schon mit früheren bedeutenden Erfindungen wie dem Messer oder der Dampfmaschine ethisch umzugehen. Aber jetzt geht es nicht nur darum, die Technik richtig anzuwenden, sondern die Ethik – in diesem Fall Moral – auch in die neuen Prozesse einzubauen.“

Verbesserung der Lebensqualität möglichst vieler Menschen

Die Integrata-Stiftung, in der sich Mörike schon seit über zehn Jahren engagiert, wurde 1999 vom Wirtschaftswissenschaftler Prof. Dr. Wolfgang Heilmann gegründet und setzt sich seither dafür ein, die Informationstechnologie und -technik nicht nur zur Automatisierung zu nutzen, sondern vor allem auch zur Verbesserung der Lebensqualität möglichst vieler Menschen.

Grundidee ist in erster Linie die „soziale“ Anwendung und erst in zweiter Linie eine technische: IT also als Werkzeug, mit dem die Welt humaner gestaltet werden soll. Dazu trägt die Stiftung unter anderem mit der Würdigung beispielhafter Arbeiten bei, die sie jährlich mit dem Wolfgang-Heilmann-Preis oder dem eCare-Preis auszeichnet. Weiterhin hat es sich die Stiftung zur Aufgabe gemacht, die gesellschaftliche Diskussion zum Thema zu fördern. Hierzu betreibt sie beispielsweise das Portal HumanIThesia oder die Special Interest Group KI als Austauschmöglichkeit für Unternehmensvertreter der KI-Szene Baden-Württembergs.

Deep Learning vertrauenswürdig anwenden

Grundlage ihrer Aktivitäten ist für Mörike und seine Kollegen ein Menschenbild, das den Mensch als Teil eines umfassenden Evolutionsprozesses sieht und nicht als „Krone der Schöpfung“. „Vor diesem Hintergrund kann er zwar durchaus seine Lebensqualität steigern, indem er IT für sich nutzt, dies muss aber vertrauenswürdig geschehen“, erklärt Mörike. „Und das gilt ganz besonders für die neueste Entwicklung, die Künstliche Intelligenz oder richtiger gesagt: für Maschinen, die lernen können – Stichwort: Deep Learning. Das sehen übrigens nicht nur wir so, sondern auch viele andere Experten, wie auch das neueste Paper der EU zeigt, zu dem jeder bis Januar dieses Jahres beitragen konnte, und das bis März in seine endgültige Fassung gebracht werden soll *. Es geht uns darum, die richtige Ethik einzubauen. Denn wenn wir nichts tun, dann wird uns das Ganze mit Sicherheit misslingen. Siehe beispielsweise Facebook, das als eine Art Brandbeschleuniger den Hass schürt – aber nicht, weil man das dort so wollte, sondern weil man einfach nichts dagegen gemacht hat. Das ist unethisch, und das müssen wir unbedingt vermeiden.“

Ethische KI mit der Bevölkerung erarbeiten

Der Einbau von Ethik in KI so, dass die Maschinen zum Wohl des Menschen arbeiten, sei durchaus nicht einfach, wie der Experte betont: „Dabei handelt es sich um eine komplizierte Grauzone, denn Ethik und Moral lassen sich nicht mit klassischer Mathematik berechnen. Die Maschinen lernen zwar, indem man ihnen verschiedene Situationen vorführt und ihnen das richtige Verhalten beibringt. Das heißt, sie haben theoretisch dann ethisches Verhalten gelernt. Das Problem ist aber, dass Moral sehr situationsabhängig ist und von Fall zu Fall andere Entscheidungen verlangt. Zudem auch oft kulturabhängig: In China wird manches vielleicht anders bewertet als in Deutschland. Und sie hängt zudem auch von unseren inneren Werten und deren Relation zur Gesellschaft ab.“

So wird zunächst die große Frage sein, was man überhaupt in eine ethische KI einbauen will. Dies möchte die Stiftung gemeinsam mit der Bevölkerung klären. „Deshalb befeuern wir den Diskurs mit unseren Plattformen, halten Vorträge und veranstalten Kongresse mit der Idee, möglichst mit der ganzen Gesellschaft zu diskutieren“, so Mörike. „Bisher ist die Beteiligung zwar noch relativ gering, aber das ist ein Phänomen, das wir schon kennen.“ Um Ethik in KI einbauen zu können, brauche man eigentlich zunächst ein Modell, das es aber bisher noch nicht gibt, meint der Experte: „Ich kenne auch niemanden, der explizit daran arbeitet. Das müssen wir also gemeinsam gesellschaftlich leisten. Und hier ist meiner Meinung nach der europäische Weg mit der Möglichkeit der Beteiligung der richtige.“

Medizinische Anwendungen: Für und Wider abwägen

Besonders für die Entscheidungen der besonders komplizierten künstlichen neuronalen Netzwerke, die für den Menschen nicht nachvollziehbar sind, besteht eine Forderung des Tübinger Physikers darin, die Maschinen zwar empfehlen zu lassen, die letzte Entscheidung aber beim Menschen zu belassen. Dies gelte ganz besonders für die medizinische Anwendung und Forschung: „Natürlich dürfen wir das Ganze aber auch auf keinen Fall verdammen. Lasst es uns erforschen, wenn es uns nützlich und gewollt erscheint – warum nicht“, sagt er. Gerade in der Medizin sollte man KI auf alle Fälle nutzen, findet er: „Sie spart dem Arzt viel Zeit und erschließt dem Patienten hoffnungsvolle neue Wege. Ob innovative Methoden in der Pharmaforschung, Roboter, die Operationen durchführen, oder das Erkennen von Mustern – hier kann der Mensch die Maschine nicht mehr schlagen, und wir werden erleben, dass das Leben damit im Durchschnitt für uns besser wird.“ Vorsichtig sollte man dagegen sein mit Therapieempfehlungen: „Die werden sicher auch kommen, aber will ich das als Patient wirklich? – Trost kann KI nicht ersetzen.“ Und auch Eingriffe ins menschliche Gehirn sieht er kritisch:„ Hier würde ich je nach Anwendung Grenzen ziehen.“

Generell sei aber ein guter Anfang schon gemacht, was die humane Anwendung der Zukunftstechnologie angeht, meint der Experte: „Ich habe bisher noch keine Technik erlebt, über die sich so viele Menschen Gedanken machen – auch nicht bei der Gentechnik. Das Ganze muss nur noch sehr viel konkreter werden.“

Quelle:

* The European Commission’s HIGH-LEVEL EXPERT GROUP ON ARTIFICIAL INTELLIGENCE: Draft: Ethics guidelines for trustworthy AI” AI Working Document for stakeholders’ consultation Brussels, 18 December 2018 (https://ec.europa.eu/futurium/en/system/files/ged/ai_hleg_draft_ethics_guidelines_18_december.pdf)

Seiten-Adresse: https://www.gesundheitsindustrie-bw.de/fachbeitrag/aktuell/fuer-eine-humane-nutzung-kuenstlicher-intelligenz