BERLIN – Armin Grunwald betont gerne, dass er Philosoph ist und kein Prophet. In die Zukunft zu schauen versucht er trotzdem.

Seit 15 Jahren leitet der 57-Jährige das Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag, eine Forschungseinrichtung, die deutsche Parlamentarier in ethischen Fragen berät. In einer Altbauwohnung in Berlin-Mitte arbeitet sein Team, ein knappes Dutzend Forscher, an Empfehlungen zu Fragen vom Atomausstieg bis hin zu den Auswirkungen der Sommerzeit.

Ihre neueste Aufgabe ist es, mögliche Auswirkungen künstlicher Intelligenz (KI) zu skizzieren: all jener Technologien, dank derer Maschinen Aufgaben ausführen können, für die in der Vergangenheit menschliches Denken nötig gewesen wäre.

KI sei eine radikal neue Herausforderung, sagt Grunwald. Zum ersten Mal würden Menschen Technik erschaffen, die sich selbst weiterentwickeln kann — und zwar unabhängig und möglicherweise mit dramatischen Konsequenzen. Seine Aufgabe ist es, Parlamentariern dafür eine Art moralischen Leitfaden an die Hand zu geben.

Es ginge nicht darum zu sagen “was richtig und falsch ist — das macht die Theologie”, sagt Grunwald, der einst sowohl Philosophie, als auch Physik studiert und ein paar Jahre lang für eine Software-Firma gearbeitet hat.

“Ethik sagt, was unter welchen Bedingungen legitim ist. Und da bleibt vieles offen.”

Was passiert, wenn die Technik irgendwann schlauer ist als wir?

Zunächst einmal ist es ganz normal, dass Technik besser ist als der Mensch. Sonst bräuchte man sie nicht erfinden: Schon eine Schaufel ist effektiver als eine Hand, wenn man ein Loch graben möchte. Dementsprechend macht auch KI-betriebene Technologie nur Sinn, wenn sie irgendetwas besser kann als der Mensch.

Das Problem ist, dass wir abgehängt werden könnten. Die Frage ist letztlich, wer noch die Kontrolle über diese ganzen Systeme in der Hand hat.

Armin Grunwald | Janosch Delcker/POLITICO

Eine Gruppe von Denkern warnt vor sogenannter “Superintelligenz” und Szenarien, in denen die Maschinen die Kontrolle über den Menschen übernehmen. Ist da etwas dran?

Wenn wir mit KI unsere Systeme weiter aufrüsten und in die Autonomie entlassen, könnte es in der Tat irgendwann einen Punkt geben, an dem wir aus der Kontrolle herausgedrängt werden, und das könnte fatale Folgen haben.

Das ist ein reines Befürchtungsszenario, das kann heute keiner wissen — aber es ist gut, dass es warnende Stimmen gibt. Sie helfen uns wachsam zu bleiben. Die größte Gefahr ist die menschliche Bequemlichkeit: Dass wir die negativen Seiten von Technik nicht mehr sehen, weil sie so nett und bequem ist.

Wann wäre dieser “point of no return” erreicht? Wann ist die Entwicklung unumkehrbar?

Sobald die Technik Erwartungen an uns hat — und nicht umgekehrt. Das ist die zentrale philosophische Frage: Ist die Technik für den Menschen da, oder die Menschen für die Technik? Diese Befürchtungen, dass in der Zukunft der Mensch eher für die Technik da sein könnte, sind nicht neu — denken wir nur an Fritz Langs Film Metropolis von 1927, in dem die Maschine dem Menschen wortwörtlich den Takt vorgibt. Das sind alles keine neuen Sorgen, aber die KI gibt ihnen nochmal einen richtigen Schub.

Apropos 1920er Jahre: Im Moment kramen Journalisten gerne Überschriften aus der Zeit heraus, in denen davor gewarnt wird, dass die Automatisierung bald Arbeitsplätze töten würde – frei nach dem Motto, “Entspannt euch, Angst vor Automatisierung gibt es schon lange.”

Ja, aber aus der Tatsache, dass in früheren Zeiten Automatisierungswellen nicht dazu geführt haben, dass der Gesellschaft die Arbeit ausgegangen ist, folgt nicht zwingend, dass bei der nächsten Welle auch alles gut gehen wird. Geschichte muss sich keineswegs wiederholen.

…und neu ist, dass bei der nächsten Automatisierungswelle, die uns bevorsteht, auch “white collar”-Jobs flächendeckend betroffen sein werden.

Eben, und das beunruhigt mich. Wenn KI-ermöglichte Dienstleistungen so weit in den “white collar”-Bereich hineinreichen, dass sie nun auch einige akademische Berufe gefährden, dann ist das eine Entwicklung, die auf die Mitte der Gesellschaft zielt — den Teil, der die Demokratie trägt. Das kann ein ernsthaftes Problem werden, schon allein deshalb, dass Abstiegssorgen in diesen Schichten entstehen und dann der Sog zu radikalen Parteien zunehmen könnte.

Wahrscheinlich wird man über Maschinensteuern nachdenken müssen. Mit der KI schaffen wir Menschen uns einen ökonomischen Wettbewerbsnachteil gegenüber der Technik: Wenn man Roboter anschafft, um Menschen zu ersetzen, sind sie zwar im Kaufpreis teuer, aber man braucht ihnen keinen Lohn und keine Steuern zu bezahlen.

Deshalb pushen einige Denker schon seit zehn Jahren die Idee, mit einer Steuer dieses Wettbewerbsgefälle etwas auszugleichen. Das würde Geld in die öffentlichen Kassen bringen, mit denen man dann Umschulungen und Weiterqualifizierungen finanzieren kann, um den Übergang besser zu gestalten.

Sie waren eines von 14 Mitgliedern der Kommission, die für die deutsche Regierung ethische Leitlinien für das automatisierte Fahren erarbeitet hat.

In dem Kontext wird immer ein Dilemma beschrieben: Wenn ein vollautomatisiertes Auto außer Kontrolle gerät und vor der Entscheidung steht, entweder eine junge Frau mit Kinderwagen oder zwei ältere Frauen überfahren zu müssen, was sollte es dann tun?

Ja, aber das Problem gibt es nicht wirklich. Das ist ein reines Gedankenexperiment – ein Scheinproblem, das in der realen Welt da draußen nicht vorkommt. Wenn es ein relevantes Problem wäre, dann müssten unsere Fahrschulen alle Fahrschüler auf diese Situation trainieren. Wurden Sie darauf trainiert?

Nein, eben.

Es ist ein wunderbares Thema für Fundamentaldiskussionen in der Ethik. Man kann massenweise Doktorarbeiten dazu schreiben: Die eine Schule kommt zu dem einen Ergebnis. Dann ändert man die Konstellation ein bisschen — man nimmt nicht zwei alte Frauen, sondern drei, und eine von denen hat dann noch eine Katze — und es ändert sich wieder. Als Gedankenexperiment macht das Spaß, aber es ist nicht relevant.

In Ordnung, aber was sollte das Auto tun?

Wenn ein menschlicher Fahrer tatsächlich in so eine Situation kommt — das ist ja nicht auszuschließen — was macht er dann? Er nimmt die Hände vors Gesicht, oder verreißt das Steuer. Er macht in jedem Fall nichts rational Überlegtes. Wenn dadurch etwas Schlimmes passiert, wird er dafür nicht rechtlich belangt, weil anerkannt wird, dass es eine tragische Situation ist, während der man nicht verlangen kann, dass sich jemand nach dem Grundgesetz, der Erklärung der Menschenrechtskonvention oder Kants Ethik verhält.

Deshalb wäre mein Vorschlag, für diese Fälle den Bordcomputer als Zufallsgenerator laufen zu lassen. Das ist das Analogon zu dem, was ein Mensch machen würde.

Das heißt also, die Maschine wäre genauso hilflos wie der Mensch — das kollidiert mit der Erwartung vieler an KI, dass sie besser als der Mensch sein sollte.

Stimmt. Aber meines Erachtens muss die KI erstmals mindestens genauso gut sein wie der Mensch; man darf durchaus verlangen, dass es keine Verschlechterung gibt.

Und wenn es dank KI in Autos gelingt die Zahl der Verkehrstoten im Jahr — in Deutschland momentan um die 3500 — zu reduzieren, das heißt ein paar hundert Tote und ein paar Tausend Verletze zu vermeiden, dann ist das doch ideal.

Und dann kann ich auch gut akzeptieren, wenn es in anderen Bereichen keine Verbesserung gibt.

Das Interview wurde gekürzt und leicht redigiert.

Dieser Artikel ist Teil unseres Special Reports “Confronting the Future of AI”.

Original Article

[contf] [contfnew]