Aufruf zur Diskussion über KI
Muss der Mensch sich mit der Maschine verbinden, um eine neue Stufe der Evolution einzuleiten? Oder sollte er den moralischen Kompass neu ausrichten und mehr nach dem Sinn fragen? Geseko von Lüpke sammelte Stimmen zur Künstlichen Intelligenz und regt eine ethische Diskussion an.
Es ist ein Zirkelschluss von scheinbarer Unbedingtheit: Weil der fehlerhafte Mensch die Welt an den Abgrund geführt hat, muss er sich mit superintelligenten Maschinen verbinden, um nicht auszusterben. Den Prozess der schrittweisen Transformation zum ‚Cyborg‘, dem Mensch-Maschine-Wesen, nennt man ‚Enhancement‘ – ein englisches Wort, dass so viel heißt wie ‚Verbesserung‘, ‚Anreicherung‘, ‚Erhöhung‘.
Da wird das Motto der industriellen Wachstumsgesellschaft ‚schneller, weiter, höher‘ einfach auf den Menschen übertragen, sagen Skeptiker. Aber ist der Mensch nicht schon längst ein ‚Cyborg‘? fragen die Befürworter. Ist ein Patient mit Herzschrittmacher oder Hörgerät nicht schon ein Mensch-Maschine-Wesen, fallen Anti-Depressiva für ewig Traurige nicht auch schon unter ‚psychologisches Enhancement‘?
Homo perfectus: Optimierung zum Superwesen?
Da werden sehr schnell tiefste Fragen des Menschseins, der Identität, der Ethik berührt. „Die Verbesserung der menschlichen Daseins, hieß in der Renaissance schon ‚Homo perfectus‘ − das war eine Idee, die auch religiös eine Rolle spielte“, sagt Klaus Müller, Theologieprofessor in Münster, der sich als einer der wenigen mit den theologischen Implikationen der unheimlichen Technik-Entwicklung beschäftigt: „Also die Idee der Optimierung selber ist keineswegs negativ besetzt, nur die Frage stellt sich dann: Mit welchen Mitteln geschieht das und wie weit wird diese Optimierung getrieben?“
Diese Fragen werden immer lauter gestellt. Von Theologen, Feuilletonisten, Ethikern, besorgten Aktivisten der kritischen Zivilgesellschaft: Darf der Mensch in dieser Form seine Evolution in die eigenen Hände nehmen? Darf das hinausreichen über die gegebenen Potentiale und Grenzen des Menschseins? Können wir uns zu Superwesen aufrüsten? Wer kann sich das leisten? Wofür? Wer kann das missbrauchen? Wem nutzt es?
Denn es könnte – um das Wort ‚Rasse‘ zu vermeiden – eine neue elitäre Spezies entstehen, die sich ein ‚Enhancement‘ leisten kann und den Rest der Welt beherrscht. Folgen wären Endsolidarisierung, Zerfall von Demokratie und Gesellschaft. Es könnten sich Wege zur geistigen Manipulation eröffnen, gegen die Orwells ‚1984‘ ein harmloses Szenario darstellt.
Und wohin reicht die umfangreiche militärische Forschung an künstlicher Intelligenz: Schon entwickelt man selbst-denkende Drohnen, folgen Killermaschinen und der ‚Terminator‘? Die zentrale Frage lautet immer mehr: Ist das eine Zukunft, die sich die Gesellschaft wünscht? Und wenn nicht, wer stoppt die Entwicklung?
Zweifel regen sich auch im Silicon Valley
„Wir sind in einer Kultur gelandet, die annimmt, dass wissenschaftlich-technologische Entwicklung nur Perfektes hervorbringt und künstliche Intelligenz etwas Unvermeidliches sei, sodass wir ihr die Entscheidung über unser Leben überlassen können“, sagt Pat Mooney, Technik-Folgen-Spezialist aus Kanada, der für seine kritischen Analysen den Alternativen Nobelpreis erhielt:
„Dabei ist es im Kern ein spirituelles Problem, weil wir als Spezies nicht mehr wirklich wissen, woran wir uns orientieren sollen, unsere höhere Perspektive verloren haben, und der Sinn des Lebens verschwindet, weil wir keine Ahnung mehr haben, was Leben ist, was Natur ist und wie wir da hereinpassen.“
Da geht es offenbar um mehr als schlichte Technik-Folgen-Abschätzung. Eher um die Frage: Was ist der Mensch? Wo will er hin? Schafft er sich selbst ab? Und: Ist dieser Weg, den die miteinander verschmelzenden Technologien da vorzeichnen, tatsächlich unvermeidlich? Ganz langsam bildet sich eine kritische Gegenbewegung. Doch die Gefahr ist so abstrakt, die Thesen der Posthumanisten sind so abstrus, die Komplexität des Themas so immens, dass die Diskussion bislang eher im wissenschaftlichen Elfenbeinturm stattfindet.
„Das muss sich ändern. Es gibt einen Zeitdruck und die Technikentwicklung ist rasant“, sagt der Münchner Medizinethiker Ralf Jox: „Wenn man zu spät kommt, dann wird es oft auch nur noch wahrgenommen als ein Mäkeln, als ein Lamentieren des Ethikers. Und es ist von großem Vorteil, wenn man frühzeitig dran ist, insbesondere wenn man es schafft, die Entwickler und die Forscher selbst zu überzeugen, dass man sagt: O.K., vielleicht sollte man auf bestimmte Anwendungen verzichten oder die Technik so entwickeln, dass sie verantwortungsvoll ist!“
Hoffnung macht, dass in jüngster Zeit die Pioniere selbst ins Zweifeln kommen, im Silicon Valley ein selbstkritisches Manifest kursiert, dem sich immer mehr Entwickler anschließen. Dass Berühmtheiten wie Elon Musk, Gründer und Vordenker des Tesla-Konzerns, Vorsicht anmahnen oder Genies wie Steven Hawkings, der als Schwerstbehinderter kurz vor seinem Tod kurioserweise per Sprachcomputer vor der Entwicklung warnte:
“Die einfachen Formen von künstlicher Intelligenz haben sich als sehr nützlich erwiesen. Aber ich glaube, dass eine ungebremste Entwicklung zum Ende der Menschheit führen könnte.“ Erst Ende Februar 2018 warnten Forscher und Programmierer führender amerikanischer Universitäten in einem gemeinsamen Manifest vor dem Missbrauch, der heute schon möglich ist und forderten ein Moratorium.
Einseitiger Begriff von Intelligenz
Was zurzeit bei der beginnenden gesellschaftlichen Diskussion auch thematisiert wird, ist die Tatsache, dass die bei der K.I.-Forschung gebräuchliche Definition von Intelligenz ausschließlich binär, logarithmisch und letztlich reduktionistisch ist, weil sie Körperintelligenz, emotionale Intelligenz, seelische Weisheit oder so etwas wie spirituelle Intelligenz völlig übersieht.
Dabei wird deutlich, dass der ‚Transhumanismus‘ eigentlich davon ausgeht, dass der Mensch nichts weiter ist als eine biologische Maschine, die sich bedenkenlos ‚tunen‘ lässt, mit Ersatzteilen ergänzt werden kann, keine Seele hat – und Bewusstsein letztlich auf Chips speicherbar sei. Ihr Grundparadigma ist damit eine extreme Form des Materialismus, der sich als herrschende Weltsicht durchsetzen will, aber damit allen Religionen eigentlich widerspricht.
Zugleich kommt die Technikverherrlichung, die aus manchen Publikationen der ‚Transhumanisten‘ klingt, einer neuen ‚digitalen Religion‘ schon sehr nahe. „Dass die Firmen selber das wahrnehmen, zeigt sich auch an diesen religiösen Sprachspielen, die sie selber haben“ sagt die Theologin Johanna Haberer von der Uni Erlangen: “Wenn Google als ‘Kirche’ bezeichnet wird oder der CEO von Google sagt: ‚Ich weiß, wo du bist, ich weiß, wo du dich aufhältst. Ich weiß, was du denkst. Ich weiß, was du morgen denken wirst. Ich weiß alles!‘ dann ist man natürlich an dieser Stelle schon bei all diesen Eigenschaften Gottes und quasi religiösen Begriffen.“
Ist es dann Aufgabe der Theologie, die ‘echte Religion‘ gegenüber einer digitalen Transzendenzerfahrung zu schützen? Überschreitet jemand, der eine Datenbrille aufsetzt, virtuelle Realitäten bereist und global agieren kann, seine irdische begrenzte Welt? Ja, ist der ganze Hype um die künstliche Intelligenz ein Ausdruck der religiösen Sehnsucht nach größeren Wirklichkeiten?
„Es gibt zurzeit eine Tendenz, die menschlichen Fähigkeiten dadurch zu verbessern, dass wir immer mehr an Maschinen abgeben“, sagt der Ethiker Ralf Jox: „Und ich glaube, wir wären besser beraten, wenn wir mehr investieren würden in die Entwicklung unseres persönlichen, seelisch, emotionalen, geistigen Lebens, aber auch unseres Zusammenlebens als Gemeinschaft.“
Eine tiefere spirituelle Beziehung zur Welt entwickeln
Oder ist der eigentliche Kern der Auseinandersetzung die Tatsache, dass der kalte Materialismus der künstlichen Intelligenz seelische Aspekte verneint und damit jedes spirituelle Potential des Menschen zu Hokuspokus erklärt und verwirft? Dann würde uns die Herausforderung, vor die uns die Entwicklungen der künstlichen Intelligenz stellt, zwingen, neu darüber nachzudenken, welches Potential der Mensch tatsächlich hat!
Die ‘technologische Singularität’ – die eintritt, wenn Maschinen schlauer werden als wir – drängt uns dazu, eine höhere Ebene einzunehmen. Wenn wir bleiben, wie wir sind, werden wir von ihr überholt, sagt der alternative Nobelpreisträger und Philosoph Nicanor Perlas. „Das heißt, wir müssen wirklich kreativ als ganz wache Menschen agieren, um dieser gewaltigen Herausforderung gewachsen zu sein. Versagen wir, sind wir fertig mit der Welt.
„Ich glaube, im Moment sind es wirklich primär die Zivilgesellschaft und die Theologen, die kritische Fragen stellen“, sagt der kanadische Aktivist und alternative Nobelpreisträger Pat Mooney: „In solchen Zeiten des Zweifelns besteht die Chance für die Zivilgesellschaft zu intervenieren und zu sagen: ‘Hey Leute, stopp! Wir müssen hier erst noch ausdiskutieren, was das alles für unsere Gesellschaft und die Welt bedeutet.’ Denn wenn die Prognosen stimmen und die Entwicklung der Forschung sich so beschleunigt, dass bald in 100 Jahren so viel passiert, wie früher in 20.000 Jahren, dann gilt es, die kritischen Fragen eher zu früh zu stellen, als zu spät.
Dr. Geseko von Lüpke ist freier Journalist und Autor von Publikationen über Naturwissenschaft, nachhaltige Zukunftsgestaltung, ökologische Ethik, Schamanismus, Spiritualität.
Einführender Artikel zum Thema: Der Mensch als biologische Maschine – Risiken des Transhumanismus
Toller Artikel