Online Magazin für Ethik und Achtsamkeit

Für mehr Besonnenheit um Umgang mit KI

Andrea de Santis/ Unsplash
Andrea de Santis/ Unsplash

Ein Standpunkt von Nicolas Dierks

Mit ChatGPT nimmt die Anwendung Künstlicher Intelligenz noch einmal Fahrt auf. Der Philosoph Nicolas Dierks plädiert für mehr Gelassenheit im Umgang mit den neuen Technologien. Wir sollten sie in den Dienst des Menschen stellen und die Rahmenbedingungen für die Anwendung ethisch gestalten.

 

Wir können nicht alles im Leben kontrollieren. Aber wir haben Einfluss auf die Haltung, die wir gegenüber dem Unkontrollierbaren einnehmen. Neuerdings haben Tech-Unternehmen auf dem Gebiet des maschinellen Lernens (genannt: „KI“) Systeme entwickelt, die wir gar nicht vollständig kontrollieren wollen. Denn Chat GPT oder Midjourney sollen eigenständig Ergebnisse generieren. Aber der rechtliche oder kreative Status dieser Ergebnisse ist noch unklar. Und zwischen Euphorie und Warnung beschleichen Manchen gemischte Gefühle.

Welche Haltung ist diesen neuen KI-Systemen gegenüber angemessen? Die Reaktionen reichen von Erstaunen über die neuen Möglichkeiten, Verunsicherung hinsichtlich der Auswirkungen auf unsere Gesellschaft bis hin zu zynischer Apokalyptik. Hier kann die stoische Philosophie helfen, eine besonnene Haltung zu entwickeln.

Die Stoiker sahen uns Menschen als Teil einer umfassenden Natur, mit der wir im Einklang leben sollten. Teil der stoischen Haltung ist Gelassenheit bzw. Akzeptanz gegenüber dem Schicksalhaften: Was außerhalb unseres Einflusses liegt, haben wir gelassen hinzunehmen. Aber in unserem Einflussbereich haben wir stetig zu lernen und dann vernünftig und tugendhaft zu handeln. Dafür lieferten Stoiker wie Seneca, Marc Aurel und Epiktet in recht zugänglich geschriebenen Texten lebensnahe Gedanken und praktische Übungen.

Durch die europäische Kulturgeschichte bis heute hat die Stoa großen Einfluss, vor allem aufgrund ihrer humanistischen Ethik und ihrer Lebensnähe. Wie kann sie uns also angesichts der gegenwärtigen Dynamik im Bereich KI helfen?

Wie Science Fiction unsere Sichtweise auf KI beeinflusst

Fragen wir zunächst: Warum bringen uns die neueren generativen Sprachmodelle (auch Large Language Models = LLMs) so durcheinander? Ein Grund ist sicherlich, dass sie ausgerechnet die menschliche Königsdisziplin bewältigen: unsere Sprache. Nur können sie dabei auch noch auf für Menschen niemals zu bewältigende Datenmengen zurückgreifen.

Vermutlich sind unsere Reaktionen auch kulturell geprägt , etwa durch Filme: Sprechende Menschenaffen wurden in Klassikern wie Planet der Affen zu einem Symbol des Verfalls menschlicher Zivilisation. Auch bei der filmischen Verarbeitung sprechender künstlicher Intelligenzen ging es vielfach um Bedrohung durch entfesselte KI: Von 2001: Odyssee im Weltraum (1968) über Tron (1982) und Terminator (1984), Die Matrix (1994) und iRobot (2004) bis zu I Am Mother (2019). Mit anderen Worten: Wenn Maschinen sprechen, geht es uns durch Mark und Bein.

Kann ein sprachgenerierendes KI-System Bewusstsein entwickeln? Es gibt unter Fachleuten (also Informatikern wie Philosophen) weitreichenden Konsens darüber, dass zumindest auf dem gegenwärtigen Stand der Technik kein KI-System irgendeine Art von Bewusstsein hat.
Jüngst bekräftigte dies noch einmal der Deutsche Ethikrat in einer Stellungnahme zu „Mensch und Maschine“. Auch Chat GPT sei nicht mehr als ein „stochastischer Papagei“ (wobei wir den Papageien nicht Unrecht tun wollen: Sie haben organische, fühlende Körper und erkennen sich im Spiegel). Die Dystopie eines erwachenden, weltverschlingenden KI-Bewusstseins bleibt bislang noch Science Fiction.

Welche Folgen haben ChatGPT & Co.?

Was also sind die wirklichen Herausforderungen durch Chat GPT & Co.? Als kürzlich Elon Musk und andere Tech-Unternehmer in einem offenen Brief zu einer Pause der KI-Entwicklung aufriefen, lief es manchen kalt den Rücken herunter – andere hielten es für geschicktes Marketing. Was also ist an dem Stand der KI so gefährlich?
Nun, die massenweise Erzeugung von Texten etwa, die oberflächlich betrachtet durchaus plausibel oder als von Menschen geschrieben erscheinen können. In Verbindung mit Deep Fakes durch KI-generierte Stimmen oder Videoaufnahmen könnten wir also vor einer neuen Welle von Propaganda und FakeNews stehen.

Auch wird in jenen Bereichen, wo Texte ohnehin sehr standardisiert sind, zukünftig mehr KI im Einsatz kommen: in journalistischen Kurzmeldungen, im Marketing und der Werbung, vielleicht auch bei fachwissenschaftlichen Papern. Im US-amerikanischen Finanzmagazin Bloomberg sorgte dies für Aufregung: In etlichen Ratgeber-Artikeln zu Finanzanlagen wurden sachliche Fehler gefunden. Es stellte sich heraus, dass die Artikel mit Hilfe einer KI verfasst worden waren und die Fehler offenbar niemandem in der Redaktion aufgefallen waren. Eines jedoch scheint unstrittig: Es wandelt sich gerade viel, und die Folgen sind schwer abzusehen.

Europa: Vorreiter bei der ethischen Gestaltung der Digitalisierung

Wir brauchen also nicht in Panik zu verfallen. KI-Systeme haben bisher kein Bewusstsein und werden menschliches Leben weder ersetzen noch kontrollieren. Üben wir uns also zunächst in Gelassenheit. Manche bringen den Einwand: Die Tech-Konzerne würden eh machen, was sie wollen, die Politik sei unfähig und der Rest entweder verblendet oder zu bequem. Diesem Zynismus sollten wir nicht verfallen.

Ja, die großen Tech-Konzerne sind mächtig – aber doch nicht allmächtig. Gerade die letzten Jahre haben gezeigt, dass das Gemeinwesen mit öffentlichem Druck und politischer Rahmensetzung durchaus mitsteuern kann: Die europäische DSGVO ist trotz mancher Probleme bei der Umsetzung inzwischen international zum „Gold-Standard“ in Sachen Datenschutz geworden. Etliche Länder reformieren ihre Datenschutzgesetze nach dem Vorbild der DSGVO: Australien, Kanada, Japan, Thailand, Indien und Pakistan sowie die US-Bundesstaaten Kalifornien, Utah, Nevada und Maine.

Übrigens gilt in der EU seit Mai 2023 der Digital Markets Act. Ab Februar 2024 kommt dann der Digital Services Act zur Anwendung – beides Instrumente, um die Macht der großen Plattformen und Digitalkonzerne einschränken. Weiterhin ist der AI Act in Vorbereitung, die Verordnung zum vertrauenswürdigen Umgang mit künstlicher Intelligenz.
Wie bei der DSGVO nimmt die EU hier eine Vorreiterrolle ein, an der sich andere Länder möglicherweise orientieren werden.

Gelassenheit statt Panik

Erinnern wir uns also an die erste Tugend der stoischen Philosophie: Gelassenheit. Keine Panik und keine Verzweiflung. Wir sollten uns nicht an die Hoffnung klammern, dass alles bleibt, wie es ist, und dann bestürzt reagieren, wenn dem nicht so ist.
Stattdessen sollten wir damit rechnen, dass weiterer Wandel bevorsteht. Schließlich wird die Entwicklung dynamisch weitergehen. Begegnen wir dem nächsten technologischen Sprung also ruhig und besonnen.

Das heißt natürlich nicht, dass wir die Entwicklung akzeptieren wie ein Naturgesetz. Schließlich sind wir es, die den technologischen Fortschritt gestalten können – im Kleinen als Einzelne, aber auch als Gesellschaft. Als Einzelne werden wir nicht unbedingt „überrollt“. Wir können besonnen herausfinden, welchen Nutzen z.B. Sprach-KI für uns persönlich haben könnte. Wo wollen wir sie nutzen und wo nicht?
Aufmerksam und neugierig sollten wir das Phänomen genauer zu verstehen, um dann Einfluss zu nehmen. Dann können wir auch im stoischen Sinne einen tugendhaften Umgang mit der Technologie pflegen.

Unsere digitale Zukunft mitgestalten

Eine der grundlegenden Lehren der Stoa ist, das Leben auch als ein Übungsfeld zu begreifen, um die eigenen Tugenden, Weisheit und Mitgefühl zu entwickeln. Mit dieser Haltung sollten wir Fragen stellen wie:

  • Wie kann uns KI bei dieser Selbstentfaltung unterstützen?
  • Wie könnte uns die Technologie dabei unterstützen, zu tugendhaften, weiseren und mitfühlenden Menschen zu werden, die sich miteinander und mit der Natur als Ganzer verbunden fühlen?
  • Und wie können wir verhindern, dass die Technologie uns auf Abwege führt und letztlich schadet?

Diese Fragen sind zentral nicht nur für den Einzelnen. Wenn wir sie ernst nehmen, dann sind dadurch bestimmte Haltungen schon ausgeschlossen: Weder sollten wir die Technik unkritisch hochjubeln, noch darin ein bloßes Mittel für finanziellen Gewinn oder Arbeitserleichterung sehen.

Andererseits sollten wir die Technologie nicht in Bausch und Bogen verdammen oder uns zurückziehen und damit das Feld der Gestaltung unserer Zukunft einfach der Tech-Branche überlassen. Zynisches Abwinken wäre ein Ausdruck von Verzweiflung. Und Verzweiflung sollten wir im stoischem Geist nicht unsere Haltung bestimmen lassen.

Stattdessen können wir den neuen Phänomenen gelassen entgegentreten und besonnene Entscheidungen treffen. So verhindern wir am ehesten, uns im Strudel der technologischen Dynamik zu verlieren, sondern können eine gute digitale Zukunft zum Wohle aller mitgestalten.

 

Schauen Sie auch den Vortrag an, den Nicolas Dierks  am 14. März 2023 auf einem Online-Abend beim Netzwerk Ethik heute gehalten hat:

YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

 

Foto: Markus Brügge

Dr. Nicolas Dierks ist Philosoph und Autor bei Rowohlt, u.a. des Spiegel-Bestsellers „Was tue ich hier eigentlich?“ (2014). An der Leuphana Universität Lüneburg leitet er das Zertifikats-Studium Digitale Ethik. Er erforscht die Frage, wie wir unsere digitale Zukunft verantwortlich gestalten können.

Shutterstock

Mit Referenten aus verschiedenen Disziplinen.

Abonnieren
Benachrichtige mich bei
0 Kommentare
Inline Feedbacks
Alle Kommentare

Kategorien