Online Magazin für Ethik und Achtsamkeit

Ist es okay, Texte von ChatGPT zu nutzen?

Mohamed Nohassi/ Unsplash
Mohamed Nohassi/ Unsplash

Ethische Alltagsfragen

In der Rubrik “Ethische Alltagsfragen” greift der Philosoph Jay Garfield eine Frage zur Nutzung von ChatGPT auf, einer Künstlichen Intelligenz für Texte. “ChatGPT nennt keine Urheber. Ist es ethisch korrekt, solche Texte zu nutzen?”

Frage: Ich bin in der Medienbranche tätig und muss mich damit auseinandersetzen, dass die Künstliche Intelligenz (KI) eine immer größere Rolle spielt: Mit KI kann man Fotos und Illustrationen kreieren, seit Chat-gpt sogar passable Texte schreiben. Aber wie ist das eigentlich ethisch zu beurteilen?

Die Informationen, die das Programm schreibt, stammen ja von den vielen, die sie ins Internet gestellt haben. Die Urheber werden nicht genannt. Ist es ethisch überhaupt vertretbar, diese KI zu nutzen? Und gesellschaftlich gesehen: Führt es nicht zu noch mehr Fake News und Verwirrung, wenn man wahllos auf alles zugreift, ohne den Urheber zu nennen?

Jay Garfield: KI ist da, zumindest in einer primitiven Form, und wir müssen damit umgehen. Heute ist sie nicht nur in hochspezialisierten Bereichen wie der medizinischen Diagnose, dem Schachspiel oder der Mustererkennung einsetzbar.

Mit Sprachmodellen wie ChatGPT gibt es nun eine KI für Texte, die sich große Datenmengen im Internet zunutze macht. Die Systeme sind sprachlich so solide und scheinen über ein breites Allgemeinwissen zu verfügen, dass sie die Illusion vermitteln, wir hätten es mit Personen zu tun. Dies wirft eine Reihe wichtiger ethischer Fragen auf.

Allerdings ist die Frage, ob es moralisch vertretbar ist, KI einzusetzen, nicht mehr aktuell. Der Geist ist aus der Flasche, und unser Leben heute ist so mit der Informations- und Kommunikationstechnologie verwoben, dass die KI-Systeme definitiv eingesetzt werden – und auch ihren Nutzen haben können.

Maschinen kümmern sich um gar nichts

Zunächst sei klargestellt: Die Sprachmodelle wie ChatGPT sind keine Personen, auch wenn sie Menschen manchmal gut imitieren. In Wahrheit aber fehlt ihnen eine zutiefst menschliche Eigenschaft: Sie kümmern sich um nichts, und es ist ihnen sogar egal, dass sie sich nicht kümmern. Im Moment sind sie noch so konzipiert, dass wir das schnell merken.

Außerdem entwickeln sie keine neuen Einsichten oder entdecken neue Fakten, sondern sammeln Daten und stellen die Einsichten anderer zusammen. Dann ziehen sie die unmittelbaren Konsequenzen aus dem, was sie im Internet finden, wobei sie nicht allzu viel Geschick haben, zwischen echten Informationen und Desinformationen zu unterscheiden.

Und hier spiegeln sie vielleicht sogar unser eigenes Verhalten wider: Vermutlich agieren viele von uns wie Chatbots, zumindest wenn sie nicht aufpassen: Wir geben weiter, was wir hören, ohne es zu sehr zu hinterfragen. Wir verlassen uns auf die Ideen von Kolumnisten in Ethik Heute, anstatt selbst zu denken.

Wir sollten uns daher zwei Fragen stellen, die miteinander zusammenhängen: (1) Inwieweit sollten Chatbots so programmiert werden, dass sie ihre Quellen angeben und damit die Urheber der Informationen angemessen würdigen? Denn nur dann wären wir in der Lage, die Qualität der von ihnen weitergegebenen Informationen zu beurteilen.

(2) In welchem Umfang und in welchen Situationen ist es für uns akzeptabel, von Chatbots bereitgestellte Informationen zu nutzen?

Natürlich gibt es harmlose Verwendungszwecke für KI-generierte Texte, z.B. das Schreiben von technischen Handbüchern oder Formbriefen oder die Erstellung von Reiseplänen.

Quellenangaben sind unbedingt notwendig

Einer der Hauptnutzungszwecke von Chatbots darin besteht, Informationen für uns zu sammeln. Daher müssen wir in die Lage versetzt werden, die Qualität dieser Informationen zu beurteilen.

Das kennen wir aus der Wissenschaft. Eine wissenschaftliche Arbeit sollte eine Liste mit Referenzen und Quellen enthalten. Diese können wir auf ihre Zuverlässigkeit überprüfen. Erst wenn die Quellen offengelegt sind, wird sichtbar, wie ein Ergebnis oder eine Schlussfolgerung zustande gekommen ist.

In Anbetracht der riesigen Datenbanken, auf die sich die KI-Systeme stützen – und das ist eine wesentliche Voraussetzung für ihren Erfolg – können wir ohne Offenlegung der Quellen nicht wissen, ob das, was wir erhalten, nützlich oder irreführend ist.

Und natürlich verdienen Wissenschaftler, Journalisten und andere, die harte Arbeit leisten, recherchieren, Ideen entdecken, auf die ChatGPT und andere Bots bei der Beantwortung der Fragen zurückgreifen, Anerkennung für ihre Arbeit. Sie sollten als Urheber genannt werden.

Wenn ich einem KI-System eine Frage über den Amerikanischen Bürgerkrieg stelle und es sich auf die Erkenntnisse einer Historikerin stützt, gebührt ihr die Anerkennung, nicht dem Bot. Aus diesen beiden Gründen ist es aus moralischer Sicht unbedingt erforderlich, dass die von einem KI-System übermittelten Ideen oder Informationen in Zukunft ausdrücklich mit Quellenangaben versehen werden.

Informationen nur weitergeben, wenn sie zuverlässig sind

Dies führt uns direkt zur zweiten Frage: Inwieweit ist es akzeptabel, uns auf diese Systeme zu verlassen und die Informationen weiterzuverbreiten? Ich denke, dass wir uns in dem Maße auf sie verlassen können, in dem wir ihre Zuverlässigkeit überprüfen können – und auch nur dann, wenn wir ausdrücklich zugeben, dass wir dies tun. Dies geschieht im vollen Bewusstsein des damit verbundenen epistemischen Risikos.

Dieses Vorgehen entspricht dem, wie wir es im Leben allgemein tun, etwa wenn uns jemand, den wir nicht gut kennen, etwas erzählt. Bevor wir die Information weitergeben, sollten wir die Person fragen, woher sie das weiß, welche Quellen sie hat und warum sie das glaubt.

So sollten wir es auch bei der Nutzung von KI-Systemen halten: Wenn man die Quellen überprüfen konnte und sicher ist, dass die vom System gezogenen Schlussfolgerungen durch diese Quellen gerechtfertigt sind, sollten wir uns darauf verlassen können. Bei der Weitergabe weist man darauf hin, dass sie von einem Bot stammen.

Wenn man sich nicht sicher ist, ob das, was der Bot sagt, wirklich stimmt, sollte man es sein lassen und weitere Nachforschungen anstellen. Das ist der Grund, warum beide genannten Grundsätze zusammenwirken: Wir können Informationen von der KI nicht auf ethische Weise nutzen, wenn sie nicht auf ethische Weise präsentiert werden.

Verantwortung tragen für die Verwendung des Geschriebenen

Es gibt noch viele weitere ethische Fragen, die wir in diesem Zusammenhang aufwerfen könnten. Lassen Sie uns noch eine herausgreifen: ChatGPT und andere Systeme können extrem schnell viele Texte erzeugen, ohne sich um die Wahrheit oder die Auswirkungen zu kümmern, die die Worte haben. Darin besteht eine große Gefahr. Sie können zu Instrumenten für Desinformation und politischer Manipulation werden. KI wird dann zu einer Art verbalen Waffe.

Wenn kein einzelner Mensch die Urheberschaft für das, was geschrieben wird, übernimmt, so kann das zu einem Mangel an Verantwortungsgefühl führen. Das ist eine echte Herausforderung.

Diejenigen, die Chatbots zum Zwecke der Desinformation einsetzen, sollten für ihre Handlungen zur Rechenschaft gezogen werden; nur weil die Texte maschinell erstellt werden, entbindet es die menschlichen Akteure nicht von der Verantwortung für die Verwendung des Geschriebenen.

Dies sind nur wenige ethische Fragen, die diese mächtige neue Technologie jetzt aufwirft. Wir können nur erahnen, mit welchen Fragen wir uns in naher Zukunft noch beschäftigen müssen. Oder fragen Sie ChatGPT, welche ethischen Fragen das sein werden. Er wird sicher Antworten parat haben.

Wenn Sie eine Frage haben, eine ethische Zwickmühle, schreiben Sie uns: redaktion@ethik-heute.org

Jay Garfield ist Professor für Philosophie am Smith College, Northhampten, USA, und Dozent für westliche Philosophie an der tibetischen Universität in Sarnath, Indien. Ein Schwerpunkt seiner Lehrtätigkeit ist die interkulturelle Philosophie. Autor und Herausgeber zahlreicher Bücher. Alle Beiträge von Jay Garfield in der Rubrik „Ethische Alltagsfragen“ im Überblick
Shutterstock

Mit Referenten aus verschiedenen Disziplinen.

Abonnieren
Benachrichtige mich bei
1 Kommentar
Inline Feedbacks
Alle Kommentare

Von Chat GPT gennerrirtt oder was?

Last edited 2 Monate zuvor by Wer

Kategorien