Und wie wir KI-Inhalte überprüfen
Künstliche Intelligenz (KI) ist überall, doch häufig sind die Ergebnisse fehlerhaft. Auch nutzen Kriminelle die Technik, um Menschen zu täuschen. Die Journalistin Ines Eckermann erklärt, wie man Online-Inhalte hinterfragt und überprüft.
Zwischen Bildern von Händen mit sieben Fingern und täuschend echten Videos des eigenen Enkelkindes, das dringend um Hilfe fleht, liegen nur wenige Jahre. So rasant entwickelt sich die Künstliche Intelligenz (KI).
Vor einem Jahrzehnt war sie noch Stoff für Science-Fiction-Romane, heute ist sie überall. Doch sie ist mehr als bloße Spielerei für gelangweilte Technik-Fans: Einige Forschende befürchten nicht nur eine Zunahme an Falschmeldungen, sondern auch den Verlust wichtiger sozialer Fähigkeiten – und sogar das Ende des kritischen Denkens.
Klassische Medien warnen eindrücklich vor der wachsenden Gefahr von Deepfake-Betrug und damit auch vor einem massiven Vertrauensverlust in Medien und Kommunikation durch KI.
Laut einem Bericht des ZDF nutzen Kriminelle immer häufiger KI-Technologien, um täuschend echte Videos oder Audios zu erzeugen, etwa mit manipulierten Stimmen oder gefälschten Videos, um ahnungslose Menschen mit falschen Versprechungen locken, sie zu Investitionen oder anderen unseriösen Geschäften verleiten. Und wenn die eigenen Kinder Videos und Fotos online posten, könnten Fremde daraus mit wenigen Klicks digitale Klone generieren.
Wie überprüfe ich online-Inhalte?
Beim Überprüfen von Online-Inhalten kann man sich zuerst fragen: Finden sich die Informationen noch an anderer Stelle? KI speist sich aus dem Internet, und aktuell sind um die 60 Prozent der Inhalte online mittlerweile KI-generiert. Das heißt, die Informationen sind nicht uneingeschränkt verlässlich.
Daher ist auch wichtig, sich zu fragen: Wer verbreitet diese Inhalte? Eine Quelle, der Sie vertrauen oder ist es eine Website oder ein Social-Media-Kanal, von dem Sie noch nie gehört haben?
Auch etwas KI-Fachwissen kann helfen. Deshalb bieten beispielsweise die US-amerikanische Seniorenorganisation AARP zusammen mit dem KI-Anbieter OpenAI KI-Schulungen für ältere Menschen an. Darin sollen die ältere Menschen lernen, wie sie Online-Betrug erkennen können und wie sie nicht auf Deep-Fakes und personalisiertes Phishing hereinfallen.
Dabei soll Technologie als „zweites Augenpaar“ dienen: Die KI kann selbst Texte oder Nachrichten auf Warnzeichen prüfen, gleichzeitig werden aber Datenschutz, Achtsamkeit und kritisches Denken als unverzichtbar betont.
Die Sache hat allerdings einen Haken: Zum einen hat OpenAI als Hersteller der KI-Anwendung ChatGPT natürlich ein großes Interesse daran, dass Menschen nicht mit KI fremdeln, sondern die Anwendung angstfrei nutzen.
Zum anderen haben wir es hier keineswegs mit einem objektiven Paar zusätzlicher Augen zu tun. Denn zumindest momentan liefern ChatGPT und ähnliche Anwendungen vor allem Antworten, die erwünscht erscheinen, aber nicht zwingend korrekt sind.
Dabei denkt sich ChatGPT gelegentlich Daten, Zahlen und Fakten oder sogar Internet-Adressen aus. Wer nicht kritisch prüft, was ihm der Chatbot erzählt, kann also gehörig daneben liegen.
Alles nur geklaut
KI-Inhalte sind das Ergebnis aus der Berechnung der wahrscheinlichsten Antwort auf eine Anfrage, die sich aus dem speist, was Menschen über Jahrhunderte und Jahrtausende geschaffen haben.
Alles, was irgendwann digitalisiert wurde und halbwegs öffentlich zugänglich ist, dient den KI-Modellen als Trainingsgrundlage. Egal ob Foto, Blogeintrag, Gedicht oder Familienroman.
Menschliche Kreativität und Forschung sind die Datenbasis, aus der die KI etwas Neues, Künstliches berechnet. Das heißt, jede Illustration und jeder Text, den ChatGPT, Gemini und Co. ausspucken, basiert auf dem wohl größten Urheberrechtsverstoß der Menschheitsgeschichte.
Da es keine Regulierungen gibt, werden Kreative entsprechend auch nicht für die unfreiwillige Nutzung ihrer Daten entlohnt. Und es ist auch nicht absehbar, wie dieses Plagiatsproblem perspektivisch eingefangen werden könnte.
Energiehungrige Plagiatsmaschine
Längst lernt KI von KI und repliziert die auf Gestohlenem basierenden Inhalte ins Unendliche. Auch dadurch wird KI fehleranfällig. Denn wenn Fehlinformationen repliziert werden und ungeprüft veröffentlicht werden, müssen wir uns fragen: Was dürfen wir eigentlich noch glauben?
Mit digitalen Inhalten ist Vorsicht geboten. Denn mittlerweile übersteigen die von KI generierten Inhalte im Internet die Zahl der von Menschen geschriebenen Artikel und Websites. Manche Forschende nehmen an, dass Text erstellende KI deshalb an eine natürliche Grenze kommen wird.
Doch drängen wir dadurch KI nicht noch weiter in die Nische, sich kreativ auszutoben? Denn wenn sie in Sachen Fakten und Qualitätsjournalismus aktuell eher ungeeignet scheint, dann könnte sie ja jetzt Romane schreiben.
Auf der Londoner Buchmesse 2022 präsentierten die ersten Verlage bereits Bücher, die mit KI erstellt wurden. KI nimmt uns, wenn wir nicht aufpassen, etwas zutiefst Menschliches, nämlich unsere Fähigkeit, uns emotional und kreativ auszudrücken.
Unser YouTube-Kanal
Wir haben angefangen, unseren youtube-Kanal auszubauen. Denn unsere kostbaren Inhalte sind es wert, auch in anderen Formaten Menschen zu inspirieren.
Was kann ich wirklich glauben?
Dabei kann KI in anderen Gebieten die Menschheit tatsächlich weiterbringen, etwa in der Erkennung von Tumoren oder beim Berechnen von Maßnahmen gegen den Klimawandel. Doch vor allem letzteres scheint eher ein Teufelskreis zu sein.
Denn während nur ein Bruchteil der KI-Rechenleistung zur Berechnung von Klimadaten und zur Kalkulation möglicher Veränderungen genutzt wird, verbrauchen die Rechenzentren enorme Mengen an Strom und Wasser- und treiben damit den Klimawandel nur noch weiter voran.
Wenn wir also KI als Werkzeug verstehen, dann müssen wir wohl alle erstmal lernen, damit umzugehen. Noch scheint KI für die breite Masse eher ein Spielzeug, ein stets verfügbarer und immer loyaler Ansprechpartner und gelegentlich auch eine kraftvolle Rechenmaschine zu sein.
Doch sowohl Entwicklung als auch die Forschung stehen noch am Anfang. Und so müssen wir uns heute umso mehr fragen: Was kann ich wirklich glauben?
Dr. Ines Eckermann
machte einen Doktor in Philosophie. Sie arbeitet als Journalistin, Illustratorin und Buchautorin. Als ausgebildete Yogalehrerin und Seelsorgerin gibt sie Entspannungs- und Yogakurse. www. satzzeichnerin.de
Online-Abende
rund um spannende ethische Themen
mit Referenten aus verschiedenen Disziplinen
Ca. 1 Mal pro Monat, kostenlos