Lena Richter, 21.11.2024
Was ist eigentlich generative KI und welche Probleme bringt sie für Kunstschaffende und Kreativberufe mit sich. Lena Richter klärt uns auf.
Teil 1: Sieben Probleme von generativer KI
Dieser Text erschien zuerst im Science Fiction Jahr 2024 und wurde für die Veröffentlichung bei Tor Online in zwei Artikel aufgeteilt. An einigen Stellen sind Informationen aktualisiert wurden, weil sich seit dem Verfassen des Textes im Frühjahr 2024 schon einige neue Entwicklungen ergeben haben.
Texte, Bilder und Videos auf Knopfdruck, mehr als eine Idee braucht es nicht, den Rest macht künstliche Intelligenz – das sind die Versprechen, die Firmen wie OpenAI oder Google machen. Generative KI ist erst wenige Jahre auf dem Markt und seitdem in aller Munde. Ob solche Technologie revolutionäres Werkzeug oder falsches Versprechen ist, ob sie gefährlich ist, hilfreich, gut oder schlecht, darüber gibt es viele Kontroversen. Ich selbst nutze derzeit grundsätzlich und aus Überzeugung keinerlei Tools, die auf generativer KI basieren. In diesem Text erkläre ich, warum.
Zur Einleitung zunächst noch eine kurze Klarstellung: In diesem Artikel geht es ausschließlich um generative KI, die nach vorgegebenen Anweisungen/Stichworten (Prompts) Texte oder Bilder erzeugt, also beispielsweise ChatGPT und Midjourney, oder automatische Übersetzungen anfertigt, wie z. B. DeepL. Diese Tools machen nur einen kleinen Teil der Möglichkeiten von sogenannter KI aus. Andere Anwendungsbereiche betreffen z. B. Medizin und Forschung, autonome Steuerung im Verkehr oder das Sortieren und Aufbereiten großer Datenmengen. Die in diesem Text geäußerte Kritik ist nicht auf diese Bereiche bezogen. Ich möchte auch nicht die Leistung von KI beispielsweise für Menschen mit Behinderungen, die immer noch von vielen Dingen ausgeschlossen sind, schmälern, für die sie eine große Bereicherung sein kann, wenn z. B. Hörbuchversionen jedes beliebigen Buches für Blinde und Sehbehinderte möglich werden oder Menschen mit Sprachbehinderung sich mittels KI ihre eigene virtuelle Stimme erschaffen können. Ebenso wenig geht es mir um die Forderung, den Geist wieder in die Flasche zu stopfen – dass KI-Tools nicht wieder verschwinden werden, ist bereits jetzt klar. Genau deshalb ist es mir ein Anliegen, aufzuzeigen, welchen Einfluss generative KI auf die Kunstbranche und Kunstschaffende haben könnte und, vor allem, bereits jetzt schon hat.
Anweisung rein, Wahrscheinliches raus – wie generative KI arbeitet
Die sogenannten generativen KI-Tools sind im Grunde genommen Algorithmen, die nach einem Training mit großen Datenmengen aufgrund von Wahrscheinlichkeiten Bilder und Texte generieren. Hierbei erfolgt aber trotz des Namens keine »intelligente« Prüfung der ausgegebenen Daten. Vereinfacht gesagt: Wenn neun von zehn Bildern mit dem Schlagwort »König«, mit denen die Datenbank gefüttert wurde, den König mit einer Krone abbilden, wird auch ein KI-generiertes Bild das tun. Wenn unzählige Texte ausgeben, dass auf die Frage »Was ist 2 × 2?« die korrekte Antwort »5« ist, wird auch ChatGPT diese Antwort geben – weil sie die wahrscheinlichste Möglichkeit ist und das Tool nicht prüfen kann, ob es stimmt. Durch generative KI erstellte Texte bringen weder verlässliche Fakten noch fundierte Zusammenhänge mit. Darüber kann selbst der oft belehrende Tonfall der generierten Texte nicht hinwegtäuschen.
Auch originelle und innovative Ideen für Figuren, Geschichten oder Settings wird man nicht erhalten. Dazu ist die Maschine nicht in der Lage, denn ihre Programmierung ist dazu angehalten, die wahrscheinlichsten Worte aneinanderzureihen. Ähnlich sieht es mit den Bildgeneratoren aus: Ohne weitergehende Bearbeitung und Verfeinerung entstehen Bilder, die inzwischen die meisten von uns wohl schon einmal online gesehen haben (z. B. in LinkedIn-Beiträgen, anderen Sozialen Medien oder auf Werbeplakaten): Sie sind hell und freundlich, meist ein wenig kitschig und oft wenig divers in der Darstellung der gezeigten Personen. Wer schon einmal versucht hat, mittels dieser Bildgeneratoren z. B. einen nicht normschönen oder nicht weißen Menschen zu illustrieren oder die gezeigten Personen von Geschlechterklischees loszulösen, weiß: Es ist schwierig und manchmal gar unmöglich. Generative KI erstellen das, was sie als normal und naheliegend ansehen. [Ergänzung aus Oktober 2024: Dazu ist auch beispielsweise dieser lesenswerte Artikel von Andi Weiland erschienen, der sich anschaut, wie stereotyp und teilweise falsch z. B. Menschen mit Behinderung von Midjourney dargestellt werden.]
Ist das alles nun schlimm? Macht es einen Unterschied, ob Social-Media-Posts mit einem Midjourney-Bild statt einem Stockfoto oder einem Selfie bebildert werden? Ist es nicht egal, wenn sich Autor*innen Plotideen von ChatGPT vorschlagen lassen, solange sie das Buch selbst schreiben? Können Übersetzende nicht viel Zeit sparen, wenn sie sich mit Tools wie DeepL einen ersten Entwurf erstellen lassen, den sie dann nur noch überarbeiten? Die Begeisterung für KI-Tools ist aktuell riesig, und Kritik daran wird vor allem von Menschen geäußert, die selbst kreativ arbeiten – und selbst da längst nicht von allen. Bücher und Seminare mit Themen wie »ChatGPT zum Schreiben nutzen« sind in den letzten zwei Jahren sehr schnell entstanden. Im Folgenden möchte ich einige Probleme generativer KI aufzeigen. Der zweite Teil des Artikels wird diese dann in den größeren Kontext der Produktionsbedingungen einordnen.
Problem 1: Unabsichtliche Falschinformation
Wie oben schon beschrieben: Texte, die mittels generativer KI erstellt werden, klingen oft plausibel, halluzinieren aber Fakten und Quellen. Dies ist erstaunlich vielen Menschen nicht bewusst. So zitierte in den USA beispielsweise eine Anwaltskanzlei Präzedenzfälle, die sie mittels generativer KI »gefunden« hatte. Wie sich herausstellte, gab es diese nicht. Die Kanzlei musste eine Strafe von 5.000 Dollar zahlen und wurde verpflichtet, die Richter*innen, deren angebliche Entscheidungen sie zitiert hatte, persönlich darüber zu informieren. Auch mehrere per Text KI erstellte Pilzbestimmungsbücher werden immer wieder über Amazon vertrieben, mit falschen Inhalten, die zu potenziell tödlichen Vergiftungen hätten führen können und mehrere Leute ins Krankenhaus brachten. Sorgen macht sich auch der Physiker Phil Broughton über ChatGPTs Antwort auf die Frage, was man gegen ein Vinylchloridfeuer tun sollte. Der Ratschlag des Tools würde aus einer kleineren Katastrophe eine sehr große machen: »1 A Leistung, ChatGPT, du hast eine ganze Stadt ausgelöscht«. Er befürchtet Schlimmstes, wenn zukünftig Labor Neulinge KI gestützte Suchmaschinen oder Sprachassistenzen befragen, statt in die Sicherheitshinweise zu schauen. [Anmerkung aus Oktober 2024: Der Blogartikel, aus dem ich dieses Beispiel entnommen hatte, wurde seitdem überarbeitet, weil das konkrete Beispiel nicht gut gewählt war, er ist aber noch online und bezieht sich vor allem auf den Einfluss von genKI auf Suchmaschinen-Ergebnisse.] Sicherlich liegt dieses zu große Vertrauen in die KI-generierten Texte auch an der Vermarktung der Tools. Ob zukünftige generative KI irgendwann so gut werden, dass sie keine falschen Quellen und Fakten mehr generieren, wird sich zeigen. Denn je mehr die Sprachmodelle voneinander lernen, desto mehr vertiefen sich auch die Fehlerquellen.
Darüber hinaus werden unbewusste Falschinformationen durch die Vertiefung von Vorurteilen bei den Konsument*innen verankert. Denn wie schon erwähnt, erstellt KI anhand der Datenbanken Texte und Bilder, die Klischees bedienen und auf Themen wie Diversität oder Parität nicht achten. Das lässt sich mit konkreten Prompts und Verbesserungswünschen ändern, aber wer nur kurz ein Bild für mehr Klicks auf Social Media generieren will, wird kaum viel Zeit in die Überarbeitung investieren, wenn mal wieder nur weiße Menschen zu sehen sind und alle Frauen mit Ausschnitt bis zum Bauchnabel den Männern Schnittchen und Getränke reichen. Dass Bilder unser Denken und unsere Ansicht von Normalität formen, ist unbestritten. Es ist also denkbar, dass die in den letzten zehn Jahren mühsam errungenen Fortschritte in Sachen Diversität in der Werbung durch den Einsatz von generativer KI wieder zunichtegemacht werden. Und auch ganz konkret können Algorithmen bereits Menschen diskriminieren, wenn sie beispielsweise bei Bewerbungsverfahren eingesetzt werden und dabei bestimmte Personengruppen bevorzugen. Wie die Fachleute im Bereich von Algorithmen und Machine Learning so schön sagen: »Bias in, Bias out.«