Science Fiction

Das Problemwort mit K - Auswirkungen generativer KI auf Buchmarkt und Kreativbranche

Coverausschnitt aus dem Science Fiction Jahr 2024: zeigt einen nicht näher definierbaren Planeten vom Weltraum aus in grauen farben. Links unten steht SF 24 in großen Buchstaben
© Hirnkost Verlag

Lena Richter, 21.11.2024

Was ist eigentlich generative KI und welche Probleme bringt sie für Kunstschaffende und Kreativberufe mit sich. Lena Richter klärt uns auf.

Teil 1: Sieben Probleme von generativer KI

Dieser Text erschien zuerst im Science Fiction Jahr 2024 und wurde für die Veröffentlichung bei Tor Online in zwei Artikel aufgeteilt. An einigen Stellen sind Informationen aktualisiert wurden, weil sich seit dem Verfassen des Textes im Frühjahr 2024 schon einige neue Entwicklungen ergeben haben.

Texte, Bilder und Videos auf Knopfdruck, mehr als eine Idee braucht es nicht, den Rest macht künstliche Intelligenz – das sind die Versprechen, die Firmen wie OpenAI oder Google machen. Generative KI ist erst wenige Jahre auf dem Markt und seitdem in aller Munde. Ob solche Technologie revolutionäres Werkzeug oder falsches Versprechen ist, ob sie gefährlich ist, hilfreich, gut oder schlecht, darüber gibt es viele Kontroversen. Ich selbst nutze derzeit grundsätzlich und aus Überzeugung keinerlei Tools, die auf generativer KI basieren. In diesem Text erkläre ich, warum.

Zur Einleitung zunächst noch eine kurze Klarstellung: In diesem Artikel geht es ausschließlich um generative KI, die nach vorgegebenen Anweisungen/Stichworten (Prompts) Texte oder Bilder erzeugt, also beispielsweise ChatGPT und Midjourney, oder automatische Übersetzungen anfertigt, wie z. B. DeepL. Diese Tools machen nur einen kleinen Teil der Möglichkeiten von sogenannter KI aus. Andere Anwendungsbereiche betreffen z. B. Medizin und Forschung, autonome Steuerung im Verkehr oder das Sortieren und Aufbereiten großer Datenmengen. Die in diesem Text geäußerte Kritik ist nicht auf diese Bereiche bezogen. Ich möchte auch nicht die Leistung von KI beispielsweise für Menschen mit Behinderungen, die immer noch von vielen Dingen ausgeschlossen sind, schmälern, für die sie eine große Bereicherung sein kann, wenn z. B. Hörbuchversionen jedes beliebigen Buches für Blinde und Sehbehinderte möglich werden oder Menschen mit Sprachbehinderung sich mittels KI ihre eigene virtuelle Stimme erschaffen können. Ebenso wenig geht es mir um die Forderung, den Geist wieder in die Flasche zu stopfen – dass KI-Tools nicht wieder verschwinden werden, ist bereits jetzt klar. Genau deshalb ist es mir ein Anliegen, aufzuzeigen, welchen Einfluss generative KI auf die Kunstbranche und Kunstschaffende haben könnte und, vor allem, bereits jetzt schon hat.

Anweisung rein, Wahrscheinliches raus – wie generative KI arbeitet

Die sogenannten generativen KI-Tools sind im Grunde genommen Algorithmen, die nach einem Training mit großen Datenmengen aufgrund von Wahrscheinlichkeiten Bilder und Texte generieren. Hierbei erfolgt aber trotz des Namens keine »intelligente« Prüfung der ausgegebenen Daten. Vereinfacht gesagt: Wenn neun von zehn Bildern mit dem Schlagwort »König«, mit denen die Datenbank gefüttert wurde, den König mit einer Krone abbilden, wird auch ein KI-generiertes Bild das tun. Wenn unzählige Texte ausgeben, dass auf die Frage »Was ist 2 × 2?« die korrekte Antwort »5« ist, wird auch ChatGPT diese Antwort geben – weil sie die wahrscheinlichste Möglichkeit ist und das Tool nicht prüfen kann, ob es stimmt. Durch generative KI erstellte Texte bringen weder verlässliche Fakten noch fundierte Zusammenhänge mit. Darüber kann selbst der oft belehrende Tonfall der generierten Texte nicht hinwegtäuschen.

Auch originelle und innovative Ideen für Figuren, Geschichten oder Settings wird man nicht erhalten. Dazu ist die Maschine nicht in der Lage, denn ihre Programmierung ist dazu angehalten, die wahrscheinlichsten Worte aneinanderzureihen. Ähnlich sieht es mit den Bildgeneratoren aus: Ohne weitergehende Bearbeitung und Verfeinerung entstehen Bilder, die inzwischen die meisten von uns wohl schon einmal online gesehen haben (z. B. in LinkedIn-Beiträgen, anderen Sozialen Medien oder auf Werbeplakaten): Sie sind hell und freundlich, meist ein wenig kitschig und oft wenig divers in der Darstellung der gezeigten Personen. Wer schon einmal versucht hat, mittels dieser Bildgeneratoren z. B. einen nicht normschönen oder nicht weißen Menschen zu illustrieren oder die gezeigten Personen von Geschlechterklischees loszulösen, weiß: Es ist schwierig und manchmal gar unmöglich. Generative KI erstellen das, was sie als normal und naheliegend ansehen. [Ergänzung aus Oktober 2024: Dazu ist auch beispielsweise dieser lesenswerte Artikel von Andi Weiland erschienen, der sich anschaut, wie stereotyp und teilweise falsch z. B. Menschen mit Behinderung von Midjourney dargestellt werden.]

Ist das alles nun schlimm? Macht es einen Unterschied, ob Social-Media-Posts mit einem Midjourney-Bild statt einem Stockfoto oder einem Selfie bebildert werden? Ist es nicht egal, wenn sich Autor*innen Plotideen von ChatGPT vorschlagen lassen, solange sie das Buch selbst schreiben? Können Übersetzende nicht viel Zeit sparen, wenn sie sich mit Tools wie DeepL einen ersten Entwurf erstellen lassen, den sie dann nur noch überarbeiten? Die Begeisterung für KI-Tools ist aktuell riesig, und Kritik daran wird vor allem von Menschen geäußert, die selbst kreativ arbeiten – und selbst da längst nicht von allen. Bücher und Seminare mit Themen wie »ChatGPT zum Schreiben nutzen« sind in den letzten zwei Jahren sehr schnell entstanden. Im Folgenden möchte ich einige Probleme generativer KI aufzeigen. Der zweite Teil des Artikels wird diese dann in den größeren Kontext der Produktionsbedingungen einordnen.

Problem 1: Unabsichtliche Falschinformation

Wie oben schon beschrieben: Texte, die mittels generativer KI erstellt werden, klingen oft plausibel, halluzinieren aber Fakten und Quellen. Dies ist erstaunlich vielen Menschen nicht bewusst. So zitierte in den USA beispielsweise eine Anwaltskanzlei Präzedenzfälle, die sie mittels generativer KI »gefunden« hatte. Wie sich herausstellte, gab es diese nicht. Die Kanzlei musste eine Strafe von 5.000 Dollar zahlen und wurde verpflichtet, die Richter*innen, deren angebliche Entscheidungen sie zitiert hatte, persönlich darüber zu informieren. Auch mehrere per Text KI erstellte Pilzbestimmungsbücher werden immer wieder über Amazon vertrieben, mit falschen Inhalten, die zu potenziell tödlichen Vergiftungen hätten führen können und mehrere Leute ins Krankenhaus brachten. Sorgen macht sich auch der Physiker Phil Broughton über ChatGPTs Antwort auf die Frage, was man gegen ein Vinylchloridfeuer tun sollte. Der Ratschlag des Tools würde aus einer kleineren Katastrophe eine sehr große machen: »1 A Leistung, ChatGPT, du hast eine ganze Stadt ausgelöscht«. Er befürchtet Schlimmstes, wenn zukünftig Labor Neulinge KI gestützte Suchmaschinen oder Sprachassistenzen befragen, statt in die Sicherheitshinweise zu schauen. [Anmerkung aus Oktober 2024: Der Blogartikel, aus dem ich dieses Beispiel entnommen hatte, wurde seitdem überarbeitet, weil das konkrete Beispiel nicht gut gewählt war, er ist aber noch online und bezieht sich vor allem auf den Einfluss von genKI auf Suchmaschinen-Ergebnisse.]  Sicherlich liegt dieses zu große Vertrauen in die KI-generierten Texte auch an der Vermarktung der Tools. Ob zukünftige generative KI irgendwann so gut werden, dass sie keine falschen Quellen und Fakten mehr generieren, wird sich zeigen. Denn je mehr die Sprachmodelle voneinander lernen, desto mehr vertiefen sich auch die Fehlerquellen.

Darüber hinaus werden unbewusste Falschinformationen durch die Vertiefung von Vorurteilen bei den Konsument*innen verankert. Denn wie schon erwähnt, erstellt KI anhand der Datenbanken Texte und Bilder, die Klischees bedienen und auf Themen wie Diversität oder Parität nicht achten. Das lässt sich mit konkreten Prompts und Verbesserungswünschen ändern, aber wer nur kurz ein Bild für mehr Klicks auf Social Media generieren will, wird kaum viel Zeit in die Überarbeitung investieren, wenn mal wieder nur weiße Menschen zu sehen sind und alle Frauen mit Ausschnitt bis zum Bauchnabel den Männern Schnittchen und Getränke reichen. Dass Bilder unser Denken und unsere Ansicht von Normalität formen, ist unbestritten. Es ist also denkbar, dass die in den letzten zehn Jahren mühsam errungenen Fortschritte in Sachen Diversität in der Werbung durch den Einsatz von generativer KI wieder zunichtegemacht werden. Und auch ganz konkret können Algorithmen bereits Menschen diskriminieren, wenn sie beispielsweise bei Bewerbungsverfahren eingesetzt werden und dabei bestimmte Personengruppen bevorzugen. Wie die Fachleute im Bereich von Algorithmen und Machine Learning so schön sagen: »Bias in, Bias out.«

Problem 2: Absichtliche Falschinformation

Generative KI ist ein gefundenes Fressen für alle, die Fehlinformationen verbreiten, Ängste schüren, Personen diskreditieren oder Menschen manipulieren wollen. Querdenker*innen benutzten Voice-KI, um eine falsche Tagesschau-Nachricht zu generieren, in der sich die (vermeintlichen) Nachrichtensprecher*innen für ihre Berichterstattungen der Vergangenheit entschuldigten. Deepfake-Videoprogramme, mit denen Politiker*innen und Prominenten jeder beliebige Inhalt in den Mund gelegt werden kann, sind inzwischen für alle verfügbar und leicht zu bedienen. Männer sind nicht mehr darauf angewiesen, von ihren Ex-Freundinnen jemals Nacktfotos oder Sexvideos erhalten zu haben, wenn sie diese aus Rache über die Trennung ins Internet stellen wollen – deepfake-generierter Revenge Porn ist schnell hergestellt. Bots, die z. B. Filme mit feministischen Inhalten noch vor Release auf Plattformen downvoten, können das jetzt gleich noch mit wortreichen Fake -Rezensionen tun. Vor einigen Monaten kursierte ein KI-generiertes Bild vom Parteitag der Grünen, mit dem die Illusion erzeugt werden sollte, die Parteimitglieder hätten das vegane Catering verschmäht, Pizzabestellt und einen Berg Papiermüll hinterlassen. Als klar war, dass das Bild ein Fake ist, ruderten zwar einige Personen in den sozialen Medien wieder zurück, betonten aber, dass es vermutlich trotzdem »so ähnlich ausgesehen habe«. Denn das Problem an Falschinformationen ist, dass sie so schwer wieder aus den Köpfen zu kriegen sind. Und selbst wohlmeinende Aktivist*innen bedienen sich KI-Technologie, wie das »Zentrum für politische Schönheit«, das ein Deepfake-Video von Bundeskanzler Scholz verbreitete, indem er sich für ein AfD-Verbot aussprach. Meiner Meinung nach ist ein solches Video bedenklich, denn ich bin mir nicht sicher, wie viele Menschen die Medienkompetenz besitzen, es als Fälschung zu erkennen, wenn es sich weiter verbreitet und vielleicht nicht mehr, wie von den Urhebenden intendiert, als Fake gekennzeichnet ist. Ich habe auch meine Zweifel, ob ein immer stärkeres Kursieren von gefälschten Bildern und Videos dazu führt, dass Fälschungen besser erkannt werden, oder nicht eher zu einem noch größeren Fortschreiten der »alternativen Fakten«, bei denen am Ende alle für sich entscheiden, ob etwas wahr oder falsch ist.

Problem 3: Energie- und Wasserverbrauch

Die große Rechenleistung, die generative KI benötigt, geht mit einem großen Energie- und Wasserverbrauch einher. Zwar ist generative KI nicht die einzige Technologie mit Online-Zugang, die viel Energie verbraucht: Das gilt auch für Streamingdienste, Messenger, Soziale Medien usw. und ist ein Grund mehr, auf erneuerbare Energien zu drängen. Dennoch ist der Umwelt-Aspekt einer, der gerne unter den Tisch fällt und den ich hier deshalb mit aufgreifen will. Das Thema scheint bei der privaten Nutzung von KI-Tools auf Computer und Smartphone weit weg, doch durch die hohe Anzahl-an Berechnungen, die generative KI ausführt, sind dafür besonders leistungsfähige GPU-Chips notwendig, die umso besser funktionieren, je mehr von ihnen zusammengeschaltet werden. Dafür entstehen riesige Data Center mit immensem Energieverbrauch. Etwas zwischen 9.000 und 11.000 diese Data Center gibt es aktuell, mehr werden gebaut. Die International Energy Agency prognostiziert deren Verbrauch im Jahr 2026 auf 1.000 Terrawatt, was in etwa dem jährlichen Stromverbrauch von Japan entspricht. Zudem müssen die Chips mit Trinkwasser gekühlt werden, da verunreinigtes Wasser sie beschädigen kann. Allein die Data Center von Google haben im Jahr 2022 zwanzig Milliarden Liter Frischwasser verbraucht. In Uruguay und Chile regen sich bereits Proteste gegen den Bau von Data Centern, die wichtige Trinkwasserreservoire zu Zweck der Kühlung anzapfen würden. In Anbetracht des fortschreitenden Klimawandels und der ohnehin schon gegenwärtigen Trinkwasserknappheit ist ein (derzeitig vorsichtig geschätzter) Wasserverbrauch von einem halben Liter Trinkwasser pro 10 bis 50 Nachfragen an ChatGPT eine Katastrophe.

Das Problem bei all dem: Wir wissen gar nicht, wie der Energieverbrauch genau aussieht, da die Betreiber*innen der Data Center und die großen Firmen wie Google, Microsoft usw., die sie nutzen, sich in Schweigen hüllen und sich schwer herausrechnen lässt, wie viel Rechenleistung KI in Abgrenzung zu z. B. der Shop-Oberfläche von Amazon, den Servern von Google Mail oder anderen Web-Anwendungen verbraucht. Eine transparente Angabe über den Energieverbrauch könnte in Zukunft rechtlich verpflichtend für die Anbieter von KI-Tools werden, ist derzeit im AI Act der EU aber noch eher schwammig formuliert.

Problem 4: Ausbeutung und Überwachung

Eine weitere Tatsache, die beim Thema generative KI gern ausgeblendet wird, ist die Ausbeutung von Arbeiter*innen. Denn Sprachmodelle bringen in ihrer Grundform erst einmal kein Verständnis dafür mit, dass manche Inhalte rechtswidrig oder problematisch sein können. Dies muss ihnen beigebracht werden, und das geschieht weit abseits des Silicon Valley, bei den schlecht bezahlten Arbeiter*innen im globalen Süden, z. B. bei Angestellten der Firma Sama. Deren Firmenzentrale steht zwar in Kalifornien, doch die Arbeiter*innen, die für etwa zwei Dollar die Stunde die Datensätze von ChatGPT auf sexuelle und gewalttätige Inhalte prüfen, leben und arbeiten in Kenia, Uganda und Indien. Wenn ChatGPT sich also weigert, gewaltverherrlichende oder rassistische Texte auszuspucken, dann wurden diese Parameter von prekär beschäftigten Click Workern justiert. Natürlich könnten milliardenschwere Konzerne wie Google, OpenAI und Microsoft es sich leisten, diese anständig zu bezahlen – tun dies aber nicht. Darüber hinaus spielt die psychische Belastung eine Rolle, wenn die Arbeiter*innen Datensätze von Bilddatenbanken auf Kinderpornografie oder Gewaltdarstellungen durchsehen und diese entfernen sollen.

Auch besser gestellte Beschäftigte können von KI -Tools betroffen sein, wenn diese beispielsweise Anrufe in Callcentern überwachen, E-Mails nach bestimmten verdächtigen Inhalten wie der Erwähnung von Gewerkschaften oder Betriebsräten durchsuchen oder die Leistung der Angestellten bewerten und so entscheiden, wer entlassen wird. Dies ist vor allem in Staaten ein Problem, in denen die Arbeitnehmenden wenig geschützt sind und wenig Rechte haben. Hier fallen der Entlastung von Manager*innen durch KI-Tools dann vor allem jene zum Opfer, die für bessere Arbeitnehmer*innenrechte eintreten oder aus verschiedensten Gründen vom vorgegebenen Idealbild der Angestellten abweichen.

Problem 5: Diebstahl urheberrechtlich geschützter Inhalte

»Es wäre unmöglich, die heute führenden KI-Modelle ohne urheberrechtlich geschütztes Material zu trainieren. Die Trainingsdaten auf gemeinfreie Bücher und Gemälde zu beschränken, die vor über einem Jahrhundert erschaffen wurden, würde vielleicht ein interessantes Experiment abgeben, aber kein KI-System erschaffen, das den Bedürfnissen der heutigen Bürger*innen gerecht wird.« Mit diesem Zitat gab Sam Altman, CEO von OpenAI, freigiebig zu, dass generative KI nur möglich ist, wenn das geistige Eigentum von Autor*innen und Künstler*innen zu Trainingszwecken gestohlen wird. In bester Move fast and break things-Manier landeten also unfassbare Mengen an urheberrechtlich geschützten Texten in den Datenbanken, aus denen sie nun nicht mehr zu entfernen sind. Dasselbe gilt auch für Bild-Datenbanken, die sich an allem bedient haben, was im Internet irgendwie aufzufinden war.

Technisch möglich wird dieser Diebstahl mit Datencrawlern, deren Nutzung durch § 44b Absatz 2 Urheberrechtsgesetz, geregelt ist: »Zulässig sind Vervielfältigung von rechtmäßig zugänglichen Werken für Text und Data Mining. Die Vervielfältigungen sind zu löschen, wenn sie für das Text und Data Mining nicht mehr erforderlich sind.« Eigentlich ging es bei dieser Formulierung einmal um Crawler, die Websites mit Suchmaschinen auffindbar machen sollten. An Trainingsdaten für Sprachmodelle dachte damals noch niemand. Jetzt ziehen sich Firmen darauf zurück, dass die Nutzung auch in diesem Umfang ihrer Meinung nach legal sei. Zwar kann man, z. B. für die eigene Website, mühsam und für jeden Crawler einzeln, der Nutzung widersprechen (in der Hoffnung, dass sich diese daran halten), riskiert aber damit, von Suchmaschinen schlechter gefunden zu werden. Eine große Rolle beim Datendiebstahlspielen auch Plattformen, die gestohlene E-Books verbreiten. Auch die Kunstplattform Deviant Art, die jahrelang eine wichtige Plattform für Künstler*innen war, schloss einen Deal mit AI-Firmen und überließ stillschweigend alle Bilder dem maschinellen Lernen.

Ob und wie dieser Datenraub jemals in eine Entschädigung oder Vergütung der betroffenen Autor*innen und Künstler*innen münden wird, ist derzeit nicht absehbar, ebenso wenig wie der Umgang damit in der Zukunft. Es gibt Entwicklungen dahin, dass eine Verwendung von Inhalten vertraglich geregelt und exklusiv bestimmten KI-Firmen zugesprochen wird, wie durch den Springer-Konzern und die Jura-Plattform Beck Online geschehen. Aktuell ist nicht bekannt, ob die Autor*innen für diese Sondernutzung ihrer Texte eine Vergütung erhalten; dies wäre aber ein konkreter Punkt, an dem beispielsweise die VG-Wort oder auch die VG Bild Kunst ansetzen könnte. [Anmerkung aus Oktober 2024: Tatsächlich scheint die VG-Wort jetzt in diese Richtung zu streben und erweitert ihre Verträge um eine Nutzung von Texten für das Training von generativer KI, in einem sehr eingeschränkten Rahmen und nur für bestimmte Zwecke. Dazu lohnt sich das Statement von Nina George. Ebenfalls interessant ist zu diesem Thema eine im September 2024 erschienene Studie, in der ein Informatiker und ein Jurist gemeinsam untersucht haben, ob das Verwenden von Texten zum Training von KI durch den § 44b Absatz 2 Urheberrechtsgesetz mit abgedeckt ist. Sie kommen zu dem Ergebnis, dass dem nicht so ist und es sich somit um eine Urheberrechtsverletzung handelt.]

Das funktioniert natürlich nur unter der Voraussetzung, dass die entsprechenden Texte nicht sowieso schon in Datenbanken eingeflossen sind, nur weil man sie womöglich mit Google Docs verfasst und damit aufgrund unauffällig geänderter Nutzungsbedingungen dem Unternehmen dahinter zur Verfügung gestellt hat. Fest steht jedenfalls: Wer aktuell die großen generativen KI-Tools wie Midjourney oder ChatGPT benutzt, unterstützt damit Firmen und Methoden, die den vermutlich größten Diebstahl an geistigem Eigentum der Menschheitsgeschichte begangen haben.

Problem 6: Die KI-generierte Veröffentlichungsschwemme

Wie schon erklärt: Generative KI erzeugt nichts Originelles, sondern nur das Wahrscheinlichste, das aber in immens hohem Tempo. Es ist problemlos möglich, innerhalb weniger Stunden mehrere Geschichten oder einen längeren Text generieren zu lassen – ein großes Problem für die Buchbranche. So musste das englischsprachige CLARKESWORLD MAGAZINE, eines der renommiertesten Online-Science-Fiction-Magazine, zeitweilig das Portal für die Einsendungen schließen, weil es von einer solchen Masse an KI-generierten Texten geflutet wurde, dass es nicht mehr möglich war, die echten Texte herauszufiltern. Anderen Magazinen ging es ähnlich. Auch die E-Book-Publishing-Plattform von Amazon, Kindle Direct, wurde von solchen Titeln überschwemmt. Dabei machen die Ersteller*innen auch nicht Halt davor, ihre Texte unter den Namen echter Autor*innen einzustellen. So erging es z. B. Jane Friedman, Autorin von Schreibratgebern: Sie fand fünf unter ihrem Namen veröffentlichte Titel auf Amazon, die sie nie verfasst hat. Kara Swisher hingegen, eine Journalistin, fand unter ihrem neuesten Buch Burn Book eine Vielzahl von gefälschten Biografien ihrer selbst vor. Es ist für die Autor*innen oftmals sehr mühsam, diese Produkte entfernen zu lassen, die meist auch automatisch auch auf der Rezensionsplattform Goodreads landen. Als angeblichen Schutz vor KI-Inhalten hat Amazon inzwischen eingestellt, dass man nur noch drei Bücher pro Tag auf die Plattform hochladen darf – eine Maßnahme, deren Wirksamkeit ich bezweifle.

Kreativschaffende leiden auch im Bereich von Unterstützungsplattformen wie Patreon oder KoFi unter der Konkurrenz generativer KI: Dort können Künstler*innen Unterstützung durch einmalige oder monatliche Spendenbeiträge erhalten. Im Gegenzug bekommen die Unterstützer*innen regelmäßig exklusive Inhalte wie Bilder, Texte, Videos, usw. Inzwischen konkurrieren die Künstler*innen, die sich meist ohnehin schon in einer prekären Lage befinden und sich so ein kleines zusätzliches Einkommen sichern wollen, mit Accounts, die entweder generell nur KI generierte Bilder veröffentlichen oder teilweise generative KI benutzen (z. B. für Karten oder Illustrationen) und dadurch einen viel höheren Output haben.

Problem 7: Wegfall von Brotjobs und Aufträgen

Ein Argument dafür, sich über generative KI nicht allzu viele Sorgen zu machen, ist jenes der Originalität. ChatGPT könne niemals einen Roman schreiben, der sprachlich und inhaltlich innovativ und gut genug ist, um z. B. für Buchpreise nominiert zu werden. Das stimmt natürlich. Aber das heißt nicht, dass man sich keine Sorgen machen sollte. Denn, wenn wir ehrlich sind: Wie viele Menschen lesen denn die Bücher, die für den Deutschen Buchpreis, den britischen Booker Price oder gar den Literaturnobelpreis nominiert sind? Lugt man mal rechts und links aus dem Strandkorb am Ostseestrand, erspäht man wohl seltener die literarische Perle als die Massenware aus der Kategorie »Unterhaltungsliteratur« – Krimis, Thriller, Liebesromane –, die eine gewisse Formelhaftigkeit auszeichnet. Gut möglich, dass generative KI das auch könnte. Nun stellt sich die Frage, was so schlimm dabei wäre, wenn Lesende sich über spezielle Plattformen in der Zukunft ihre Urlaubslektüre maßgenau zuschneiden ließen: Location am besten dort, wo sie sich selbst gerade befinden, die ermittelnde Figur soll ein bisschen in der Krise, aber nicht suchtkrank sein, ein Mord darf es schon sein, aber bitte keine gruseligen Details, und ja, gerne einen Nebenplot mit einer kleinen Romanze. Es wird vermutlich nicht der Untergang der Literaturszene sein, wenn solch formelhafte Bücher nicht mehr von Menschen geschrieben werden, oder? Vielleicht könnte ich dem sogar zustimmen, wäre da nicht das Problem: Und was ersetzt das Honorar, das bisher alle Beteiligten des Urlaubskrimis (Schreiben, Lektorat, Korrektorat, Buchsatz, Coverdesign) erhalten haben?

Da der überwiegende Großteil der Autor*innen nicht vom Schreiben allein leben kann, haben diese meist entweder einen Brotjob im Angestelltenverhältnis oder querfinanzieren das Schreiben mit anderen textbezogenen Freelance-Jobs wie Lektorat, Korrektorat, Übersetzungen, Coverdesign oder eben Schreibaufträgen für bspw. eher formelhafte Unterhaltungsromane. Illustrator*innen verdienen sich durch Zeichnungen und Grafiken für Flyer, Poster oder Websites, Logo Design oder Commissions, also Auftragsarbeiten, bei denen z. B. Portraits von Buch oder Rollenspielfiguren beauftragt werden, etwas dazu. Genau diese ergänzenden Aufträge sind derzeit durch generative KI bedroht.  Übersetzungen werden bereits jetzt mit DeepL oder anderen Tools erstellt, Texte für Websites und Blog mit Text-KIs generiert. Da die Qualität des Ergebnisses oft zu wünschen übriglässt, muss natürlich am Ende doch ein Mensch noch einmal nachbessern (und oft auch: sehr viel neu schreiben), wird dann aber oft mit einem sehr viel niedrigeren Lohn abgespeist, weil ja »nur noch korrigiert« werden soll. [Ergänzung aus Oktober 2024: Eindringlich schildert die Literaturübersetzerin Janine Malz in einem Gastartikel auf Netzpolitik die verschiedenen Probleme, die sich aus solchen Aufträgen ergeben.

Dasselbe gilt für die oft artverwandten Brotjobs der Kreativen, bspw. im journalistischen Bereich: Unzählige Websites, Online-Magazine und Zeitungen haben in den letzten Jahren Teile der Belegschaft entlassen, in Deutschland beispielsweise Springer, in den USA z. B. BuzzFeed, CNET und Insider. Auch die Sprachlern App Duolingo entließ 2023 10 Prozent ihrer freien Mitarbeitenden im Bereich der Übersetzungen. Ebenfalls betroffen sind Videobearbeitung und Vertonung: Ganze Hörbücher werden bereits unter Nutzung von KI-Stimmen generiert – auch das sind zuvor Einkommensquellen für Autor*innen oder auch Schauspieler*innen gewesen.

Generative KI bedroht also nicht die originellen, innovativen, sprachlich ausgefeilten Herzensprojekte von Autor*innen und Künstler*innen, sondern die Aufträge, mit denen diese Projekte querfinanziert werden. Dies kann dazu führen, dass sich die betroffenen Personen künftig andere Arbeit suchen, die keine Zeit und Energiemehr für kreatives Schaffen lässt.

Soweit also zu den Problemen, die ich in generativer KI aktuell wahrnehme. Im zweiten Teil geht es dann am 28. 11. um die aktuelle Rechtslage und eine Einordnung in die allgemeinen Produktionsbedingungen.

Lena Richter

Lena Richter ist Autorin, Lektorin und Übersetzerin mit Schwerpunkt Phantastik. Ihre Science-Fiction-Novelle „Dies ist mein letztes Lied“ erschien im Februar 2023 beim Verlag ohneohren. Außerdem veröffentlicht sie Kurzgeschichten, Essays und Artikel. Lena ist eine der Herausgeber*innen des Phantastik-Zines Queer*Welten und spricht gemeinsam mit Judith Vogt einmal im Monat im Genderswapped Podcast über Rollenspiel und Medien aus queerfeministischer Perspektive. Ihr findet sie auf ihrer Website lenarichter.com , auf Instagram unter @catrinity_ und auf BlueSky und Mastodon unter @catrinity

Unsere aktuellen Titel