Ölgemälde im Stil der Neuen Sachlichkeit: Eine Person sitzt vor einem leuchtenden Computerbildschirm in einem geometrisch konstruierten Raum. Harte Licht-Schatten-Kontraste, kühle Farbpalette in Stahl- und Grautönen, präzise Linienführung im Bauhaus-Stil.

Es gibt kaum eine Diskussion über KI im Schreibprozess, in der nicht früher oder später das Wort „Halluzination” fällt. Gemeint sind jene Momente, in denen ChatGPT, Claude oder andere Sprachmodelle mit absoluter Überzeugung Dinge behaupten, die schlicht nicht stimmen. Erfundene Studien zitieren. Straßennamen nennen, die es nicht gibt. Historische Ereignisse ins falsche Jahrhundert verlegen.

Die Angst ist real und berechtigt. Aber sie offenbart auch eine faszinierende Widersprüchlichkeit: Sind nicht alle guten Romane, alle packenden Geschichten, alle fesselnden Erzählungen im Grunde nichts anderes als kontrollierte Halluzinationen? Warum also diese Panik vor dem Phantasieren der Maschine, wenn das eigene Handwerk doch genau darin besteht?

Das Missverständnis liegt im Kontext

Der entscheidende Unterschied ist nicht die Halluzination selbst, sondern wann und warum sie geschieht.

Wenn ich als Autor einen Roman schreibe, ist die Erfindung das Produkt. Die halluzinierte Welt, die fiktiven Charaktere, die imaginären Ereignisse – das ist genau das, wofür der Leser bezahlt. Die Fiktion ist transparent als Fiktion markiert. Der Leser weiß, dass Frankfurt in meinem Roman nicht das reale Frankfurt sein muss, dass meine Protagonistin Hanna nicht existiert, dass die Gespräche in Bahnhofsbistros nie so stattgefunden haben.

Wenn ich aber dieselbe KI als Werkzeug nutze – für Recherche, für Faktencheck, für historische Details, für die korrekte Beschreibung eines Ortes – dann erwarte ich keine Halluzination mehr. Dann brauche ich verlässliche Information. Und hier liegt das Problem: Die KI unterscheidet nicht zwischen diesen beiden Modi.

Sie halluziniert mit derselben Selbstsicherheit, egal ob ich sie bitte, eine kreative Szene weiterzuspinnen oder ob ich sie nach der Adresse des Frankfurter Literaturhauses frage. Sie hat keinen inneren Schalter, der zwischen “Jetzt erfinde ich” und “Jetzt gebe ich Fakten wieder” umspringt.

Der blinde Fleck der Maschine

Das ist der fundamentale Unterschied zum menschlichen Autor: Ich weiß, wann ich erfinde. Ich spüre den Moment, in dem ich von Recherche zu Imagination wechsle. Ich kann zwischen “Das steht so in der Quelle” und “Das könnte so gewesen sein” unterscheiden.

Die KI kann das nicht. Oder präziser: Sie tut so, als könnte sie es nicht. Denn technisch gesehen „weiß” sie natürlich nichts, sie generiert nur statistisch wahrscheinliche Wortketten. Aber die Art, wie sie ihre Antworten formuliert – mit Bestimmtheit, mit Details, mit innerer Logik – suggeriert Wissen, wo keines ist.

Ich habe das mal den „Sofortirrtum” genannt – diese fatale Kombination aus blitzschneller Antwort und kompletter Fehlinformation, serviert mit der Scheinsicherheit eines Investmentbankers. Die KI liefert nicht nur schnell, sie liefert mit einer Überzeugungskraft, die uns Menschen dazu verleitet, die Prüfung zu überspringen.

Konkrete Gefahren für Autoren

Stellen wir uns vor, ich arbeite an meinem Roman über einen trauernden Geschäftsmann mit der BahnCard 100, der durch Deutschland reist. Ich frage die KI: “Welche Weingüter gibt es in Bahnhofsnähe von Mainz?” Die KI liefert mir eine plausible Liste mit Namen, Adressen, sogar Öffnungszeiten. Klingt perfekt recherchiert.

Das Problem: Die Hälfte davon existiert nicht. Die andere Hälfte liegt nicht in Bahnhofsnähe. Aber die Namen klingen authentisch, die Details stimmen in sich. Wenn ich das ungeprüft in meinen Roman einbaue und ein Leser aus Mainz das Buch liest, bricht die Glaubwürdigkeit sofort zusammen. Die gewollte Halluzination (meine Geschichte) wird durch die ungewollte Halluzination (die falschen Fakten) zerstört.

Oder nehmen wir historische Details. Ich schreibe eine Szene, die in den 1990ern spielt. Die KI schlägt mir Alltagsdetails vor – welche Handys damals üblich waren, welche Musik lief, welche politischen Debatten die Zeitungen füllten. Manches stimmt. Manches ist um Jahre verschoben. Manches ist komplett erfunden. Aber alles klingt gleich plausibel.

Nicht alle Halluzinationen sind gleich

Hier offenbart sich die Komplexität: Es gibt verschiedene Ebenen von Fakten in einem Roman.

Harte Fakten: Geografische Gegebenheiten, historische Daten, existierende Institutionen. Hier ist Fehlinformation fatal.

Weiche Fakten: Atmosphäre, typische Verhaltensweisen, kulturelle Codes. Hier kann man sich Freiheiten nehmen, solange die emotionale Wahrheit stimmt.

Fiktion: Die eigentliche Geschichte, die Charaktere, die Dialoge. Hier ist Halluzination erwünscht, ja notwendig.

Die KI behandelt alle drei Ebenen gleich. Sie halluziniert die Postleitzahl von München mit derselben Kreativität wie den Dialog zwischen zwei fiktiven Figuren.

Die Lösung liegt im Bewusstsein

Bedeutet das, Autoren sollten KI meiden? Nein. Es bedeutet, sie bewusst einzusetzen.

Nutze KI für:

  • Brainstorming und Ideenentwicklung
  • Strukturierung von Gedanken
  • Variationen von Szenen oder Dialogen
  • Stilistische Experimente
  • Erste Entwürfe, die ohnehin überarbeitet werden

Vertraue KI nicht für:

  • Faktenchecks ohne Gegenprüfung
  • Historische oder geografische Details
  • Zitate oder Quellenangaben
  • Fachliche Präzision in Spezialgebieten

Der Trick ist, die KI als das zu behandeln, was sie ist: Ein brillanter, aber unzuverlässiger Mitarbeiter. Einer, der fantastische Ideen hat, aber dessen Behauptungen man immer verifizieren muss.

Eine alte Debatte in neuem Gewand

Interessanterweise ist das Problem nicht neu. Auch vor KI gab es Romane mit Recherchefehlern. Autoren, die Städte beschrieben haben, in denen sie nie waren. Historische Romane mit anachronistischen Details. Der Unterschied: Früher wussten wir, dass wir selbst die Quelle des Fehlers waren. Wir hatten schlecht recherchiert oder uns Freiheiten genommen.

Mit KI delegieren wir einen Teil dieser Verantwortung an eine Maschine, die weder Verantwortung übernehmen kann noch versteht, was von ihr erwartet wird. Das schafft eine neue Qualität der Unsicherheit.

Fazit: Die Halluzination ist nicht das Problem

Die Angst der Autoren vor KI-Halluzinationen ist berechtigt, aber sie zielt auf das falsche Ziel. Das Problem ist nicht, dass KI halluziniert – das tun wir Autoren die ganze Zeit, und genau darin liegt unsere Kunst. Das Problem ist, dass KI nicht zwischen gewollter und ungewollter Halluzination unterscheidet.

Die Lösung liegt nicht in der Vermeidung von KI, sondern in einem souveränen Umgang damit. In der Fähigkeit zu erkennen, wann die Maschine kreativ sein soll und wann sie verlässlich sein müsste – und im Wissen, dass sie den Unterschied nicht kennt.

Letztlich bleibt es die Aufgabe des Autors, zu entscheiden, was Fiktion und was Fakt ist. KI kann dabei helfen, beide zu erzeugen. Aber die Verantwortung für die Unterscheidung bleibt bei uns.

Und vielleicht ist das auch gut so. Denn genau diese Unterscheidung zu treffen, genau zu wissen, wann man erfindet und wann man sich an die Realität hält – das ist ein wesentlicher Teil des literarischen Handwerks.

Was sind deine Erfahrungen mit KI im Schreibprozess? Wo hat sie dich überrascht – im Positiven wie im Negativen?

(Visited 7 times, 7 visits today)