Eine Illustration im Stil der Neuen Sachlichkeit/Bauhaus zeigt eine präzise, geometrische KI-Maschine mit Zahnrädern und Schaltkreisen. Von oben wird ein chaotischer Strom aus verzerrten, fragmentierten Linien und unklaren Formen in gedeckten Farben in die Maschine geleitet. Unten gibt die Maschine einen perfekt geformten, aber leer und hohl wirkenden goldenen Würfel aus, der auf einem weißen Podest steht. Der Hintergrund ist minimalistisch und steril, beleuchtet von einem scharfen Lichtkegel. Das Bild symbolisiert das "Garbage In, Garbage Out"-Prinzip in der KI-Mediaplanung.

Bei einem Termin mit zwei Kollegen aus der Frankfurter Agenturszene ging es vor einigen Tagen ums Eingemachte, leider nicht um leckere Erdbeermarmelade, sondern um den «Schrott», mit dem eventuell KI-gestützte Mediaplanungstools gefüttert werden.

Künstliche Intelligenz soll uns retten. Sie soll unsere Budgets effizienter machen, unsere Kampagnen präziser, unsere Entscheidungen besser. Aber was passiert eigentlich, wenn wir einer KI beibringen, mit Zahlen zu arbeiten, die schon immer gelogen haben?

Das Datenproblem der Branche

Kommen wir mal zur Sache: Die Mediaplanung hat ein Transparenzproblem. Mediapläne bestehen in Teilen aus nicht immer nachvollziehbaren Bestandteilen, vor allem wenn es um programmatische Kampagnen geht. Da wird in Millisekunden auf Inventar geboten, dessen tatsächliche Qualität oft unklar bleibt. Dabei werden Viewability-Daten oft optimistisch interpretiert. Traffic-Quellen, bei denen niemand so genau wissen will, woher sie eigentlich kommen. Performance-Metriken, die mehr Hoffnung als harte Fakten abbilden.

Das war schon immer problematisch. Aber jetzt kommt die KI ins Spiel – und plötzlich wird aus einem lokalen Problem ein systemisches Desaster.

Denn eine KI ist nur so gut wie die Daten, mit denen sie gefüttert wird. Garbage in, garbage out – das Prinzip kennt jeder, der sich mal fünf Minuten mit Machine Learning beschäftigt hat. Wenn ich einer KI jahrelang intransparente Pläne zeige, lernt sie nicht, bessere Pläne zu machen. Sie lernt, die Intransparenz zu perfektionieren.

Ich gebe der KI einen Media-Plan, der auf unsauberen Daten basiert. Die KI erkennt Muster. Sie sieht: «Aha, so sieht ein erfolgreicher Plan aus.» Und beim nächsten Mal spuckt sie mir einen Plan aus, der genauso aussieht. Dabei hat er genauso wenig mit der Realität zu tun wie die Vorlage.

Programmatic als Turbo-Lader des Problems

Und jetzt wird es richtig absurd: Programmatic Advertising ist eigentlich dafür da, Kampagnen schnell und effizient zu skalieren. Aber es ist auch der perfekte Multiplikator für schlechte Daten.

Programmatic-Systeme treffen Entscheidungen in Millisekunden. Sie bieten auf Inventar, bewerten Traffic-Quellen, entscheiden über Platzierungen – alles basierend auf historischen Daten und Echtzeit-Signalen. Wenn diese historischen Daten über die tatsächliche Qualität des Inventars, über Ad Fraud oder echte Viewability ungenau oder geschönt sind, lernt die KI, automatisch auf minderwertiges Zeug zu bieten.

Vielen Dank für das Interesse an meiner Arbeit. Wenn Du diese unterstützen möchtest, dann erwerbe doch eines meiner Bücher.

Die KI interpretiert diese unsauberen Daten als effiziente Muster. Und dann skaliert sie diese Ineffizienz in einem Tempo, das kein Mensch mehr kontrollieren kann. Millionen von Geboten auf die falschen Platzierungen. Programmatic macht es der KI leicht, schlechte Planung in beispiellosem Tempo zu vervielfachen.

Wir haben aus einem menschlichen Problem ein maschinelles gemacht. Und dabei noch die Geschwindigkeit erhöht, mit der wir Quatsch produzieren.

Die Walled Gardens und ihr Datenschatz

Das Problem wird noch absurder, wenn wir uns anschauen, wo das Geld eigentlich landet. Mehr als die Hälfte aller Werbeausgaben fließt zu einer Handvoll Unternehmen: Google, Meta, Amazon. Die sogenannten Walled Gardens.

Diese Plattformen sitzen auf Bergen von Daten. Sie wissen, wer wann wo klickt, kauft, scrollt. Sie haben die Wahrheit. Nur teilen sie diese Wahrheit nicht mit uns. Was wir bekommen, sind aggregierte Metriken, gefilterte Insights, geschönte Performance-Berichte.

Die KI-Modelle dieser Plattformen haben Zugriff auf die echten Daten. Unsere externen KI-Systeme arbeiten mit dem, was übrig bleibt. Mit der halben Wahrheit. Mit Daten, die durch mehrere Interpretationsschichten gelaufen sind.

Das Ergebnis? Unsere KI lernt, die Performance-Muster dieser wenigen Plattformen zu optimieren. Sie kann keine echte, plattformübergreifende Wahrheit abbilden, weil sie diese Wahrheit nie zu sehen bekommt.

Und was macht die KI dann? Sie verstärkt die Illusion. Sie sagt uns: «Ja, investier noch mehr Geld in Google Ads, die Performance ist doch super!» Dabei hat sie nie gesehen, dass derselbe User die Anzeige schon dreimal bei Facebook und zweimal bei Instagram gesehen hat und mittlerweile vollkommen genervt ist.

Man könnte von Ad-Fatigue sprechen. Die KI kann sie nicht erkennen, weil die Walled Gardens ihre Daten nicht teilen. Also optimiert sie ins Leere. Effizienz auf dem Papier, Verschwendung in der Realität.

Die Reproduktion des Irrsinns

Es gibt noch einen Aspekt, der mich besonders stört: Bias. Voreingenommenheit. Diskriminierung.

Wenn die historischen Daten, mit denen wir die KI trainieren, bereits voreingenommen sind – und das sind sie, denn sie sind von Menschen gemacht –, dann reproduziert die KI diese Voreingenommenheit. Allerdings geschieht das jetzt automatisiert – in tausend Kampagnen gleichzeitig.

Wir bauen Maschinen, die unsere Fehler perfektionieren. Das ist kein Fortschritt. Das ist eine Industrialisierung des Irrsinns.

Was jetzt?

Ich will nicht sagen, dass KI in der Mediaplanung grundsätzlich eine schlechte Idee ist. Aber ich sage: Solange wir nicht bereit sind, ehrlich mit unseren Daten umzugehen, wird KI das Problem nicht lösen. Sie wird es nur beschleunigen.

Gute KI braucht gute Daten. Echte Daten. Keine geschönten Metriken, keine optimistischen Hochrechnungen, keine intransparenten Konstrukte.

Sie braucht Transparenz. Wir müssen wissen, woher die Daten kommen, wie sie erhoben wurden, welche Verzerrungen sie haben.

Sie braucht Unabhängigkeit. Wir können nicht ewig akzeptieren, dass die großen Plattformen die einzigen sind, die wissen, was wirklich passiert.

Und sie braucht Ehrlichkeit. Wir müssen aufhören, uns selbst zu belügen. Aufhören, Erfolge zu feiern, die keine sind. Aufhören, Effizienz zu behaupten, wo nur Abhängigkeit ist.

Die letzte Konsequenz: Der Ad-Fraud-Multiplikator

Die größte Gefahr liegt woanders: Eine KI, die mit schlechten Daten trainiert wurde, ist ein gefundenes Fressen für Kriminelle. Wenn ein Algorithmus lernt, auf irreführende Klickraten oder geschönte Viewability-Werte zu optimieren, leitet er Budgets direkt in die Taschen der Betrüger.

Die Profiteure dieses Systems sind nicht die Werbetreibenden. Auch nicht die Konsumenten. Es sind die Ad-Fraud-Spezialisten, deren Geschäftsmodelle perfekt auf die Intransparenz und die falsch trainierten Algorithmen abgestimmt sind. Sie wissen genau, welche Signale die KI für wertvoll hält. Und sie liefern diese Signale – in großem Stil.

Transparenz ist nicht nur eine ethische Frage. Sie ist die einzige wirksame Waffe gegen den organisierten Werbebetrug.

Eins weiß ich: Solange wir der KI nur Müll zum Lernen geben, wird sie uns auch nur Müll zurückgeben. Nur dass dieser Müll dann einen wissenschaftlichen Anstrich hat und in schönen Dashboards präsentiert wird.

Die Frage ist nicht, ob KI die Mediaplanung verändern wird. Die Frage ist, ob wir den Mut haben, zuerst uns selbst zu verändern.

(Visited 12 times, 2 visits today)

Vielen Dank, dass Du diesen Blogbeitrag gelesen hast. Wenn Du meine Arbeit unterstützen möchtest, dann kannst Du dies tun, indem Du eines meiner Bücher erwirbst. Du findest meine Bücher hier.