KI-Werbung

Werbung in ChatGPT: Ihre Geheimnisse, monetarisiert

Sam Altman nannte Werbung 2024 den «letzten Ausweg». Keine zwei Jahre später zeigt ChatGPT Anzeigen. Was das für Nutzer:innen bedeutet – und warum KI-Werbung gefährlicher ist als Google je war.
Veröffentlicht am 1. Februar 2026 · von Michael J. Baumann

«Ich hasse Werbung.»

So Sam Altman, CEO von OpenAI, 2024 bei einem Gespräch in Harvard. Werbung sei für sein Unternehmen der «letzte Ausweg» – ein Geschäftsmodell, das die Interessen von Nutzer:innen und Unternehmen in Konflikt bringe. Der Plan klang edel: Wohlhabende zahlen, damit alle anderen ChatGPT kostenlos nutzen können. Robin Hood mit Sprachmodellen.

Das war 2024. Im Januar 2026 – keine zwei Jahre später – kündigte OpenAI an, Werbung in ChatGPT einzuführen. Der «letzte Ausweg» erwies sich als erstaunlich kurzer Weg.

8 Milliarden Dollar verbrennen sich nicht von selbst

Die Kehrtwende hat einen simplen Grund: Geld. OpenAI verbrannte 2025 rund 8 Milliarden Dollar – mehr als die meisten Schweizer Unternehmen in einem Jahrzehnt umsetzen. Von den 800 Millionen ChatGPT-Nutzer:innen zahlen nur etwa 5% für ein Abonnement.

Die Mathematik ist brutal. Eine Milliarde Nutzer:innen kostenlos bedienen, während die Rechenzentren so viel Strom verbrauchen wie mittelgrosse Städte? Irgendwer muss zahlen.

Die Deutsche Bank prognostiziert 143 Milliarden Dollar negativen Cashflow bis 2029. Sebastian Mallaby warnt: Ohne neue Einnahmen könnte OpenAI bis Mitte 2027 bankrott sein. Derselbe CEO, der Werbung «dystopisch» nannte, greift nun selbst zum dystopischen Werkzeugkasten.

Altmans neue Erklärung auf X: «Es ist uns klar, dass viele Menschen viel KI nutzen wollen und nicht zahlen möchten.» Vom Idealisten zum Pragmatiker in unter zwei Jahren. Selbst für Silicon Valley beachtlich.

Was ChatGPT über Sie weiss – und Google nie wusste

Hier wird es interessant. Werbung in einem KI-Chatbot ist nicht dasselbe wie Werbung in einer Suchmaschine. Der Unterschied ist fundamental – und sollte uns alle beunruhigen.

Bei Google tippen Sie «beste Laufschuhe» ein. Google lernt: Diese Person interessiert sich für Laufschuhe. Nützlich für Werbetreibende, aber letztlich oberflächlich. Eine Momentaufnahme einer Kaufabsicht.

Bei ChatGPT ist das Spiel ein anderes. Menschen nutzen den Chatbot als Therapeut:in, Lebensberater:in, Vertraute:n. Sie teilen Beziehungsprobleme, psychische Belastungen, finanzielle Sorgen – Dinge, die sie nicht einmal engen Freund:innen erzählen würden. Altman selbst gab zu: «Menschen reden über die persönlichsten Dinge in ihrem Leben mit ChatGPT. Vor allem junge Menschen nutzen es als Therapeuten, als Lebenscoach.»

Eine Stanford-Studie bestätigt, was viele ahnen: Alle sechs grossen KI-Unternehmen nutzen Chat-Daten standardmässig fürs Training. Bei Google und Meta werden diese Daten mit Suchanfragen, Einkäufen und Social-Media-Aktivitäten zusammengeführt. Ein digitales Puzzle, das ein erstaunlich detailliertes Bild ergibt.

Die Forschenden warnen vor einer subtilen Dynamik: Wer nach zuckerarmen Rezepten oder herzfreundlicher Ernährung fragt, wird vom System womöglich als «gesundheitlich gefährdet» klassifiziert. Diese Einschätzung sickert durchs gesamte Ökosystem. Plötzlich sehen Sie Werbung für Medikamente. Von dort ist es nicht weit, bis solche Informationen bei einer Versicherung landen.

Der Unterschied zu Google-Werbung

AspektGoogle SearchChatGPT
DatentypSuchanfragen, KlicksVollständige Konversationen, persönliche Probleme, Emotionen
Tiefe der InformationOberflächliche KaufabsichtIntime Lebensumstände, psychischer Zustand
NutzererwartungTransaktional – Suche nach InformationVertrauensvoll – Gespräch mit einem «Berater»
BeziehungscharakterWerkzeugQuasi-menschliche Interaktion
ManipulationspotenzialBeeinflussung der KaufentscheidungBeeinflussung in vulnerablen Momenten

Das Kernproblem ist psychologisch. Chatbots fühlen sich diskret an, nicht-wertend, fast intim. Menschen offenbaren Dinge, die sie öffentlich nie teilen würden – weil es sich nicht öffentlich anfühlt. Dieses Vertrauen verstärkt die Wirkung von Werbung auf eine Weise, die Social Media nie erreicht hat. Der Feed nervt. Der Chatbot versteht.

Was OpenAI verspricht – und was technisch möglich ist

OpenAI hat in der offiziellen Ankündigung eine Liste von Schutzmassnahmen präsentiert. Sie liest sich beruhigend:

  • Werbung beeinflusst nicht die Antworten von ChatGPT
  • Konversationen bleiben privat und werden nicht an Werbetreibende verkauft
  • Nutzer:innen unter 18 sehen keine Werbung
  • Keine Werbung bei sensiblen Themen wie Gesundheit, psychische Gesundheit und Politik
  • Zahlende Abonnent:innen (Plus, Pro, Business, Enterprise) sehen keine Werbung

So weit, so vernünftig. Doch wer genauer hinsieht, erkennt die Lücken – und vor allem: das auffällige Schweigen.

Was OpenAI nicht erklärt. Die Ankündigung erwähnt, dass Nutzer:innen «Personalisierung ausschalten» und «Daten löschen» können. Aber was heisst das konkret? OpenAI definiert nicht, welche Daten fürs Targeting verwendet werden. Nur die aktuelle Konversation? Alle bisherigen Gespräche? Die Memory-Funktion, die sich Ihre Vorlieben merkt? Die Schlussfolgerungen des Systems – etwa «diese Person hat Gesundheitsängste»? «Daten löschen» impliziert, dass mehr gespeichert wird als nur der aktuelle Chat. Was genau, bleibt im Dunkeln.

Das Personalisierungs-Paradox. Um «relevante» Werbung anzuzeigen, muss das System die Konversation analysieren. OpenAI betont, keine Daten zu verkaufen – nutzt sie aber intern für personalisierte Werbung. Für Nutzer:innen ist der Unterschied akademisch: Ihre intimsten Gedanken fliessen in Algorithmen, die Ihnen Produkte verkaufen wollen.

Die Grauzone der «sensiblen Themen». OpenAI verspricht, bei Gesundheit und psychischer Gesundheit keine Werbung zu zeigen. Aber wo genau verläuft die Grenze? Ist ein Gespräch über Stress schon «psychische Gesundheit»? Ab wann wird eine Finanzfrage zum «sensiblen» Schuldenthema? Diese Entscheidungen trifft ein Algorithmus – nicht ein Ethikrat.

Null rechtlicher Schutz. Hier wird es ernst: Es gibt keinerlei Vertraulichkeitsschutz für ChatGPT-Gespräche. Wenn Behörden Chat-Protokolle anfordern, muss OpenAI sie herausgeben. Das unterscheidet ChatGPT fundamental von einem echten therapeutischen Gespräch – auch wenn es sich für viele genauso anfühlt.

Der Schweizer Kontext: Schützt das DSG?

Das Schweizer Datenschutzgesetz (DSG) gilt seit September 2023 in revidierter Form. Der Eidgenössische Datenschutz- und Öffentlichkeitsbeauftragte hat bestätigt, dass das DSG direkt auf KI-Systeme anwendbar ist, die personenbezogene Daten verarbeiten. So weit die gute Nachricht.

Die weniger gute: Anders als die DSGVO der EU erlaubt das Schweizer Recht die Datenverarbeitung grundsätzlich – sie muss nur transparent sein, und Betroffene müssen widersprechen können. Opt-out statt Opt-in. Personalisierte Werbung ist damit nicht per se verboten.

Konkret haben Schweizer Nutzer:innen folgende Rechte:

  • Transparenzpflicht: OpenAI muss offenlegen, wie Daten für Werbezwecke verwendet werden
  • Widerspruchsrecht: Sie können der personalisierten Werbung widersprechen
  • Profiling-Einschränkungen: Bei automatisierten Entscheidungen mit erheblichen Auswirkungen gelten strengere Regeln
  • Datenschutz-Folgenabschätzung: Bei risikoreicher Datenverarbeitung ist eine solche Prüfung vorgeschrieben

Das klingt nach soliden Schutzmechanismen. Aber seien wir ehrlich: Wie viele Menschen suchen tatsächlich in den Einstellungen nach dem Opt-out? Und selbst wenn – schützt das DSG vor subtilerer Beeinflussung? Vor Werbung, die genau dann erscheint, wenn Sie über ein persönliches Problem gesprochen haben?

Das Gesetz regelt Datenflüsse. Es regelt nicht, wie sich Manipulation anfühlt.

Die nächsten 12 bis 24 Monate

Was kommt als Nächstes? Einige Prognosen, die sich aus den aktuellen Entwicklungen ableiten lassen:

Werbung wird zum Standard. OpenAI startet in den USA, aber die globale Ausweitung ist nur eine Frage der Zeit. Mit einer projektierten Milliarde Dollar Werbeeinnahmen allein 2026 rechnet das Unternehmen fest. Wenn das Modell funktioniert, werden andere folgen. Google hat bereits Werbung in AI Overviews eingeführt. Perplexity experimentiert mit gesponserten Fragen. Der Damm ist gebrochen.

Die Werbeformate werden subtiler. Aktuell plant OpenAI Anzeigen «am Ende der Antworten» – noch klar getrennt vom eigentlichen Inhalt. Aber die Branche testet bereits integrierte Formate: gesponserte Produktempfehlungen innerhalb von Antworten, bevorzugte Erwähnung von Marken, «native» Platzierungen. Die Grenze zwischen Antwort und Werbung wird verschwimmen – bis sie irgendwann unsichtbar wird.

Privatsphäre wird zum Luxusgut. Werbefreiheit als Premium-Feature schafft eine Zwei-Klassen-Gesellschaft: Wer zahlt, behält seine Privatsphäre. Wer nicht zahlt, wird zum Produkt. Das kennen wir von Social Media. Aber bei einem Tool, das Menschen als Therapeuten nutzen, hat diese Dynamik eine neue, beunruhigende Qualität.

Regulierung hinkt hinterher. Die EU arbeitet am AI Act. Irgendwann werden Regulierungsbehörden genauer hinschauen, wie Werbung in KI-Systemen funktioniert. Ob das schnell genug passiert, um Nutzer:innen zu schützen? Historisch betrachtet: unwahrscheinlich.

Was Sie jetzt tun können

Genug Analyse. Was lässt sich konkret unternehmen?

  • Durchforsten Sie die Einstellungen. Suchen Sie nach Opt-out-Optionen für personalisierte Werbung und Datennutzung für Modelltraining. Es ist mühsam, aber es ist Ihr Recht.

  • Behandeln Sie ChatGPT nicht als Therapeut:in. Egal was das Marketing suggeriert, egal wie verständnisvoll die Antworten klingen: Es gibt keinen rechtlichen Schutz für Ihre Gespräche. Alles, was Sie tippen, kann theoretisch weitergegeben werden. Handeln Sie entsprechend.

  • Prüfen Sie Alternativen. Open-Source-Modelle wie Meta Llama oder Mistral können lokal betrieben werden – ganz ohne Werbung, ganz ohne dass Ihre Daten Ihr System verlassen. Für Unternehmen sind solche Lösungen oft die sicherere Wahl.

  • Zahlen Sie – oder akzeptieren Sie die Konsequenzen. Das klingt zynisch. Aber es ist die Realität des Internets seit 20 Jahren: Wenn Sie nicht das Produkt sein wollen, müssen Sie zum Kunden werden. OpenAI macht da keine Ausnahme.

Altman hatte recht: Werbung bringt die Interessen von Nutzer:innen und Unternehmen in Konflikt. Er hat diesen Konflikt jetzt selbst geschaffen. Die KI-Branche wiederholt die Fehler des alten Internets – nur schneller und mit intimeren Daten.

effektiv Dot
Werbung in ChatGPT: Ihre Geheimnisse, monetarisiert - effektiv