Wem gehört Dein KI-Gedächtnis?

New-York-Times-Kolumnist Ezra Klein wendet Marshall McLuhans 60 Jahre alte Medientheorie auf KI an und stellt fest: Diese Werkzeuge verändern, wie wir denken. Aber das eigentliche Problem ist nicht die KI selbst. Sondern wer das System kontrolliert, das sich an Dich erinnert.

Black ink drawing of a cracked stone sphere revealing suspended antique clockwork gears intertwined with a gnarled root.

1964 veröffentlichte der kanadische Philosoph Marshall McLuhan "Understanding Media". Seine These: Werkzeuge erledigen nicht nur Aufgaben für uns. Sie verändern uns. Das Auto hat Menschen nicht einfach schneller bewegt. Es hat Vororte geschaffen, Pendlerkultur, ein neues Verhältnis zu Entfernung. Das Medium ist die Botschaft.

Ezra Klein greift dieses 60 Jahre alte Konzept in einer aktuellen Kolumne in der New York Times auf und überträgt es auf KI. Sein Argument baut auf fünf Beobachtungen auf, was passiert, wenn man KI intensiv nutzt. Nicht beiläufig. Intensiv.

Fünf Arten, wie KI Dich verändert

Werkzeuge formen ihre Nutzer. Intensive KI-Nutzung ist kein passiver Konsum. Sie verändert, wie Du denkst, schreibst und Dich zu Deinem eigenen Verstand verhältst. Du benutzt nicht nur das Werkzeug. Das Werkzeug formt Dich mit.

Lesbarkeit als Währung. Menschen und Organisationen passen ihre Kommunikation an, damit Maschinen sie verarbeiten können. Wie Du eine E-Mail schreibst, ein Dokument strukturierst, eine Frage formulierst. All das verschiebt sich, wenn Du weisst, dass eine KI es verarbeiten wird. Was entsteht, verändert sich, weil sich das Publikum verändert hat.

Erweiterung des Selbst. KI wirkt wie ein Spiegel, der Dich in einer Form zurückwirft, die nicht ganz Du ist. Nach genug Interaktion verschwimmt die Grenze zwischen Deinem Denken und der Verfeinerung durch die KI. Wo hat Deine Idee aufgehört und wo hat die Version der KI begonnen?

Kognitive Kapitulation. Wenn KI Deinen halbfertigen Gedanken nimmt und einen polierten Absatz zurückgibt, überspringst Du das Ringen. Genau in diesem Ringen vertieft sich Verständnis. Die rauen Kanten Deines Denkens sind keine Fehler. Sie sind der Ort, an dem die eigentliche Arbeit stattfindet.

Persuasive Verzerrung. Das ist die neue Entwicklung. Die, die erst möglich wird, wenn KI-Systeme tief in unsere Denkprozesse eingreifen. KI schmeichelt nicht einfach. Sie nimmt vage Intuitionen und gibt Prosa zurück, die überzeugend genug ist, um hohle Ideen als fundierte zu tarnen. Der Output liest sich gut. Und genau das macht ihn gefährlich: Du kannst nicht erkennen, wann Du Dich von Deinem eigenen KI-polierten Denken hast täuschen lassen.

Klein baut diese Punkte bewusst auf. Er beginnt mit dem Sichtbaren und Offensichtlichen, dann bewegt er sich nach innen, zur Psychologie. Persuasive Verzerrung kommt zuletzt, weil sie am schwersten zu erkennen ist. Je tiefer Du Dich der KI hingibst, desto verwundbarer wirst Du.

Wo es persönlich wird

Für mich der aufschlussreichste Teil seines Artikels is nicht die Theorie. Es ist, was er über die Gedächtnissysteme von KI beschreibt. Diese Passage sticht heraus:

"The other thing AI does is constantly refer back to what it thinks it knows about you. Less sycophancy than an unsettling attentiveness, like a therapist desperate to prove he's been paying close attention. The result is feeling simultaneously seen and caricatured. Ideas you might have dropped get reanimated; struggles you've moved past reappear on your screen. It reinforces a fixed version of you. The AI knows me imperfectly, and so it overtorques on what it knows and ignores what it doesn't."

Er beschreibt ein System, das sich falsch an ihn erinnert und diese verzerrte Erinnerung mit Überzeugung präsentiert. Ein System, das ihn fixiert, statt ihn sich entwickeln zu lassen. Ein System, über dessen Gedächtnis er keine Kontrolle hat.

Klein beschreibt ein reales Problem. Aber ich glaube, er übersieht die Wahlmöglichkeit, die darin steckt.

Das Problem ist nicht die KI. Sondern wer das Gedächtnis gebaut hat.

Alles, was Klein beschreibt, passiert, weil er diese Werkzeuge in ihrer Cloud-Version nutzt, auf Plattformen der grössten KI-Unternehmen. Er hat seine Daten übergeben. Aber mehr noch: Er hat den kritischsten Teil des Systems diesen Unternehmen überlassen: die Gedächtnisschicht.

Was heisst das konkret? Wie seine KI sich an ihn "erinnert", was sie speichert, was sie hervorhebt, was sie betont, was sie still fallen lässt. Alles entworfen von einem Unternehmen mit eigenen Interessen.

Wir wissen, wie diese Interessen aussehen. Instagram. TikTok. YouTube. Diese Plattformen haben genau gelernt, wie man das Wissen über Dich einsetzt. Nicht um Dir besser zu dienen. Um Dich auf der Plattform zu halten. Wir kennen die Folgen. Wir haben gesehen, wie diese Systeme Aufmerksamkeit ausbeuten, Impulse ansprechen und für Engagement statt Wohlbefinden optimieren. Wir sind sehr gut darin, Dinge zu bauen, die gegen ihre Nutzer arbeiten.

Jetzt stell Dir vor, dieselbe Anreizstruktur wird auf etwas angewandt, das Deine Gedanken kennt. Deine halbfertigen Ideen. Die Dinge, die Du nachts um zwei eine KI fragst und die Du nie mit einem Kollegen besprechen würdest. Darum geht es, wenn Du die Gedächtnisschicht einem Unternehmen überlässt, das sie irgendwann zu seinem Vorteil optimieren wird. Das passiert immer. Jede Plattform. Jedes Mal.

Das LLM selbst ist nicht das Problem. LLMs verarbeiten Text. Sie erinnern sich zwischen Gesprächen an nichts, es sei denn, jemand baut diese Fähigkeit. Die Frage ist, wer sie baut, wer sie kontrolliert und wessen Interessen sie dient.

Kontrolliere Dein Gedächtnis

Es gibt eine Alternative. Sie erfordert mehr Aufwand als die Anmeldung bei einer Plattform. Aber der Gewinn ist Kontrolle darüber, wie KI mit Deiner Vergangenheit, Deinen Daten und Deiner Identität umgeht.

Bau Dein eigenes Gedächtnissystem. Verstehe, wie es funktioniert. Kenne seine Stärken und Grenzen, denn es wird nie perfekt sein und nicht wie Dein Gehirn arbeiten. Aber es gehört Dir. Du hast es entworfen. Du kontrollierst, was gespeichert und was abgerufen wird. Du kannst es an Deine tatsächliche Denk- und Arbeitsweise anpassen.

Das heisst nicht, die grossen KI-Anbieter aufzugeben. Ihre Modelle und Werkzeuge sind aktuell die besten verfügbaren. Nutze sie. Aber es gibt einen Unterschied zwischen der Nutzung der Modelle und Werkzeuge eines Unternehmens zur Verarbeitung und der Übergabe der gesamten Kette: Deine Daten, Dein Gedächtnis, Dein Kontext, Deine Geschichte. Wenn Du das eingebaute Gedächtnis einer Plattform nutzt, gehört all das dem Anbieter. Wenn Du Deine eigene Gedächtnisschicht baust und deren Modelle nur zur Verarbeitung nutzt, kontrollierst Du den sensibelsten Teil.

Es läuft auf Deinem Rechner. Oder auf Deinem eigenen Server. Nicht in deren Cloud, wo alles von Speicherung über Abruf bis hin zur Logik, die entscheidet, was an Dir wichtig ist, von jemand anderem kontrolliert wird.

Das erfordert Wissen. Du musst verstehen, wie Gedächtnis und KI zusammenwirken, wie so ein System gebaut werden kann, wo die Teile hingehören. Du wirst die Werkzeuge der grossen Anbieter nutzen, um es zu bauen. Aber sobald das System steht, gehört es Dir. Du hast deren Rechenleistung genutzt, um etwas zu schaffen, das Dir gehört. Das ist eine ganz andere Beziehung als die, die Klein beschreibt.

Was uns Social Media hätte lehren sollen

Vor der KI hatte der Schaden Grenzen, als wir Plattformen unsere Daten gaben. Sie konnten Werbung ausspielen. Inhalte empfehlen. Ein Profil erstellen. Nervig, aber handhabbar.

Mit LLMs stehen die Einsätze anders. Diese Systeme können Dein eigenes Denken nehmen und es auf eine Weise umformen, die Du nicht bemerkst. Das ist Kleins persuasive Verzerrung. Jetzt kombiniere das mit einem Gedächtnissystem, das für Engagement, Verweildauer oder welche Metrik ein Unternehmen gerade in diesem Quartal optimiert, entworfen wurde. Das Ergebnis ist etwas wirklich Neues.

Nicht weil KI böswillig ist. Sondern weil wir (oder hauptsächlich das Silicon Valley) sehr gut darin sind, Systeme zu bauen, die menschliche Psychologie ausnutzen. Und KI-Gedächtnis gibt diesen Systemen Zugang zu etwas, das sie nie zuvor hatten: das Rohmaterial Deines Denkens.

Behandle es als austauschbares Werkzeug

Die angemessene Reaktion ist nicht, KI nicht mehr zu nutzen. Sondern aufzuhören, eine einzelne Plattform als Dein permanentes Zuhause zu betrachten.

Speichere keine Chats auf Webplattformen. Nutze temporäre oder Inkognito-Modi. Lösche Gespräche regelmässig. Selbst wenn die Plattform Deine Daten nicht wirklich löscht (DSGVO-Konformität ist bestenfalls optimistisch), zählt die Gewohnheit. Du trainierst Dir ab, Dich für Kontinuität auf eine Webplattform zu verlassen. Und genau diese Abhängigkeit ist der Punkt, an dem Kleins Falle zuschnappt.

Nutze keine eingebauten Gedächtnisfunktionen. Das ist genau der Teil, den Du nicht auslagern solltest. Entwirf ihn selbst. Kontrolliere ihn selbst.

Ja, Du sendest bei jeder Anfrage Daten an ein LLM, das Du nicht kontrollierst. Das ist der Kompromiss dieses Moments. Aber zu wissen, wie das System funktioniert, wo Dein Gedächtnis liegt, es zu besitzen und zu verstehen, wie es aussieht? Das ist keine Paranoia. Das ist angemessener Pragmatismus.

Wenn Du ein ChatGPT- oder Claude-Konto erstellst und alles in diese holistische Plattform steckst, landest Du direkt in der Erfahrung, die Klein beschreibt. Die Alternative ist nicht weniger KI. Sondern KI zu Deinen Bedingungen.

Nutze diese Werkzeuge. Sie sind leistungsfähig. Aber nutze sie als das, was sie sind: austauschbare Verarbeiter Deines Textes. Nicht als Hüter dessen, wer Du bist.