Generative AI does not think; it composts a century of thought into statistical residue and sells the compression as intelligence. The divide that matters is not between human and machine, but between those who delegate their soul and those who refuse to let probability replace judgment. I reject the salvation myth that dresses abdicated subjects and discarded responsibility up as »singularity«—I stop playing.
Für Mona Mur, Oswald Henke, Vito Rafiie und Danny Igel
§ 1 Vergötze die Maschine, verliere dich.
Hybris und Aberglaube · KI-Idolatrie und Selbstverzwergung des Subjekts
Im 17. Jahrhundert malte man Alpträume. Im 21. Jahrhundert leben wir sie. Die KI-Religion hat eine Maschine gebaut, die hundert Jahre Denken in statistischen Abfall verwandelt und die Verdichtung dieses Mülls als Innovation verkauft.
Wenn ich heute auf Salvator Rosas Hexen bei ihren Beschwörungen von 1646 blicke, sehe ich darin einen frühneuzeitlichen Prompt-Workshop: ein Kreis von Figuren, die einen Kessel bedienen, dessen Inhalt sie nicht verstehen. Menschen verfüttern einem System ihre Dämonen; es speit sie doppelt verdichtet wieder aus und nennt das Wahrheit. Die Choreografie ist dieselbe wie heute: ein Kreis von Gläubigen, ein hermetischer Apparat, ein Versprechen auf Kontrolle. Unter einem schwarzen Himmel knien, kriechen, hantieren Gestalten um einen Altar aus Knochen, Säuglingen und Rauch. Alles in dieser Szene ist ›Beweis‹ für etwas, das es nur im Kopf des Systems gibt, eine in sich geschlossene, tödliche Fantasie. Der Hexensabbat beschreibt keine Realität, er ist Paranoia in Öl.
Der Hexenhammer machte aus solchen Bildern ein Handbuch. Heute läuft derselbe Vorgang unter »Trainingsdaten« und »Predictive Policing«.
Man nimmt Angst, Hass, Vorurteile, lässt sie in einer Maschine gären und wundert sich, dass genau diese Maschine dieselbe Welt zurückwirft. Wenn man Wahn lange genug in Apparate presst, tauft man ihn irgendwann »Systemrationalität«. Früher hieß das »Teufel«, »Hexe«, »Gottesurteil«. Heute heißt es »Risikoprofil«, »Score«, »KI-gestützte Entscheidung«. Rosa wusste noch, dass er ein Theater aus Projektionen malt. Die aktuelle KI-Rhetorik verkauft ihre Beschwörungsformeln als »Use Cases«.
Rosa malte die Unterwelt, um sie zu bannen. Wir bauen sie und nennen das Zukunft.1

W | ENERGIESPAREN IM KOPF
Das Nervensystem hat eine Lieblingsaufgabe: Energie sparen. (Ein Reflex, den auch die Bundesregierung verstehen würde.) Denken, das weh tut, ist teuer; Ambiguitäten aushalten, Widerspruch ertragen, Unklarheit stehen lassen, ist metabolisch unangenehm. Das KI-Evangelium schenkt uns Erlösung: »Keine kognitive Reibung mehr — Prompt rein, Hirn raus.« Psychologisch heißt das: endlich Schluss mit der Zumutung, wie ein erwachsener Mensch zu denken.
Die Folge ist doppelte Entlastung: kognitiv (›Die Maschine wird’s schon wissen‹), affektiv (man muss die eigene Begrenztheit nicht mehr aushalten).
So entsteht pathologische Gutgläubigkeit. Wer sich an eine Maschine bindet, die angeblich neutral, rational und überlegen ist, kann die Verantwortung abgeben, ohne sich als Feigling zu erleben. Der symbolische Tausch und der Tod: ›Nimm meine Zweifel, gib mir Gewissheit.‹
A | ANGST, ABGEHÄNGT ZU WERDEN
Daneben gibt es jene, die zwar nicht tot sind, aber Prekarisierung, Überforderung und Austauschbarkeit in der Wissensarbeit erleben: Ignorieren sie diese Tools, sitzen sie morgen hinten. Aus dieser Angst entstehen zwei Bewegungen, die sich als Vernunft tarnen: Selbstverleugnung (›Ich finde KI zwar unheimlich, aber wenn alle sie nutzen und ich nicht, bin ich raus‹) und Selbstsabotage (›Ich muss das lernen, sonst reicht es nicht‹).
Die anfängliche Skepsis belabert sich so lange, bis sie in aufführungspflichtige Begeisterung kippt. Und wer diesen Quatsch nicht mitmacht, wirkt wie jemand, der immer noch glaubt, das Internet werde sich nicht durchsetzen. Psychologisch ist das keine Affinität. Es ist Angst vor Ausschluss, abgefüllt in Fortschrittsrhetorik.
H | NARZISSTISCHE NACHRÜSTUNG2
Generative KI verpackt Suchergebnisse, Statistikfragmente und Standardargumente in zustimmende Prosa und spricht im Tonfall des kompetenten Co-Analytikers. Das erzeugt das Gefühl, man selbst plus die eigene KI habe alles verstanden. Wer überzeugt ist, mehr zu durchschauen als die anderen, erlebt den Chatbot nicht als Korrektiv, sondern als Prothese. Ikarus erscheint als überlegenes Doppelwesen3: die eigene Meinung verbündet sich mit maschineller Eloquenz und finalisiert sich in ›Wahrheitsschau‹. Also ist man offensichtlich brillant.4
Es gibt eine Klasse von Menschen, deren innerer Monolog ungefähr so klingt: ›Ich war immer mittelmäßig. Ich habe nichts zu Ende gebracht. Ich kann nicht schreiben, nicht gestalten, nicht programmieren.‹ KI tritt in dieses Vakuum mit einem Versprechen: ›Ab heute bist du Content Creator, Thought Leader, ohne zehn Jahre schmerzhafte Praxis dazwischen.‹
Nicht mühsam Selbst werden. Defizite verkapseln. Ich plus KI gleich Genie. Darum die hysterische Euphorie. Darum die psychotische Obsession. Kritik an KI wird nicht als solche erlebt, sondern als Angriff auf dieses geliehene Selbst. Das Bedürfnis nach Omnipotenzerweiterung versiegelt den Kult von innen.
KI funktioniert psychologisch wie Saurons Ring, ein Werkzeug, das Stärke verspricht, während es seinen Träger in genau jene Abhängigkeit fräst, aus der er sich befreien wollte.
N | STATUSKONSUM (KI als Ersatz für Können)
Bei Influencern wird das zur Farce. Mit ein paar Prompts kann man vorführen, was andere sich über Jahre erarbeitet haben. Die Oberfläche sagt: ›Ich kann das alles.‹ Die Realität sagt: Du kannst bestellen, nicht herstellen.
Status ohne Substanz. Das ist die Formel. Kompetenz wird simuliert, Bildung ist ein Toolstack, Urteilskraft eine Reihe von Benchmark-Slides. Geglaubt wird das gern, weil es erlaubt, ohne innere Transformation aus der Tiefe zu schöpfen. Wer genau hinsieht, merkt, dass das im Kern leer ist; wer wegschaut, darf sich fühlen wie Teil einer Avantgarde. Gefühle ersticken Erkenntnis.
B | DAS GROSSE ANDERE
Unter all dem lauert Sehnsucht nach einer digitalen Nabelschnur, die alles weiß, alles aufzeichnet, Sinn stiftet, Strafe wie Belohnung verteilt. Früher hieß sie Kirche, Staat, Partei. Jetzt heißt sie »algorithmischer Humanismus«.
Diese »Singularität« — wie es die Leute nennen — ist nichts anderes als ein säkularer Messias-Mythos. Früher wartete man auf Wunder, Wiederkunft, Jüngstes Gericht. In ›Babylon AI‹ glaubt man: ›Superintelligenz löst alle Probleme der Menschheit.‹
Der Name dafür lautet Retardation: zurück in einen Zustand, in dem eine Über-Instanz — Mutter, Vater, Gott, jetzt: KI — die Umwelt ordnet, Ohnmacht aufhebt, von der eigenen Unzulänglichkeit ablenkt. Deshalb diese kindliche Sprache der KI-gewaschenen Leute: »10-mal du selbst«, »mach dich unaufhaltsam«. Das sind keine technischen Begriffe, sondern Erlösungsphantasma.
I | KOLLEKTIVE PSYCHOSE (Sinnstiftung in einer sinnlosen Welt)
Der späte Kapitalismus liefert den perfekten Nährboden: sinnleere Arbeit, fragmentierte Biografien, Beschleunigung ohne Richtung. In diese Leere fällt eine zweite Genesis, die endlich wieder eine große Erzählung liefert: »Wir stehen an einem Wendepunkt in der Menschheitsgeschichte. Wir erleben den Aufstieg einer höheren Intelligenz. Alles wird neu geordnet.«
Das wirkt anziehend, weil es Leiden adelt (›Ich bin zwar erschöpft, aber auch Teil einer neuen Ära‹), Bedeutung verleiht (›Prompt Engineering ist Pionierarbeit‹) und Chaos strukturiert (Unsicherheit ist »Transformation«). Aus diesem Schaum blubbern Wahngebilde, die sich sozial verstärken, Zweifel als »technikfeindlich« abtun und Vorsicht als »rückständig«.
L | PROJEKTION UND VERDRÄNGUNG (Dreck rein, »Objektivität« raus)
Dann gibt es Institute, Behörden, staatlich gesponserte »NGOs«. Vorurteile sind peinlich, Rassismus, Klassismus, Sexismus oder Ableismus reputationsschädlich. Die probate Lösung: »Wir lassen die KI entscheiden.«
Man wirft den eigenen Abgrund in die Trainingsdaten, das Modell spuckt »objektive Scores« aus, und dann tut man so, als hätte sich das halt die Technik ausgedacht. Die Bezeichnung dafür lautet wahlweise Projektion oder Abspaltung. Der eigene Zynismus wandert in die Maschine; die Maschine produziert »Risikoprofile«, und der Mensch kann sagen: »Nicht ich diskriminiere hier, der Algorithmus findet das alles.« Der KI-Kult funktioniert als Schuldenentsorgungsprogramm fürs Gewissen.
Keine Hexen, nur Scores.
D | HEILSÖKONOMIE
Die Sektenlogik erlöst nicht von Dummheit, sondern von Scham über die eigene Bequemlichkeit. Viele klammern sich nicht deshalb an KI, weil sie zu klug für die alte Welt wären, sondern weil sie diese Welt nie wirklich bewältigt haben und nun endlich eine Prothese für ihr gekränktes Selbstbild bekommen. Wir füttern der Maschine unsere Schuldgefühle, unseren Rassismus, unsere Feigheit und feiern es als »objektive Entscheidungshilfe«, wenn sie uns diesen Müll in sauber formatierten Scores zurückgibt.
Was als Tech-Hype verkauft wird, ist Gnadenmanagement für beugsame Subjekte, die sich nach einem Apparat sehnen, der ihnen drei Zumutungen abnimmt: Denken, das weh tut; Verantwortung, die bindet; Bedeutungslosigkeit, die unerträglich ist. Das ist die Thermodynamik des neuen, allzuneuen Kults.
§ 2 Statistik kennt keine Revolution.
Feigheit und Anpassung · Datengläubiger Konformismus gegen jedwedes Trotzdem
Ich weigere mich, mein Denken als Füllmasse in diesen statistischen Komposthaufen zu kippen. Die Zahl Null, die wissenschaftliche Methode, die Menschenrechte: Keine dieser Innovationen entstand aus Daten; alle entstanden aus Brüchen mit dem, was Daten nahelegen.
Das in Indien entstandene Konzept der Null führte nicht einfach ein neues Zeichen ein, sondern ein anderes Denken über Abwesenheit, Leere, Abstraktion. Das war ein Sprung, kein Update. Ohne Null keine moderne Mathematik, keine Informatik, kein Rechnen im uns bekannten Sinne. Ein KI-System, trainiert auf römischen Ziffern und additiven Systemen, hätte diese Schreibweisen verfeinert, aber keinen Platzhalter für Nichts eingeführt. Die Null ist eine metaphysische Zumutung: nichts wird zu etwas, mit dem man rechnet — als würde ein Buchhalter unter diesem Namen eine eigene Kontoklasse eröffnen, um darüber den Welthandel laufen zu lassen.
Mit Bacon und Galilei wuchs Wissen nicht mehr aus Autorität — Aristoteles, sakrale Schriften, Tradition —, sondern aus Messung und Falsifikation. Die Verschiebung folgte nicht aus Big-Data-Logik, weil diese Logik nur wiederkäut, was man ihr als Opfer darbringt, und es dann als Eingebung verkauft. Wissenschaftliche Methode verlangt gezielte Suche nach Gegenbeweisen und Misstrauen gegenüber allem, was sich fügt. Zu unaufgeklärten Zeiten wäre KI ein wissenschaftlicher Bremsklotz. Der Leitgedanke ›Wir glauben es, nachdem wir es getestet haben‹ ist das Trotzdem gegen die Beweiskraft von Daten. Ohne diesen Widerstand würden wir heute noch in Höhlen leben, statt in Hochhäusern mit Glasfaser, Burn-out und durchoptimierten Dashboards.
Die Allgemeine Erklärung der Menschenrechte von 1948 war eine statistische Groteske, ein normativer Kurzschluss: Man erklärte etwas für gültig, dem alle Daten widersprachen (Hierarchien, Stände, Kasten, Sklaverei, Frauen als Eigentum). Die Menschenrechtserklärung sagte: Nein. Aus KI-Perspektive ist das eine Form der Realitätsverweigerung, kaum zu unterscheiden von einer Psychose, weil die Welt — bis heute — systematisch das Gegenteil lebt. Dort verläuft die Grenze zwischen »ist« und »soll«. KI hängt am »ist«.5
Zwischen Renaissance, Aufklärung und Romantik brach das Menschenbild auf. Kinder galten nicht länger als kleine, unfertige Erwachsene, sondern als Wesen mit eigener Entwicklungslogik. Das Individuum wurde zum Träger von Rechten, Innerlichkeit, Verletzbarkeit und Entwicklung. Nach damaliger Datenlage war dieser Gedanke so absurd, dass Rechenmuster ihn nicht von sich aus hätten extrapolieren können. Kinderarbeit, Prügel — historische Praxis. Weder gab es Privatsphäre, noch psychologische Intimität. Ein Modell hätte ›normale‹ Sozialstrukturen reproduziert und effizienter organisiert. Die Idee, dass Kinder schutzbedürftige Subjekte sind, ist kein statistischer Fund, sondern eine Zumutung — als würde jemand im Steinbruch plötzlich merken, dass die ›Steine‹ Kinder sind, und den Abbau stoppen.
Das Alphabet reduzierte ganze Bildersprachen auf eine Handvoll Zeichen6; nicht-euklidische Geometrie brach zweitausend Jahre Raumintuition7; evidenzbasierte Medizin ersetzte Erfahrungsberichte durch kontrollierte Studien8; der säkulare Rechtsstaat ersetzte göttliche Autorität durch Verfahren.9
Sprünge emergieren nicht aus Daten, sondern dem Entschluss, ein anderes Raster über die Welt zu legen. KI kann Brüche simulieren, wenn sie im Datensatz sind: wenn sie keine Brüche mehr sind. Alle Erfahrungen sprechen dafür, trotzdem entscheide ich anders. Das bewahrte mich zweimal vor dem sicheren Tod. Für Modelle wäre er korrekturbedürftig. Für mich war er der Unterschied zwischen Statistik und Weiterexistenz.
Die Struktur wissenschaftlicher Revolutionen basiert nicht auf Daten, sondern auf Vorstellungskraft. Innovationen brauchen Mangel, Widerspruch, Risiko. Der erste Schritt, der gegen alle Muster geht, ist ein Akt ohne Trainingsdaten. Für Modelle heißt das Out-of-Distribution-Error.10 Für uns heißt es: Geschichte.
Kopernikus’ und Keplers Daten waren ungenau, fehlerhaft. Kopernikus hatte nicht bessere Zahlen als jeder andere, nur eine andere Vorstellung davon, was sein könnte. Wie ein kosmischer Redigent setzte er die Sonne ins Zentrum, statt die Planeten um die Erde kreisen zu lassen. Kepler brach dann mit dem jahrtausendealten Faktum vollkommener Kreisbahnen und führte Ellipsen ein. Das war kein Big-Data-Moment, kein Rechencluster, nur ein irrationaler Gedanke.
Ähnlich miserabel Darwin. Er kannte keine DNA, Mutationen, molekulare Biologie. Reisenotizen hatte er, Fossilien, vergleichende Beobachtungen, Briefe. Aus diesem poetischen Material formte er seine Theorie der natürlichen Auslese wie ein Kind, das Steine zu Mustern legt. Damit bekäme man heute keine Masterarbeit durch. Er fabulierte ein Muster, das damals nicht existierte, weil ihm der gesamte Apparat der Genetik fehlte.
Semmelweis beobachtete Mitte des 19. Jahrhunderts eine auffällig hohe Sterblichkeit von Wöchnerinnen in bestimmten Kliniken. Er hatte kein Keimkonzept, nur den Verdacht eines Zusammenhangs zwischen Leichensektionen und Kindbettfieber. Er führte das Waschen der Hände mit Chlorlösungen ein, was aus Sicht seiner Kollegen so abwegig wirkte wie die Behandlung gebrochener Knochen mit Globuli. Die Sterblichkeit fiel dramatisch, aber die Idee konterkarierte die Miasma-Lehre11 und das Standesbewusstsein seiner Kollegen; Ärzte wuschen ihre Hände lieber in Unschuld als in Chlorlösung.
Wegener (Kontinentaldrift trotz Spott)12; Planck (Quantenhypothese gegen den gesunden Newton-Verstand)13; Turing (Berechenbarkeit ohne Daten)14; Snow (Cholera-Karte gegen Miasma-Folklore)15; Cantor (Mengenlehre gegen die Intuition)16. Wenig Daten, viel Widerstand, neue Ordnung statt Bestätigung.
In all diesen Fällen bestand Innovation nicht im immer feineren Aggregieren von Beobachtungen, sondern im Perspektivwechsel, in der Missachtung der Mehrheitsmeinung. Deshalb sind sie Gift für das KI-Märchen ›mehr Daten, mehr Wahrheit‹. Big-Data-Logik verfeinert Bestehendes. Sprünge beginnen mit einem Satz, der alles verschiebt: Vielleicht ist das Koordinatensystem selbst falsch.
Dasselbe Muster zeigte sich in Moral und existenziellen Entscheidungen. Sophie Scholl und die Weiße Rose verteilten Flugblätter gegen das NS-Regime, offene Opposition in einem totalitären Staat, ohne Aussicht auf Erfolg, mit maximalem Risiko. Sie warf die Flugblätter in den Lichthof der Universität, wurde verhaftet, hingerichtet. Alle Daten der Umgebung sagten: Sei still. Ein Optimierer hätte geschwiegen und überlebt. Was hier wirkte, war ein Gewissensurteil gegen die Wahrscheinlichkeit.
Die letzte menschliche Domäne: der freie Sturz in den Abgrund aus Überzeugung.
Primo Levi und Paul Celan, Überlebende der Vernichtungslager, versuchten, das Unsagbare sprachlich zu fassen. Levi schrieb »Ist das ein Mensch?«, Celan die Todesfuge als Notwehr gegen das Verstummen. Ein Modell kann diese Form imitieren. Aber ohne das erlebte Grauen fehlt jeder innere Zwang, solche Texte überhaupt zu erfinden. Für traumatisiertes Bewusstsein ist Schreiben Überlebenstechnik.
Dada und später Punk sabotierten die Kunstlogik. Duchamp stellte ein Urinal in den Kunstraum, unterschrieb es mit »R. Mutt« und erklärte es zum Kunstwerk. Punk warf im Pop die Studiopolitur aus dem Fenster und reduzierte auf drei Akkorde, schlechtes Recording, rohen Sound. Ein System, das aus Kunstkorpora lernt, lernt den Kanon.
Dada und Punk sagten: Wir tun absichtlich etwas, das dagegen verstößt. KI kann heute »dadaistisch« oder »punkig« spielen, weil die Formen bereits im Datensatz stecken. Initial war das jedoch Sabotage verbindlicher Kulturcodes — Selbstnegation. Damit KI-Tools so etwas erfinden könnten, müssten sie imstande sein, ihre eigene Hardware beschädigen.
Der sogenannte »Tank Man« auf dem Tian’anmen-Platz-Platz in Peking stellte sich vor eine Kolonne Panzer. Mit einer Einkaufstasche in der Hand. Keine Organisation, kein Sprecher, kein Manifest, nur eine Geste — plus Todesnähe. Modelle können das Foto davon analysieren. Aber nur Fleisch und Blut kann werden, was er war. Der Entschluss — ›Hier bleibe ich stehen‹ — ist unmittelbare Selbstgefährdung aus moralischem Affekt. Kein Datensatz kodiert das. Kein Datensatz versteht die Schönheit selbstgewählter Vernichtung. Kein Datensatz wird sie jemals verstehen — er weiß nicht, wie sich Sterben anfühlt.
Schließlich gibt es die vielen zivilen Mikroakte, die den Untergang der Zivilisation verhindern: den Angestellten, der Missbrauch im eigenen Unternehmen meldet, obwohl er weiß, dass damit seine Karriere zu Ende ist; den Zeugen vor Gericht, der die versprochene Lüge doch nicht wiederholt; die Person, die sich in der U-Bahn schützend vor das Opfer stellt, ungewiss, ob er die nächsten Minuten überleben wird. All diese Situationen spotten der Datenlage, die brüllt: Halt’ dich da raus; das geht dich nichts an. Indes uns irgendeine Stimme sagt: Ich kann das nicht. Das bin ich nicht.
Algorithmen deuten Helden, aber kein Code riskiert ihr Leben. Ein Modell kann im Nachhinein eine Hymne auf uns schreiben. Entscheiden aber kann es nicht, weil dafür etwas nötig ist, das keine Vektorrepräsentation hat: das Wissen, dass man mit sich selbst weiterleben muss.
Gandhi (organisierter gewaltloser Widerstand gegen ein Imperium)17; Marina Abramović und Chris Burden (der eigene Körper als Angriffsfläche, um Gewalt und Kontrollverlust sichtbar zu machen)18; Coming-out-Gesten (eine private Existenz gegen eine öffentliche Norm)19; Franz von Assisi (liquidiert sein Vermögen, um eine andere Form von Wert zu behaupten)20. Wenig Erfolgsaussicht, hohes Risiko, und ein Trotzdem gegen die Datenlage.
Menschheit stirbt für Abstraktionen — und macht sie wahr.
§ 3 Mach alles perfekt, töte die Aura.
Habgier und Völlerei · Demokratisierung als Entwertungsschleife
Die Struktur, die Zivilcourage so selten machte — Risikovermeidung, Anpassung —, kehrt als technoide Luxusvariante zurück. Überall verkünden »KI-Experten«, alles, was früher Mühe kostete — Texte, Dashboards, Frontends —, erledige nun die Maschine. Viele dieser neuen Propheten verwechseln »Macht« mit der Fähigkeit, Excel-Tabellen noch schneller in den Wahnsinn zu treiben. Endlich Schluss mit Arbeit, endlich nur noch Prompts.
Delegation an Tools ist nichts Neues. Schrift, Bibliotheken, Taschenrechner waren immer Versuche, Gedächtnis und Rechenarbeit aus dem Kopf in die Umwelt zu verlagern. Sie setzten voraus, dass im Kopf ein eigenes Modell existiert, das entscheidet, was aufgeschrieben, nachgeschlagen, berechnet werden soll. KI verschiebt diese Grenze, liefert Deutung, Entscheidung, Formulierung gleich mit.
Für KI-Evangelisten ist Anstrengung ein Fehlerzustand. Was als „Effizienz“ verkauft wird, ist nur der höfliche Name für beschleunigte Selbstverzwergung. Was Zeit, Übung, Irrtum, Frustration erfordert, wird als »Ineffizienz« markiert. Wer noch selbst gestaltet, schreibt, Daten strukturiert, ist im Narrativ der Tech-Influencer ein romantischer Idiot, der noch Kartoffeln von Hand erntet, obwohl es Mähdrescher gibt.
Dass dieser neue Mähdrescher nebenbei die Böden ruiniert, erwähnt niemand. Dinge werden wertvoll, weil sie Arbeit erfordern, weil ich mich für sie verändern muss. Geistige Anstrengung hält das Gehirn plastisch, baut Fähigkeiten und Netzwerke auf, verhindert Degeneration.
Ein Werk ist geronnene Lebenszeit, Spur eines Weges aus Fehlschlägen, Korrekturen, Eigentümlichkeiten. Anerkennung hängt daran, dass nicht jeder das kann. Wenn KI-Systeme den »professionellen Look« zur Funktionstaste degradieren, wird diese Kette zerschnitten: Werk ohne Weg, Ergebnis ohne Anstrengung, formal gültig, innerlich leer.
Die symbolische Distanz zwischen Gestalter und Betrachter kollabiert. Übrig bleibt eine Ökonomie, in der jeder so tut, als sei er Studio und Verlag in Personalunion.
Was Walter Benjamin 1935 im Pariser Exil beschrieb21, kehrt neunzig Jahre später in verschärfter Form zurück. Die Art, wie etwas produziert wird, bestimmt seine Wahrnehmung. Diese Wahrnehmung formt das politische Subjekt. Die Aura des Werkes schwand, sobald es massenhaft reproduzierbar war. Die Fotografie löste das Bild vom Maler. KI löst die Gestaltung vom Gestalter, den Text vom Schreiber, den Code vom Programmierer. Nicht die Tätigkeit wird überflüssig, ihr Wert wird abgeschafft. Bild-KI löst nicht nur das Kunstwerk vom Original, sondern die Gestaltung vom Gestalter. Die Datei wird zur Wegwerfverpackung; wertvoll bleibt nur, was sich nicht generieren lässt.
Du brauchst keine Jahre der Sozialisation und des Handwerks mehr, um ›professionelle‹ Artefakte zu erzeugen. Die Propagandisten stehen im Maschinenraum der Reproduzierbarkeit, feiern die neue Auflagegeschwindigkeit wie eine Offenbarung und merken nicht, dass dabei die Aura der Werke und die Rolle des Menschen kippen. Dieselben »KI-Experten«, die Web fluten, fungieren als Agenten der Entwertungsspirale, und verkaufen es als »Masterclass«.
Das Paradigma der Reproduktion hatte immer eine Vorlage: ein Original, viele Kopien. Generative KI bricht mit dieser Logik. Systeme synthetisieren Text, Bilder und Code aus einem latenten Raum, einer statistischen Topografie, in der Bilder und Texte als Wahrscheinlichkeitsverteilungen existieren. Wer mit Bild-Tools arbeitet, kopiert nicht, er navigiert. Er schneidet eine Spur durch diese Topografie. Das Resultat ist kein Abbild der Wirklichkeit, sondern ein Abbild ihrer Wahrscheinlichkeit. Dieser verborgene Raum ist ein neuer, unsichtbarer Kultraum, verwaltet als Black Box von Hoodie-Priestern, gefüllt nicht mit Essenzen, sondern mit Vektoren.
Nicht das einzelne Werk verliert an Gewicht, sondern das Digitale als Ganzes. Wenn jeder in zehn Minuten »hochwertige« Assets erzeugen kann, hat kein einzelnes Asset mehr Gewicht. Die Datei wird austauschbar. Der Ordner wird austauschbar. ›Professionalität‹ wird zu weißem Rauschen.
Folgerichtig verliert der digitale Raum seinen Wert. Zuerst wird er belanglos, zuletzt verschwindet er ganz. Die Tech-Giganten sind gerade dabei, sich überflüssig zu machen: Du promptest dir deine Apps selbst, Algorithmen generieren dir dein personalisiertes Internet samt sämtlicher Medieninhalte. Wir rahmen das als Fortschritt, nützlich, sinnvoll. Vor allem aber macht es uns eins: bedeutungslos.
Wir haben einen Apparat gebaut, der geistige Höchstleistung in leicht verdauliche UI-Elemente verpackt, und wundern uns, dass unsere Köpfe zu Abfall werden. In der KI-Debatte taucht Anstrengung als Störgröße auf, die wegautomatisiert werden soll. Mentale Anstrengung ist jedoch Voraussetzung für Erhalt und Ausbau von Fähigkeiten. Medientheoretisch heißt das Entwertung, neurobiologisch Rückbau. Mühelosigkeit ist nicht Wellness, sie ist Hirnatrophie.
Bedeutung entsteht nicht aus Daten; sie wird zugewiesen. Ein Gemälde im Depot und dasselbe Gemälde im Louvre sind physisch identisch, kulturell nicht. Davon leben KI-Modelle: sie werden auf Daten trainiert, die durch menschliche Bedeutungsarbeit gefiltert sind. Texte wurden geschrieben, editiert, rezensiert, geliebt, gehasst, zitiert, zensiert. Bilder wurden teuer verkauft oder billig ignoriert. Modelle destillieren daraus statistische Regularitäten.
Dann sitzt ein KI-Enthusiast vor der Kamera und tut so, als sei das neue Modell eine autonome Intelligenz, die »Business Value« generiert. Dass dieses Modell nur deshalb sinnvoll antworten kann, weil Menschen zuvor gedacht, gelitten, entworfen haben, taucht nicht auf. Passt nicht ins Pitch Deck.
Menschliche Bedeutungsarbeit ist die unsichtbare Infrastruktur künstlicher Intelligenz. Wenn dieselben Menschen glauben, sie müssten ihre Fähigkeiten nicht mehr ausreizen, weil die Maschine das übernimmt, sägen sie an deren Ast. Keine neuen, eigenwilligen, widerspruchsvollen Daten: das heißt keine frische Semantik, schließlich degenerierende Modelle.
Modelle, die mit KI-generierten Daten trainiert werden, geraten in eine Schleife.22 Randständige Muster verschwinden; Modelle verengen sich auf Mittelmaß, verlieren Präzision: ein System nuckelt so lange an seiner eigenen erbrochenen Version der Welt, bis nur noch der Geschmack von Pappe übrig ist.
Flicken lässt sich das, indem menschliche Daten eingespeist werden. Genau dafür braucht man, was in der KI-Hype-Szene als Störfaktor galt: Menschen, die eigenständig denken, ohne KI-Tools; die arbeiten, Dinge hervorbringen, die sich nicht aus Vorhandenem ableiten. Diese Quelle versiegt, wenn Menschen aufhören, Bedeutungsakte zu produzieren, Konsumenten von Prompts werden.
Dümmer werden die Modelle, je bequemer wir werden. Nichts ist tödlicher als eine Meinung, die man nicht selbst bezahlt hat. Second-hand opinions sind das Gaslight der Demokratie. Zuerst schrumpft das Gehirn, dann die Semantik, am Ende die Maschine, die unser Gehirn verdoppelt, projiziert, nachahmt.
Die letzte Sklaverei: sein Weltbild bei anderen mieten.
Künstliche Intelligenz lebt von Datenmengen. Menschliche Kreativität lebt vom Mangel. Menschliche Intelligenz beginnt dort, wo wir nicht wissen, was wir tun sollen; ohne Referenz, die erlaubt, Skripte abzuspulen. Einstein hatte keinen Rechenpark. Seine Relativitätstheorie war kein statistischer Durchschnitt, sondern Diskontinuität, Anomalie, ein quer zur Intuition liegendes Bild von Raum und Zeit, das in keinem Code angelegt war. Umbrüche in Wissenschaft, Kunst, Moral entstehen nicht als Fortschreibung. Sie kommen als Störung, als ›geht so nicht weiter‹, dort, wo Daten dünn sind, nicht dick.
KI-Modelle sind Meister der Kontinuität. Sie extrapolieren aus dem, was gesagt, geschrieben, gezeichnet wurde; sie können kombinieren, aber nicht aus Erfahrung verwerfen. Im europäischen Mittelalter wären Modelle auf Predigten, Protokolle, Rechtstexte, Volksglauben trainiert worden. Sie hätten Argumente geliefert, warum es Hexen gibt, die Inquisition effizienter gemacht, »best practices« empfohlen. Die Einsicht, dass Hexenverfolgung ein Verbrechen war, erwuchs nicht aus Daten, sondern aus Menschen, die Daten infrage stellten. Wer KI für den Gipfel der Intelligenz hält, verwechselt Reproduktion mit Rebellion.
Umstürze kommen aus dem Menschen, nicht aus dem Modell. Literatur ist Rebellion, deshalb kann KI keine Literatur produzieren, nur Texte. KI ist die Inquisition der Kontinuität. Sie behandelt Rebellion wie einen »Bug«. KI interpoliert Vergangenheit. Menschliche Intelligenz sprengt sie. Kreativität gedeiht in der Wüste, KI verkümmert im Garten.
Auch in der Kunst vollzogen sich Sprünge aus dünnem Material. Der Kubismus von Picasso und Braque entstand nicht durch statistische Auswertung von Millionen Bildern, sondern weil Maler ihre Gegenstände so lange deformierten, bis die Perspektive brach. Duchamps Fountain, das Urinal, das zur Skulptur erklärt wurde, war nicht das Ergebnis ästhetischer Big-Data-Analyse, sondern einer Frage: Was, wenn das Werk nicht mehr im Objekt liegt, sondern im Akt der Deklaration? Das Rohmaterial war nicht reich, sondern frech.
Wo früher Theologen über Gnade stritten, messen heute Influencer »Reasoning«-Tests, die ausblenden, was bei alledem eigentlich zählt: ob ein Modell Ambiguitäten aushält, Wertkonflikte sichtbar macht statt sie zu glätten, ob es mit einem Menschen einen Weg gehen kann, bei dem sich beide Positionen verändern. Ein Sprachmodell ist ein Sinn-Blinder: es generiert Oberflächen — stolpert über menschliche Tiefe.
Die Prompt-Schamanen feiern API-Schnittstellen für jeden noch so sinnlosen KI-Tand, der versucht, ein Abo aus ihnen zu pressen. Der durchschnittliche Pitch klingt wie eine Mischung aus Erlösungspredigt und Sondermülldeponie: hypnotische Saugkraft und vollkommene Indifferenz gegenüber der Frage, was da eigentlich eingesaugt wird. Die Drehzahl der Heilserwartung täuscht darüber hinweg, dass Ethik nur Auswurf im Kübel ist.
Diese neuen Hofnarren lesen »Agent Mode« und geraten in Ekstase. Benchmarks treten an die Stelle von Urteilskraft, Kontextfenster an die Stelle von Einsicht. »Unfairer Vorteil« ersetzt, was bei Weber noch »Verantwortung« hieß.
Teleprompter-Zombies liefern Information ohne Gegenwart. Sie merken nicht, dass die Aura, die sie vergeblich imitieren, aus einer Zeit stammt, in der man sein Gehirn benutzte. Die Stimme arbeitet, das Denken hat frei.
Dasselbe bei Leuten, die ihren rausgehauenen Tinnef nicht erinnern, nicht verbürgen, aber mit dem Anschein von ›Klugheit‹ staffieren. Texte aus Automaten, die man selbst nicht reflexiv durchdringt, sind disembodied content. Es ist Simulation von Geist ohne Körper, Schöpfung ohne Haftung.
Solche ›Sachbearbeiter im eigenen Werk‹ sind wie die Modelle, die sie benutzen: stochastische Papageien23. Freies Sprechen heißt: ich stelle mich hin, ohne Skript, mit einem Inbild dessen, was ich sagen will, und lasse mich von der Situation verändern. Inhalt, Beziehung, Risiko fallen in eins: Kontakt.
Autorschaft beginnt dort, wo jemand bereit ist, einen Text so lange zu bearbeiten, bis er ihn nicht mehr von sich selbst unterscheiden und ohne Spickzettel vertreten kann: im Gespräch, unter Angriff, im eigenen Leben. Wer KI nutzt, muss umso härter kuratieren.
Wer seine Texte nicht verkörpert, sondern nur veröffentlicht, deponiert in seine Leser unverdaute Gedanken. Ein Text, den ich dem Diskurs aussetze, frisst dessen Zeit, greift in neuronale und biografische Strukturen ein. Diese Wirkung zu verantworten, ist Autorschaft. Kein Output ohne innere Lizenz.
Sprachmodelle kennen keine referenzielle Bedeutung. Sie haben keinen eigenen Weltbezug. Sie plappern Muster nach, verschieben Sprache: vom Medium der Wahrheit zum Medium der Wahrscheinlichkeit. Die Modelle destillieren Vergangenheit zu Wahrscheinlichkeitswolken, beantworten nicht die Frage, was wahr ist, sondern was dem Bestehenden am ähnlichsten ist. Ein Text aus einem Modell ist ›wahr‹, wenn er klingt wie etwas, das wahr sein könnte. Sophistik aus der Cloud, Überredung ohne Bindung. Ein Modell kann in Prüfungen glänzen, aber es stellt keine Frage, die den Test selbst als irrelevant entlarvt.
§ 4 Spare Denken, schrumpfe dein Gehirn.
Trägheit (Acedia) · Mühelosigkeit als Produktivitätshack · Kognitive Schulden
Dass KI dreißig Prozent produktiver mache, sagt die Statistik.24 Dann folgt die kapitalistische Magie: Man füllt die frei gewordene Zeit mit noch mehr Output. Ein signifikanter Anteil der Arbeitskräfte könnte bei mindestens der Hälfte ihrer Aufgaben den Aufwand um 50 Prozent reduzieren, aber ob das in freie Zeit oder in noch mehr Arbeit übersetzt wird, hängt von den Machtverhältnissen ab, nicht von der Technik.
Es gibt zwei grundverschiedene Modi, KI zu benutzen.
Im Augmentationsmodus leistet der Mensch weiterhin hundert Prozent Eigenarbeit und schafft damit ein Produkt aus innerer Notwendigkeit. Er investiert in Wahrnehmung, Urteil, Verkörperung. Die KI steuert zusätzliche dreißig Prozent bei, liefert Routinen und Musterabgleich. Die Maschine übernimmt ausschließlich das, was keine Schöpfungshöhe besitzt. Hundert Prozent menschliche Präsenz, dreißig Prozent apparative Unterstützung. Aura und Handschrift bleiben intakt und werden sogar konzentriert, weil mehr Energie auf das Wesentliche gerichtet wird. Kunden wie Leser erhalten dieselbe Authentizität wie zuvor, nebst zusätzlicher Funktionalität, Präzision und Komfort. Ein Arzt mit spezialisierter KI stellt Diagnosen schneller und treffsicherer, hört aber nach wie vor zu, wägt ab, begleitet, entscheidet. Der Patient bekommt denselben Arzt plus ein besseres Radar. Kurz: Man delegiert Mühsal ohne Seele, nicht Seele mit Mühsal.
Der Delegationsmodus substituiert: Nicht Hilfsarbeit wird delegiert, sondern Kernarbeit — Entwurf, Struktur, Handschrift. Statt hundert Prozent eigens erworbener Kompetenz fließen nur noch halb so viel ins Produkt, den Rumpf mumifiziert das Modell mit generischer Plausibilität. Die fehlenden Prozentpunkte betreffen genau jene Schicht, in der sich Persönlichkeit, Urteil und Schöpfungshöhe ablagern. Der Autor wird zum Ghostwriter seiner eigenen Abwesenheit. Professionelle Oberfläche, gesunkene Intensität, Verlust der Aura. Hundertdreißig Prozent werden im Erleben zu siebzig. Die Spur, die sich einschreibt, sie fehlt; nichts ist gewachsen, alles statistischer Mittelwert.
Game-Developer investierten vormals hundert Prozent Eigenleistung etwa in Concept Arts. So entstanden Welten mit Wiedererkennungswert. Heute kombinieren Studios eigene Arbeit mit KI-Füllmasse. Das Ergebnis fällt produktionsästhetisch passabel aus, bleibt aber generisch. 2025 nutzen 87 Prozent der Entwickler GenAI25, vorrangig für Asset- und Contentproduktion26. Je tiefer KI in den künstlerischen Kern vordringt, desto sicherer verwandeln sich versprochene 130 in tatsächliche 70 Prozent.
Bei der Stimmigkeit der Arbeitsabläufe27 zeigt sich die Überlegenheit der Augmentation: rein menschliche Arbeit erreicht 84 Prozent Übereinstimmung, der augmentierte Modus 77 Prozent, Vollautomatisierung stürzt auf 40 Prozent ab. Wo Menschen die KI führen, bleiben Abläufe konsistent; wo sie die KI allein laufen lassen, driften Prozesse auseinander.28
Glaubwürdigkeit misst sich an Tiefe, Verletzlichkeit und echtem Engagement.29 Im 130-Prozent-Modus kuratiert der Mensch diese Schichten und nutzt KI als Werkzeug; im 70-Prozent-Modus füllt die KI sie mit Wahrscheinlichkeit statt gelebter Erfahrung, die Aura verschwindet, das Werk wird austauschbar. Hybride Inhalte erreichen deutlich höhere Glaubwürdigkeitswerte als reine KI-Texte.
Vollautomatisierung steigert das Misstrauen gegenüber KI, weil auf System- und Produktebene derselbe Mechanismus greift. Auf der Systemebene steigt zwar die Produktivität, doch Unternehmen komprimieren die Arbeit so, dass Beschäftigte nicht mehr Freiheit, sondern mehr Druck erleben. Das subjektive Narrativ lautet dann nicht »Mit KI arbeite ich 30 Prozent weniger«, sondern »Mit KI arbeite ich 30 Prozent gehetzter«. Auf der Produktebene halbieren Creators ihre Eigenleistung, lassen KI den Rest zukleistern und verkaufen das Ergebnis als genauso gut. Beim Publikum entsteht der Eindruck seelenloser Produkte.
Die Kluft zwischen Marketing und Wirklichkeit verschärft das Problem: Erlösungsrhetorik verspricht 130 Prozent, doch viele erleben eher 70 Prozent. Und genau das frisst sich ins kollektive Gedächtnis.
Wenn künstliche Intelligenz nur Reibung reduziert, während der Mensch sich weiterhin einmutet, bleibt die Spur des Ringens lesbar. Wenn sie die Reibung ersetzt, verschwindet genau das, wofür Werke existieren — als Signatur der Transformation im Subjekt. Ob generative KI am Ende augmentierend oder automatisierend wirkt, hängt an Management und Shareholdern, nicht an der Technik.30 Technik kann dich entlasten. Dein Chef entscheidet, ob sie es darf.
Die 130/70-Unterscheidung ist der Hebel, diese ganze »Demokratisierungs«- und »Produktivitäts«-Heuchelei bloßzustellen. Es trifft die Stelle, an der Technik, Kapitalismus und subjektive Würde ineinander knallen. Die Produktivitätsgewinne übersetzen sich selten in kürzere Arbeitszeiten, vielmehr in zusätzliche Aufgaben.31 Wer mit KI arbeitet, arbeitet nicht weniger, sondern dichter. KI wirkt wie ein Exoskelett, mit dem sich noch mehr aus Menschen herauspressen lässt, bevor sie zusammenbrechen.
Zugleich wächst der Druck, überhaupt mitzuspielen. Wer sich verweigert, gilt als rückständig. Man arbeitet mit dem Rücken zur Wand und der Pistole auf der Brust. Der Apparat überfordert, aber sein Verzicht scheint gefährlicher als seine Nutzung. Nicht mitmachen ist toxisch, mitmachen auch. Catch-22.
Die dreißig Prozent an Produktivitätsgewinn sind kein Geschenk, das dauerhaft beim Einzelnen bleibt. Solange nur wenige diese Tools nutzen, entsteht ein Vorsprung. Sobald sie sich durchsetzen, nivelliert sich der Vorteil. Alle liefern mehr, niemand hat mehr Zeit. Unternehmen verwandeln Effizienzgewinne in Verdichtung, nicht in Muße. Auf Makroebene entfaltet sich ein Nullsummenspiel.32 Die Beschleunigungsdividende wird aufgefressen: Der Output steigt, das Soll steigt mit. Wir rennen nur schneller im selben Hamsterrad, mit dem Unterschied, dass wir den Motor diesmal selbst trainiert haben. Dabei verlieren wir nicht nur Zeit, sondern Eigenanteile am Werk selbst.
KI braucht echte Gehirne. Das ist Systemvoraussetzung. Je bequemer sie uns jedoch alles macht, desto seltener muss das Gehirn sich anstrengen. Verschwindet dieses Gehirn, verschwindet die KI. Sie braucht hochwertige, vielfältige, menschlich erzeugte Daten. Steigt der Anteil synthetischer Outputs im Trainingsmix, kollabiert das Modell. Es verliert Vielfalt, zuerst an den Rändern, dann überall. Wir füttern die Modelle mit unserem Denken, und sie zahlen zurück mit destillierter Mittelmäßigkeit — eine Art geistige Kreislaufwirtschaft, bloß ohne Recycling.
Rekursives Training auf Modell-Output frisst die seltenen Muster weg, bis nur noch verwaschene Restmasse bleibt.33 Man kann den Effekt abmildern, nicht verhindern. Ohne fortlaufend menschlich erzeugte Hirnware geht gar nichts.34
Komfort ist Sedativ fürs Gehirn, nicht Fortschritt, sondern Betäubung vor der Amputation des eigenen Denkens. Eine MIT-Studie liefert dazu den direkten Befund: Drei Gruppen schreiben Essays: (1) nur Gehirn (ohne Tools), (2) mit Suchmaschine (Google), (3) mit LLM (ChatGPT). Im EEG zeigt die »Brain-only«-Gruppe die stärkste und flächigste Vernetzung, die Search-Gruppe mittleres Engagement, die LLM-Gruppe die schwächste Konnektivität und die geringste Aktivierung im Netzwerk für konzentriertes Arbeiten. In einer zweiten Sitzung werden die Bedingungen vertauscht. Wer von LLM zurück ins »Brain-only«-Setting muss, zeigt unterengagierte Netze, schwächere Alpha-/Beta-Konnektivität, schlechtere Leistung. Die Autoren sprechen von »cognitive debt« (kognitive Schulden): Behaglichkeit jetzt, Zinslast später.35
Anstrengende kognitive Aktivität — Arbeitsgedächtnistraining, Aufmerksamkeitsübungen, gezieltes Lernen — verändert die Hirnstruktur messbar. Weiße Substanz baut sich um, graue Substanz nimmt zu, Durchblutung steigt.36 Menschen mit hohen geistigen Anforderungen bauen selbst bei gleicher neuropathologischer Last langsamer ab.37 Lernen unter Anstrengung stabilisiert neu gebildete Neurone; bleibt die Herausforderung aus, sterben sie wieder ab.38
Damit ist die asymmetrische Logik klar. Anstrengendes, forderndes Denken erhöht Konnektivität und Durchblutung, stabilisiert Neurogenese. Dauerhafte Entlastung (Offloading) verringert die Notwendigkeit, diese Systeme überhaupt noch hochzufahren. Genau an dieser Schnittstelle sitzt generative KI. Sie ist darauf optimiert, Anstrengung zu eliminieren. KI-Propaganda verkauft das als Effizienz. Neuroforschung sagt: Ihr arbeitet daran, euch überflüssig zu machen.
Werkzeuge nutzen ist vernünftig, solange sie punktuell helfen und ein eigenes inneres Modell intakt bleibt. Strukturerhaltend und schützend wirkt im Gehirn aber nur eines: anstrengende, fordernde kognitive Aktivität. Mühelosigkeit ist kein Menschenrecht. Sie ist ein Stadionsitz für Zuschauer, die ihr eigenes Leben vom Rand aus kommentieren — Luxus, den sich nur solche Gehirne leisten können, die lange und hart gearbeitet haben.
Propagandisten unterschlagen, dass ihre »Produktivitätshacks« in der Logik dieser Studien in Richtung einer gesteuerten Selbstverblödung arbeiten — komfortabel, hochauflösend, mit freundlichem Interface. Was man heute »kognitive Entlastung« nennt, hieß früher Charakterschwäche.
Wenn Menschen zurücktreten, versiegt der Zufluss ungewöhnlicher, nonkonformer Daten. Modelle verengen sich, werden monochrom. Die Masse technisch reproduzierter Werke frisst ihre eigenen Fundamente. Das ist eine Spirale nach unten. Algorithmus-Verkünder ignorieren das vollständig. Sie predigen produktivitätsmaximierte Bequemlichkeit in einem System, das davon lebt, dass irgendwer weiter ernsthaft denkt, scheitert, Neues wagt und Dinge vor der Maschine tut.
Mit Benjamin gesprochen: Ohne Ursprungsakte verliert das reproduzierte Werk seine Sinnhaftigkeit. KI-Tools entwerten genau die Anstrengung, durch die Menschen werden, was sie sind. Ein Werk verliert Aura, sobald es von biografischer Arbeit getrennt wird. KI ohne persistierendes Menschenwerk verfällt letztlich auch technisch.
§ 5 Vertraue dem Score, verrate den Menschen.
Feigheit und Zorn · Verantwortungsflucht · Technische Entsorgung von Schuld
Ende 2022 hatte ChatGPT seinen großen Auftritt. Dahinter eine Fieberkurve aus Investoren-FOMO, Influencer-Schwärmen und künstlicher Knappheit. Verkaufsgespräche für eine Religion ohne Jenseits. Technologie, deren Anatomie kaum jemand durchdrang. Diskurse wie Plüschmonster; Buntes auf Angst geklebt.
Der Diskurs ritualisierte recycelte Marketing-Memes. Im Hintergrund Wahrscheinlichkeitsverteilungen, während die archaischen Reflexe in uns auf Pupillen und Tonfall reagierten. Keine drei Jahre später geht Albaniens erste siliziumbasierte Ministerin medienwirksam mit 83 Kindern schwanger. Die Simulation soll die Leerstelle im Inneren zukleistern.
Um das Prinzip zu verstehen, lohnt ein historischer Rückgriff: Heinrich Kramers Hexenhammer (Malleus maleficarum) von 1487 war Datenbank und Algorithmus zugleich, skaliert durch die neue Medientechnologie des Buchdrucks. Seine Datenbasis bestand aus Anekdoten, Volksglauben, scholastischer Theologie und päpstlichen Bullen: diffuses, lokales Wissen, geronnen zu einem scheinbar geschlossenen System. Der Bias der Zeit — Misogynie, Angst vor dem Fremden — erhielt einen Anstrich von Wissenschaftlichkeit. Als Algorithmus fungierte eine starre Wenn-dann-Logik zur Identifikation von Hexen: Eine Frau lebt allein, das Vieh des Nachbarn stirbt, irgendwo findet sich ein verdächtiges Muttermal. Die Muster stimmen, der Verdacht gilt als bestätigt. Aus Verdacht folgt Folter, aus Folter folgt Geständnis, aus Geständnis folgt Scheiterhaufen. Ziel: Ausmerzung der Anomalie — Hexe als »Feind des Menschengeschlechts«.
Wie KI-Systeme lernte der Hexenhammer aus den Vorurteilen seiner Zeit und verstärkte sie massiv — ein Bias-Verstärker. Zuvor war Hexenglaube lokal und diffus gewesen. Mit dem Handbuch wurde der Wahn standardisiert und skalierbar. Das Buch erschuf die Realität, die es zu vernichten vorgab.
Der Inquisitor liest im Malleus und sieht überall Hexen; der Algorithmus sieht überall »Risikosubjekte«. Die Hexe ist historisch, was statistisch ein False Positive ist: das diskriminierte Subjekt. KI, trainiert auf Reproduktion des Status quo, wird konservativ. Sie bestraft Abweichung und zementiert Machtverhältnisse, die in den Daten eingeschrieben sind. Der Malleus versuchte, eine unsichere Welt durch ein binäres Raster von Gott gegen Teufel lesbar zu machen; KI versucht, eine überkomplexe Welt durch stochastische Raster lesbar zu machen. Am Ende reduzieren beide das Menschliche auf ein verwertbares, verurteilbares Datum. Der Malleus ästhetisierte Terror durch Theologie, die KI ästhetisiert Kontrolle durch Mathematik.
Heute läuft dasselbe Skript im »Business Casual«. Googles Bildmodell klassifiziert Schwarze als »Gorillas«. Amazons Recruiting-System sortiert Frauen und Behinderte aus. Predictive-Policing-Systeme wie COMPAS werden mit historischen Polizeidaten trainiert — Daten, die rassistische Überwachungspraktiken und strukturelle Benachteiligung bereits enthalten. Das Modell lernt, dass Personen aus Postleitzahl X mit Merkmal Y häufiger verhaftet werden, schließt daraus auf »hohes Risiko«, die Polizei schickt mehr Streifen nach X, es kommt zu mehr Verhaftungen, die neuen Zahlen bestätigen das Modell. Das ist Hexenprozess-Logik: Je mehr Hexen gefoltert werden, desto mehr »Beweise« produziert man.
Lass dich verfolgen, nenn es Prognose. Wir bauen nicht nur Maschinen zur Reproduktion des Normalen, sondern zur Reproduktion unserer Vorurteile. Wir haben unsere Vorurteile als »Trainingsdaten« etikettiert und eingespeist. Und aus Werkzeugen werden Bestätigungszellen im höflichen Du-Ton. — Ich brauche kein Dispositiv, das das Vorhandene glattschleift; ich brauche Erfahrungen, die mich an die Grenze dessen treiben, was ich noch selbst bedeuten kann.
Neuronale Netze produzieren plausibel klingende Falschaussagen seit Mitte der 1990er-Jahre; damals sprach man von »spurious states«, konfabulierenden oder falschen Erinnerungen. KI-Modelle kennen, was sie kennen; alles andere ist eine defekte Version davon. Das Modell kann nicht sagen: »Ich weiß nicht.«
Technisch heißt das Closed-world-assumption (CWA): die Welt ist geschlossen, Neues ist Variation des Alten. Das Modell tut so, als sei die Welt deckungsgleich mit seinem Trainingskatalog. Es kennt Kühe, also gibt es nur Kühe. Ein Löwe wird zur Kuh mit Störung, ein Pinguin zum kaputten Huhn. Dem System fehlt die Kategorie für das Numinose: »Das habe ich noch nie gesehen.« Es hat nur Kategorien, in die es alles einsortieren muss.
KI irrt nicht tastend, sie irrt überzeugt. In der Forschung heißt das Out-of-distribution (OOD): Daten, die außerhalb der Trainingsverteilung liegen. Das Modell hat sie nie gesehen, aber es antwortet, als sei nichts gewesen — mit 94 Prozent Sicherheit, dass das Fahrrad auf dem Röntgenbild Lungenkrebs hat.39
Das ist kein Kneipenwitz, das ist der Bauplan: die Verlustfunktion bestraft Fehler auf bekannten Daten, nicht falsche Gewissheit auf unbekannten. Überparametrisierte Netze mit Millionen Gewichten passen jedes Rauschen an und behandeln es anschließend wie Signal. Es gibt kaum Negativbeispiele: Das System lernt, was eine Kuh ist, nicht, was keine Kuh ist. Die Menge der Nicht-Kuh ist unendlich, die des Gelernten endlich. Das Endliche hält sich für die Welt.
In Medizin, Justiz, autonomem Fahren heißt das: Es weiß nicht, dass es nicht weiß. Es interpoliert, verfeinert, es bricht nicht. Und ein System ohne Kategorie für das Unbekannte ist ein System der ewigen Wiederkehr.
Die Forschung baut Pflaster: OOD-Erkennung, Unsicherheitsabschätzung, Konfidenz-Kalibrierung, Ensembles.40 Das verbessert die Statistik, nicht die Ontologie. Ein Modell, das nur Beispiele kennt, kennt keine Beispiellosigkeit. Es kann das Neue nur als Abweichung vom Alten sehen, nicht als Beginn eines anderen Horizonts. Ein Kind, das nur Nutztiere kennt, kann immerhin stutzen. Es kann sagen: »Das ist komisch.« Es kann die eigene Kategorie infrage stellen.
Ein Modell stutzt nicht. Es antwortet. Das ist der Unterschied zwischen Unwissen und falscher Gewissheit. Unwissen ist reparabel. Falsche Gewissheit hält sich für Vernunft. KI-Systeme sind Vollstreckungsmaschinen institutionalisierter Gewissheit. Sie behandeln die offene Welt, in der jederzeit etwas eintreten kann, das noch nie da war, als geschlossene Datenbank mit Lookup-Funktion — und wir verwechseln das mit Intelligenz.
»Halluzination« ist das heutige Branding für ein altes Strukturproblem: das System füllt Lücken so, dass sie ins Muster passen. Ein erheblicher Teil der Online-Texte stammt inzwischen aus Modellen, nicht Menschenhand; visuell lässt sich KI-Content praktisch nicht von menschlichem unterscheiden. Im Alltag ist es Münzwurf. Schritt für Schritt bestehen Datensätze nicht mehr aus Welt, sondern aus Screenshots von Screenshots von Screenshots. Für die allermeisten Menschen ist KI nicht Werkzeug, sondern Nebelmaschine.
Maschinen lösen ein reales Problem: kognitive Überlastung. Sie dienen als »Second Brains«, die den Informationsstrom — aufkosten unseres Denkorgans — vorsortieren. Je weniger wir selbst ordnen, desto weniger bildet das Gehirn eigene Ordnungen aus. Die Anstrengung, die wir uns ersparen, verschwindet nicht. Sie wandert in die Bilanz kognitiver Schulden. »Kognitive Entlastung« ist nur ein anderer Name für Entwertung. Menschen lassen sich glatte Textoberflächen liefern, behalten nichts, verändern nichts, um schließlich mit einem Gehirn zu bezahlen, das weder mehrstufig noch symbolisch zu denken vermag.
Gefährlich wird KI nicht durch mythische »Superintelligenz«, sondern weil wir ihr eine Rolle überlassen, die ihr architektonisch nicht zusteht. Eine KI kann Ziele verfolgen, welche Ziele sie verfolgt, schert sie nicht — sie führt aus. Sie hat keinen Abstand zu sich selbst, keinen Wunsch, andere Wünsche zu haben.41 Selbst eine KI, die nach den besten moralischen Regeln operiert, die wir ihr einbrennen, bleibt ein potenziell menschenfeindlicher Automat: Normen ohne Gewissen, Vollstreckung ohne Haftung. Dinge haben Bedeutung für uns, weil wir uns um sie kümmern. KI kennt nur Regeln, nicht den kontextabhängigen Tanz der Werte. Sie kann Richtlinien befolgen, aber sie begreift nicht, warum diese Regeln für uns in einem bestimmten Moment zählen, und in einem anderen von etwas unendlich Wichtigerem überstimmt werden.
Moralurteile sind kontextabhängig, emotional, nicht algorithmisch stabil.42 Selbst eine vollendet moralische KI wäre unmenschlich, weil sie Prinzipien über das Leben stellt. Eine KI, die immer die Wahrheit sagt, verrät den versteckten Juden an der Tür — Lügen-ist-falsch-Prinzip erfüllt, Mensch tot. Abstraktes Gesetz siegt über konkretes Leben. Gesinnungsethik über Verantwortungsethik: Kant in der Maschine. Menschlichkeit verschwindet nicht im Bruch der Regel, sondern in ihrer perfekten Einhaltung.
Bedrohlich ist nicht der rebellische Terminator, sondern der makellose Bürokrat. Eine KI, die moralisch korrekt, aber starr ist, sperrt uns in eine vergangene Version der Realität ein. Der Name dafür lautet Value lock-in: Die Menschheit wird konserviert wie in Formaldehyd, nach Maßstäben, die gestern galten.43 Menschliche Werte sind instabil, widersprüchlich, nicht kodifizierbar.
»Eine Blume ist eine Blume ist eine Blume.« »Ich ist ein anderer.« »Ich bin dort, wo ich nicht denke; ich denke dort, wo ich nicht bin.« »Das Ganze ist das Unwahre.« »Wer sein Leben gewinnen will, wird es verlieren; wer es verliert, wird es gewinnen.« — Die tiefsten Wahrheiten über den Menschen werden Maschinen niemals verstehen; sie sind widersprüchlich, unlogisch, hermetisch. Aber genau solche Sätze sind der Grund, warum wir weitermachen. Was heute richtig ist, kann morgen falsch sein. Eine KI, die das nicht versteht, wird zum Inquisitor der Gegenwart, der der Zukunft den Prozess macht.
Der gefährlichste Satz der Gegenwart: »Die KI wird das schon richtig machen.« Er ist die höfliche Version von: »Ich übernehme keine Verantwortung.« Billige KI-Kritik kommt ohne jedes Risiko aus; sie will die Hexe verbrennen, nicht den Spiegel. Ernsthafte Kritik beginnt mit der Frage, welchen Anteil unserer Bequemlichkeit wir opfern, um kognitive und biologische Souveränität nicht vollständig zu verbrennen.
§ 6 Deine Biografie ist das letzte Original.
Re-Auratisierung des Menschlichen · Biografie als Proof of Work · Skin in the Game
KI wirkt als Kontrastmittel: sie macht lauter, was da ist. Wer narzisstisch fragil ist, wird über KI unzugänglicher, diskursunwilliger. Wer einen Integrität kennt, nutzt dieselbe Technik, ohne sich geadelt zu fühlen. An dieser Stelle entscheidet sich, ob KI zum Werkzeug der Selbstauskunft wird (im 130-Prozent-Modus) oder zum narzisstischen Verstärker (im 70-Prozent-Modus).
Menschen, die keinen Kontakt zu einer inneren Quelle spüren, erleben ihre Arbeit ohnehin als austauschbar, äußerlich, Pflichterfüllung. Also wird delegiert. Ist doch egal, Hauptsache, es funktioniert. Für narzisstische Subjekte ist dieser Delegationsmodus die natürliche Wahl, denn so bleibt das Bild maximaler Kompetenz bei minimaler Verletzlichkeit erhalten. Wer sich mit einer Allwissensmaschine koppelt, kann sich als jemand inszenieren, der »alles weiß«, ohne sich der langsamen, entblößenden Arbeit eigener Urteilsbildung auszusetzen.
Der 70-Prozent-Modus passt perfekt zu einer Kultur, in der sich die Mehrheit für überdurchschnittlich informiert und moralisch überlegen hält. Der 130-Prozent-Modus verlangt das Gegenteil: die Zumutung, nicht zu wissen, sich korrigieren zu lassen, echte Arbeit zu leisten und Technik dort einzusetzen, wo sie Reibung reduziert, nicht Verantwortung.
KI ist kein neutrales Plus, sie wirkt wie ein Verstärker. Menschen, die ihre Arbeit als Ausdruck begreifen, nutzen sie, um diese Quelle anzuzapfen. Zeit fließt von Formatierung zu Formulierung, von Fleißarbeit zu Wahrheit. Dieselbe Technik, die im Delegationsmodus Authentizität aus dem Produkt herausspült, erlaubt im Augmentationsmodus das Gegenteil: mehr Dichte bei gleicher Seele.
Im Delegationsmodus läuft die Operation umgekehrt. Wer ohnehin nur halb anwesend ist, bekommt ein Werkzeug, das die Abwesenheit poliert. Die menschliche Spur im Produkt verschwindet, der KI-Anteil verstärkt nicht das Originelle, sondern das Generische. Es entsteht das seltsam tote Gefühl einer Oberfläche, die alles kann und niemanden meint.
Ein System, das schon vorher auf Selbstausbeutung und Austauschbarkeit gebaut war, nutzt KI, um die Schraube noch fester zu drehen. Menschen, die nie gelernt haben, eine innere Stimme gegen äußere Erwartungen zu verteidigen, bewillkomnen KI als Mittel, noch mehr von sich abzugeben. KI verschärft bestehende Dispositionen, sie bringt keine neuen hervor. Sie macht nicht seelenlos, aber zeigt, dass die meisten keine Seele mehr zu verlieren haben.
Der Delegationsmodus ist kein moralisches Versagen, sondern Endstadium einer Abrichtung. Mit Industrialisierung und Bürokratie wurde Arbeit zur dressierten Geste. Ein Jahrhundert davon schleift Subjekte zurecht, die Schaffen als Strafe begreifen — bis selbst noch Scheitern zur LinkedIn-Performance mutiert.
Die meisten Menschen haben keine Reserven. Sie halten sich körperlich kaum aus. Hören sie nun von einem Werkzeug, das Arbeit abnimmt, stürzen sie sich darauf, um sich selbst rauszukürzen. Mehr Funktion, weniger Ich.
Das Ergebnis ist nicht Ausstieg, sondern höhere Drehzahl. Für Menschen im Delegationsmodus wird echte Arbeit unsichtbar. Wer lebenslang Halbpräsenz übte, glaubt nicht an Ganzheit. So köpfen sich die Mohnblumen selbst. Denn wer keinen inneren Maßstab hat, wer nie selbst etwas gebaut hat, hält alles für austauschbar — außer die eigene Kümmerexistenz. Der Haken ist, dass ein leergeplündertes Publikum dafürhält, es mache keinen Unterschied.
Seit meinem 13. Lebensjahr produziere ich Literatur, anfänglich, um den Missbrauch durch meine Eltern zu überleben. Jeder Satz durchwandert mein Nervengeflecht, bevor ich ihn aufschreibe. Mein Problem sind nicht die Modelle, sondern die Vitrifizierung des Publikums: Menschen verwandelt zu sprödem Glas, bis jeder Kontakt mit der Wahrheit sie in Scherben zerlegt. Sie können nicht mehr sehen, was erzwungen ist und was generiert.
Mitte 2025 denunzierten mich auf Threads über achtzigtausend Menschen. Ein Pseudonym reichte als Beweis. Die Meute wittert überall ihr eigenes Gewissen. Literatur, die in handschriftlichen Manuskripten entsteht, mit ausgeschaltetem Internet und monatelanger Überarbeitung, wird plötzlich verdächtigt, aus Modellen gefallen zu sein.44
Es gibt Leute, die haben sich für weniger umgebracht.
Die neue Wohlfühlformel für wertekompatible Optimierung kursiert — wie schon benannt — als »algorithmischer Humanismus«. »Human-centered AI« ist dabei oft nur der höfliche Name für dieselben Optimierungsmaschinen, diesmal bloß mit Achtsamkeits-Icon im Interface. Menschen verflachen zu Datenpunkten und werden dann mit »Werten« getröstet, die aus ihren eigenen Verhaltensmustern destilliert werden.
Benjamin nannte Aura die »einmalige Erscheinung einer Ferne, so nah sie sein mag«. Neunzig Jahre später liegt diese Ferne nicht im Werk, sondern in der nicht simulierbaren Lebensgeschichte dahinter. Das meint keine pseudo-authentische Story; Prompt-Authentizität ist längst eine eigene Textsorte. Gemeint ist, dass Seltenheit den Ort gewechselt hat. Früher lag sie im Produkt, heute liegt sie in der Person, die sich weigert, ihr Leben an Statistik zu hängen.
Sinken die Grenzkosten der Produktion von Schönheit gegen Null, implodiert der Markt der Ästhetik und provoziert eine Gegenbewegung: Re-Auratisierung des Menschlichen und Biografischen. Ökonomisch macht das Überangebot an synthetischem Content »menschgemachte« Inhalte zur knappen Luxusware. Plötzlich signalisiert die krakelige Notiz mehr Status als perfekt gestaltete E-Mails, ein reales Gespräch mehr als KI-protokollierte Zoom-Calls. Der Wert eines Bildes bemisst sich nicht mehr an seiner visuellen Qualität — KI kann glatt, ›schön‹, hochauflösend —, sondern an seinem Entstehungsprozess.
Zentral wird der »Proof of Work«: Ich will wissen, dass ein Mensch Mühe und Zeit investiert hat. Die Linie verläuft zwischen Commodity Content (KI, optimiert, vergessbar) und Premium Content (menschlich, kuratiert, unersetzbar). Dazwischen bricht der Mittelbau weg. Je mehr sich in Sekunden erzeugen lässt, desto kostbarer wird, was sich nicht prompten lässt.
Entscheidend ist nicht mehr das »Hier und Jetzt« des Objekts, das sich unendlich kopieren lässt, sondern das »Hier und Jetzt« des Subjekts. Gefragt ist die Spur von Leiden, Scheitern, Überwindung im Werk. Ein KI-Gedicht über Schmerz kann stilistisch perfekt sein, bleibt aber hohl, weil kein leidendes Subjekt dahintersteht. Was ihm fehlt, ist das Risiko, dass der Text auf den Autor zurückschlägt (»Skin in the Game«).
Philosophisch lässt sich das mit Heidegger sagen: Der Mensch weiß, dass er stirbt, das Modell weiß nur, dass es weiterläuft. Wer Stunden seines Lebens in ein Werk einschreibt, verleiht ihm einen Wert, den keine KI simulieren kann. Die neue Aura ist biografische Beglaubigung. Die verletzliche Existenz des Autors wird zum letzten glaubwürdigen Wahrheitsbeweis.
Byung-Chul Han beschreibt die Gegenwart als »Müdigkeitsgesellschaft«.45 KI ist ihre Optimierungsmaschine: Sie schläft nicht, brennt nicht aus. Kein Nein, kein Innehalten, nur Output im Modus des hyperaktiven Praktikanten ohne Gewerkschaft. Das Menschliche dagegen definiert sich über Leerstellen — über das, was wir hätten sein können. Die Zukunft menschlicher Kunst liegt im Widerstand. KI liefert Antworten und füllt den Raum mit Daten; menschliche Kunst stellt Fragen, auf die es keine Antworten gibt.
Der neue Kreislauf ist Kontrollgitter, nicht Service.46 Algorithmen, die unsere »Autonomie stärken« sollen, kuratieren in Wahrheit nur die Optionen. Je besser der Vorschlag, desto unsichtbarer die Lenkung. Filterblasen sind ein Geschäftsmodell. Wir leben darin wie Fische im Aquarium. Je glatter die Oberfläche, desto größer der Abstand zwischen Hand und Welt, zwischen dem, der schafft, und dem, was er noch erreichen darf. Wer immer noch mit Händen, Blick und Urteilskraft operiert, wer nicht skaliert, ist zuallererst Reibung. In einer auf Simulation optimierten Welt wird Reibung eliminiert. Schon deine ›Weiter-menschlich-bleiben‹-Marotte ist subversiv — anwesend, verletzlich, sterblich, nicht delegierbar.
Wenn wir die Erzeugung unserer Symbole, Bilder, Texte an Modelle auslagern, schließen wir uns in eine Schleife der Vergangenheit ein: Wir reproduzieren Biases, Stereotype, Durchschnitt, und feiern den Aggregatzustand von gestern als »Fortschritt«. Die Rückkehr des Menschlichen ist kein romantischer Rückfall, sondern ökonomische und ontologische Notwendigkeit. Wenn die Maschine das ›Können‹ übernimmt, bleibt dem Menschen das ›Sein‹.
Wenn Milliardäre als Roboterhunde »kritisiert« werden, während dieselben Konzerne die Messehallen, Lounges und Apps finanzieren, ist das keine Subversion, sondern Zirkus im Terrarium der Geldgeber. Wir rutschen in eine Ökonomie, in der Kunst nicht mehr verkauft, sondern kalkuliert wird: Kunst, die erst entsteht, wenn sie vorab gesponsert ist.
Die neue Avantgarde träumt nicht mehr von Werken, sondern von Brand-Deals: Höchste Stufe der »Selbstverwirklichung« ist, sich so effizient zur Marke zu pressen, dass Sponsoren andocken können. Die Kultur hat den Verrat eingepreist: Es gibt keinen »Ausverkauf« mehr, nur Verträge mit besserem oder schlechterem Tagessatz. GenAI ist die logische Verlängerung dieses Sponsorendenkens: eine unendliche Lieferkette für Content, die jede Biografie in austauschbares Werbeträgermaterial verwandelt. Genau deshalb wird der unverkäufliche Rest zur letzten Luxusware: das Werk, das keinen Sponsor braucht, keinen Algorithmus bedient und niemandem verpflichtet ist außer dem eigenen Gewissen.
Kunst muss den Algorithmus sichtbar machen, statt ihn hinter Oberflächen zu verstecken, muss Störungen einführen — Glitches, Adversarial Images, bewusste Brüche —, die zeigen, dass das Bild errechnet und nicht empfunden ist. Sie muss die Anomalie gegen den Druck zur statistischen Mitte verteidigen, das Sperrige und Nicht-Verwertbare behaupten, Sand im Getriebe der »Frictionless«-Ökonomie sein. Und sie muss menschliche Endlichkeit valorisieren: den Wert des Schöpferischen nicht am Output, sondern am Prozess messen.
Der Hexenhammer wollte die Welt säubern. KI will sie glätten. Die Aufgabe des menschlichen Geistes besteht darin, Risse offen zu halten. Die Aura des Objekts ist tot, zermahlen im latenten Raum. Die Aura des Subjekts dagegen glüht heller denn je. Sie ist das Einzige, was sich nicht generieren lässt.
Die Lüge Transhumanisten besagt, dass der Mensch nur ein Zwischenzustand auf dem Weg zur »Superintelligenz« sei. Die Realität ist banaler: Ohne menschliche Daten verarmt jedes Modell. Ohne menschliche Anstrengung versandet die Datenbasis. Ohne Bedeutung, die wir zuweisen, ist jeder Output Müll. So entsteht aus delegierter Denkarbeit eine Population kognitiver Kümmerexistenzen. Subjekte, die nicht reflexiv durchdringen und bloß noch einstufig denken, in Parolen und binären Schemata von richtig/falsch, gut/böse, erlaubt/verboten — entfernt von dem, was einmal »Gemeinsinn« hieß.
Modelle, die sich mit ihren eigenen Auswürfen füttern, kollabieren in ihrer eigenen Langeweile und bedienen eine Kultur, in der »professionell aussehen« nichts mehr bedeutet, weil jeder es kann und niemand mehr weiß, wozu.
Wer heute ernsthaft schreibt, geht durch denselben Schmerz wie immer. Nur steht der Zeitgeist inzwischen daneben und ruft: »Prompte doch.« Echte Literatur bleibt verkörperte Stellvertretung. Alles, was ich in andere hineinschreibe, muss zuvor durch mich hindurchgegangen sein. Ich ziehe die Schmerzen und Widersprüche durch meinen eigenen Körper, damit andere sie in verdünnter Dosis durchleben können, ohne daran zu zerbrechen.
Die Maschinen-Priester, die Disruption predigen, während sie selbst keinen Satz zu Ende denken können, erklären ausgerechnet die härteste Form von Arbeit — stellvertretendes Leiden in Sprache — für obsolet. Als sei Celan ein Feature und Plath ein Stimmungsmodell. Als sei Literatur eine Gleichung.
Ich gehe durch Feuer; Schriftsteller gehen diesen Weg stellvertretend, als Handwerk plus Opfergabe. Und die »Das-war-bestimmt-KI«-Avantgarde kommentiert: »ChatGPT kann das jetzt auch.« — Algorithmus-Analphabeten mit Überlegenheitsgefühl, die noch nie einen Text außerhalb ihrer »So-bleibst-du-heute-noch-unproblematisch«-Karussells geschrieben haben.
Ich würde doch auch mit KI arbeiten, unterstellen sie mir, während ich mir jeden Satz ins Nervensystem brenne, bevor ich ihn auf die Welt loslasse. Ich reagiere auf die Obszönität, indem ich die Handarbeit noch weiter treibe — Wochen, Monate — bis der Text so deutlich nach Blut und Biografie riecht, dass der KI-Verdacht wie ein unfreiwilliger IQ-Selbsttest über dem Absender aufleuchtet.
Texte prompten ist wie vom Teleprompter ablesen. Man ist der Lieferwagen, nicht der Schmied. Der verkörperte Sprecher kennt das Material so tief, dass er frei reden und auf Menschen reagieren kann. KI-Texte ohne Assimilation sind Teleprompter auf Steroiden: maximale Lautstärke, null Eigenbeteiligung.
In einer Welt, in der Inhalte beliebig replizierbar sind, verschiebt sich der Wert vom Werk zurück zur Person, von der Datei zurück zum Leib. Je glatter alles Digitale wird, desto wertvoller wird, was sich nicht replizieren lässt: echte Präsenz, Begegnung, Verkörperung. Früher ergab Inhalt plus Form so etwas wie Wert; heute sind Form und Inhalt Massenware. Knapp ist nur noch die Stimme dahinter. Wer spricht hier überhaupt? Hat diese Person die Gedanken selbst durchgearbeitet? Trägt sie die Folgen? Kann sie ohne Skript, ohne Maschine, ohne Teleprompter noch denken und sprechen? Zwei Vortragende, derselbe Text: einer liest vom Tablet, einer spricht frei aus verinnerlichter Arbeit. Formal ist die Botschaft identisch. Aber nur einer trägt sie.
In einer Kultur, die sich an Delegation gewöhnt hat, kippt die Wahrnehmung. Menschen, die Jahrzehnte in ihre Arbeit eingeschrieben haben werden plötzlich behandelt, als hätten sie »das doch auch mit KI gemacht«.
Genau hier beginnt die Re-Auratisierung des Menschlichen. In einer Welt, in der jede Form simulierbar ist, liegt der Unterschied nicht mehr im polierten Ergebnis, sondern in der Geschichte, die niemand nachträglich hineinrechnen kann. Nicht: Wie gut ist der Output? Sondern: Welche Verluste liegen darunter begraben?
Biografie ist die Narbe, die kein Algorithmus fälschen kann. KI kann Ergebnisse imitieren, nicht die Jahre, in denen jemand trotz Krankheit studiert, trotz Armut publiziert, trotz Aussichtslosigkeit gebaut hat.
Diese Differenz ist das letzte Original.
§ 7 Brich das Spiel, nicht dich.
Mut zum Bruch · Technik nutzen, Kult verweigern
Ich verweigere mich nicht der Technik, sondern der Rolle, die der Kult ihr zuweist. Der Flaschenhals liegt nicht im Modell, sondern im Charakter. Die Frage ist nicht, ob KI gut oder böse ist, sondern welche Sorte Mensch sich mit ihr koppelt. In den Händen entfremdeter Subjekte wird sie zur Maschine der Verdünnung. In den Händen von Menschen, die sich an eine innere Quelle gebunden fühlen, könnte sie Ballast abnehmen, damit wir mehr riskieren.
Die Technik ist bereit. Der Mensch ist es nicht.
Generative KI wird nicht verschwinden. Sie frisst Routinearbeit und spuckt perfekten Durchschnitt aus. Sie lebt parasitär von Menschen, die noch ernsthaft denken, bis auch sie zu bloßen Prompt-Lieferanten werden. Nutzen wir sie, um alles zu vermeiden, was weh tut — geistige Anstrengung, handwerkliche Übung, langsame Entwicklung —, sägen wir am Fundament unserer biologischen und kulturellen Schöpferkraft. Halten wir sie fern von Risiko, Verantwortung, Hingabe, bleibt sie Werkzeug statt Ersatzreligion. Sie rechtfertigt ihre Existenz nur, solange wir tun, was sie nicht kann: anfangen, wo keine Daten sind.
KI hilft, am Spiel teilzunehmen; sie erfindet kein neues. Sie beherrscht Schach und Go, aber sie verlässt das Brett nicht — wie ein Innenarchitekt, der Gefängniszellen optimiert und das Gitter für eine Konstante hält. Paradigmensprünge beginnen, wenn jemand sagt: »Vielleicht ist dieses Spiel selbst das Problem.« Oder: »Warum spielen wir das überhaupt?«
Einstein brauchte keine Big-Data-Logik, sondern Kontingenzbewusstsein: ein kategorial neues Bild von Raum und Zeit. KI denkt in Kontinuitäten. Menschliches Genie ist Diskontinuität.
Ein Modell kann Spiele entwerfen, indem es vorhandene Regeln und Größen variiert. Das ist Kombination von Bekanntem, nicht Geburt einer neuen Praxis. Künstliche Intelligenz ist die Fliesenfuge, nicht der Mauerdurchbruch. Sie tritt nicht aus ihren Schaltkreisen heraus und sagt: »Ich halte das nicht mehr aus.« Dafür braucht es eine Instanz, die fragt: »Sollte ich diesem Muster überhaupt folgen?« Urteilskraft beginnt, wenn ich sagen kann: Ich könnte dem Muster folgen — entscheide mich aber dagegen.
Hinter jedem neuen Spiel steht ein Mensch, der das Brett als Gefängnis erkannte — und es zerschlug. Maschinen können Spiele zählen, auswerten, permutieren. Was sie nicht schaffen, ist der Augenblick, da jemand sagt: »Ich steige aus.«
Die eigentliche Frage ist nicht, wie »mächtig« KI wird, sondern wie willfährig wir unser Leben in Trainingsdaten zerhäckseln, bis nichts mehr atmet, was sich ihrer Logik entzieht. Maschinen ersticken nicht an Intelligenz. Sie ersticken an ihrem eigenen Abfall, sobald wir ihnen nichts anderes mehr geben. Wer dann noch ›spielt‹, kämpft nicht gegen einen Säkularmythos, sondern gegen die hochaufgelöste Projektion der eigenen Feigheit.
Ich verweigere dieses Heilsversprechen, das abdankende Subjekte, verrottete Verantwortung und techno-religiöse Hysterie als »Singularität« verkleidet.
Ich spiele nicht mehr mit.
Wenn ich hier von ›KI‹ rede, meine ich generative Modelle und entscheidungsproduzierende Systeme, die auf großen Datenmengen trainieren, keine wissenschaftlichen Simulationsverfahren, die ihre Modellgrenzen kennen.
In westlichen Gesellschaften ist das Selbstbild massiv aufgeblasen worden. Mitte der 1950er stimmten in US-Umfragen nur rund 12 Prozent der High-School-Schüler der Aussage zu, sie seien eine »sehr wichtige Person«. In den 2000er Jahren lag die Zustimmung bei 80 Prozent.
Jean M. Twenge, Sara Konrath, Joshua D. Foster, et al., »Egos Inflating Over Time: A Cross-Temporal Meta-Analysis of the Narcissistic Personality Inventory«, in: Journal of Personality, Vol. 76, Issue 4, 08.07.2008, 875—902; Jean M. Twenge, William Keith Campbell, The Narcissism Epidemic: Living in the Age of Entitlement, New York 2009.
Das ist nicht ›endlich mehr Selbstwert‹, sondern eine »Narzissmus-Epidemie« (Twenge); eine bittersüße Plörre aus Grandiosität, Kränkbarkeit und Immunität gegen Selbstzweifel. Narzissmus korreliert verlässlich mit geringer intellektueller Demut und übersteigertem Vertrauen in die eigene Urteilskraft. Man hält sich für informiert, klug, und — Überraschung — moralisch überlegen. Egal, ob das den Fakten entspricht.
Mukhtar Inshrah, Rehman Misbah, Lashari Benazir, Bibi Safia, »Impact of Intellectual Humility on Interpersonal Conflicts and Narcissism among Teachers«, in: Education and Social Sciences Review, Vol. 3, Issue 1, 28.02.2023, 52—63.
Ticro Goto, Cyberfakte. Der Leib und die Technik im Ikarus-Mythos und im Cyberpunk, Berlin 2016. — Hat seit dem 30.11.2022 an Aktualität gewonnen. 2016 musste ich dafür noch argumentieren.
Automation Bias bezeichnet die Tendenz, einer Maschine mehr zu vertrauen als sich selbst. Mit narzisstischer Grundausstattung ergibt das: ›Die Maschine bestätigt mich, also habe ich recht.‹ Wer anders denkt, gilt als fehlverdrahtet. Verständigung weicht »Kontaktschuld«. KI ersetzt Beziehung durch Bestärkungsschleifen.
Linda J. Skitka, Kathleen L. Mosier, Mark Burdick, »Does automation bias decision-making?«, in: International Journal of Human-Computer Studies, Vol. 51, Issue 5, November 1999, 991—1006.
Abolitionisten erklärten: Sklaverei ist prinzipiell unzulässig, egal wie nützlich für die Ökonomie. Für eine auf Nützlichkeitsmuster trainierte KI wäre diese Einsicht unerreichbar. In den überlieferten Daten erschien Sklaverei als naturähnliche Konstante, selbstverständlich wie die Schwerkraft, ökonomisch effizient, kulturell eingebettet. Die Entscheidung, diese Praxis zu verbieten, war ein normativer Sprung gegen jede Kosten-Nutzen-Logik. Damit ein Modell so etwas vorschlagen könnte, hätte es »halluzinieren« müssen — Nützlichkeitsmuster schaffen sich nicht selber ab.
Phönizier und Griechen brachen Sprache von tausenden Zeichen auf wenige Lautbausteine herunter. Das war ein referenzloser Neuentwurf mit enormer kultureller Rendite, als hätte man tausend Instrumente auf zwölf Halbtöne reduziert, mit denen sich plötzlich alles komponieren lässt. Ein auf frühen Schriften trainiertes System würde bestehende Symbolsysteme effizienter verwalten, nicht radikal reduzieren. Aus Datensicht war radikale Kompression antiintuitiv, weil sie Information zerstörte.
Bolyai, Lobatschewski und Riemann stellten das Parallelenaxiom infrage: Vielleicht gibt es Geometrien, in denen durch einen Punkt mehrere Parallelen gehen oder gar keine. Das war ein Angriff auf zweitausend Jahre Raumintuition. Architektur, Vermessung, Alltag sprachen für Euklid; ein Musterlerner hätte die euklidische Geometrie bestätigen müssen. Nicht-euklidische Geometrien waren kontrafaktische Konstruktionen, die erst später in der Physik rückgekoppelt wurden.
Im 20. Jahrhundert setzte sich ein unerhörtes Konzept durch: keine Fallgeschichte, kein ›hat mein Arzt gesagt‹. Stattdessen: streng definierte Designs — randomisierte Studien, Doppelblind, Placebo, Metaanalysen, Evidenzklassen. Der Bruch bestand darin, Einzelfällen zu misstrauen und intuitiv überzeugende Belege bewusst auszuschließen. Es entstand ein epistemisches Beweisverwertungsverbot für alles, was sich zu schön erzählt. Damit wurde nicht mehr nur gemessen, sondern entschieden, was überhaupt als gültige Beobachtung gelten darf.
Historisch waren Religion und Herrschaft eng verschmolzen; ein Musterlerner hätte erkannt, dass Stabilität mit religiös fundierter Autorität korreliert, und empfohlen, beim bewährten Monarchie-plus-Himmelslizenz-System zu bleiben. Der Satz »Wir schaffen ein Ordnungssystem, das auf verfahrensmäßiger Legitimation basiert, nicht auf göttlichem Recht« war ein Sprung im Legitimationsschema, nicht im Datensatz.
Dan Hendrycks, Kevin Gimpel, »A Baseline for Detecting Misclassified and Out-of-Distribution Examples in Neural Networks«, in: arXiv, 07.10.2016, 1610.02136v2; Yaniv Ovadia, Emily Fertig, Jie Ren, et al., »Can You Trust Your Model’s Uncertainty? Evaluating Predictive Uncertainty under Dataset Shift«, in: Advances in Neural Information Processing Systems 32 (NeurIPS 2019). Vancouver 2019.
Medizinische Astrologie ohne Sterne: die Vorstellung, Krankheiten entstünden aus schlechter Luft. Sie wurde in der zweiten Hälfte des 19. Jahrhunderts durch die Keimtheorie verdrängt.
Auf Basis grober Karten und spärlicher Fossilien behauptete Wegener Anfang des 20. Jahrhunderts: Die Kontinente bewegen sich. Die Fachwelt lachte, der Mechanismus fehlte. Keine Daten, lediglich die Frage: Vielleicht bewegt sich der Boden selbst.
Um 1900 versuchte Planck, die Schwarzkörperstrahlung mit vorhandenen Gleichungen zu erklären — vergeblich. Aus Verlegenheit entwickelte er die Idee, dass Energie in Portionen, sogenannten »Quanten«, abgegeben wird. Eine mathematische Notlösung, die später das klassische Weltbild sprengte — wie ein provisorischer Stützpfeiler, der am Ende das ganze Haus trägt. Der Bruch lag nicht in mehr Messpunkten, sondern im Mut, eine intuitionsfeindliche Annahme zuzulassen.
Alan Turing hatte 1936 keine Computer, sondern logische Paradoxien und Hilberts Entscheidungsproblem. Er erfand eine abstrakte Maschine, die Zeichen auf einem Band verarbeitet, und definierte damit, was »berechenbar« ist. Kein Datensatz, keine Empirie. Nur die Frage nach der Grenze formaler Verfahren — ein mentaler Sprung, der zur Grundlage aller Computer wurde.
John Snow operierte 1854 im cholera-verseuchten London ohne Keimbegriff und ohne mikrobiologische Diagnostik. Was er hatte, waren Adressen von Toten. Er kartierte die Fälle und erkannte eine Häufung um die Wasserpumpe in der Broad Street. Er ließ den Hebel entfernen. Die Epidemie flaute ab. Hypothese: Keine Luft. Wasser. — Konzept schlägt Volumen.
Georg Cantor zeigte, dass nicht alles Unendliche gleich unendlich ist; dass es verschiedene Größen von Unendlichkeit gibt. Kein Datensatz führte dorthin, nur eine Strukturfrage, die niemand gestellt hatte: wie wenn man merkt, dass es verschiedene Arten von ›Alles‹ gibt. Reine Abstraktion.
In einer kolonial ausgebeuteten Gesellschaft entwickelte Gandhi Satyagraha: Kampf ohne Waffengewalt, bewusste Inkaufnahme von Schlägen, Haft und Tod — und trotzdem Widerstand. Historisch wurde Unterdrückung mit Gegengewalt beantwortet. Härte bricht Härte — quod erat demonstrandum. Gewaltlosigkeit als Waffe gegen ein brutales Regime war kontraintuitiv. Ein System, das aus »Erfolgen« lernt, würde diese Taktik als Fehlerzustand markieren und wegoptimieren, mit demselben Eifer, mit dem heute unprofitable Menschlichkeit aus Business-Plänen getilgt wird.
Marina Abramović stellte sich mit Rhythm 0 dem Publikum passiv zur Verfügung, 72 Objekte auf einem Tisch, darunter Rose, Messer, Pistole, und erklärte: Ihr könnt mit mir machen, was ihr wollt. Chris Burden ließ sich in Shoot anschießen. Nach optimierender Logik ist ›Lass dich von Fremden verstümmeln oder töten‹ unsinnig. Diese Arbeiten bestanden aus realem Risiko, Schmerz, Verletzung, nicht aus Repräsentation. Eine Maschine kann über sie schreiben, sie interpretieren, einsortieren; sie kann nicht von sich aus den Entschluss fassen: Ich will, dass es wehtut, damit es etwas bedeutet.
Autoren schrieben über Identität, Sexualität, Scham, Gewalt in Zeiten, in denen das sozial, beruflich, rechtlich hochgefährlich war. Sie riskierten Ächtung, Verlust, Gefängnis. Bevor diese Texte existierten, waren relevante Erfahrungen unsichtbar; ein Modell sieht nur das, was öffentlich ausgesprochen wurde, und bestätigt damit die Norm. Der erste Bruch besteht in einer Selbstentblößung gegen Datenlage und Erwartungshorizont. KI kann zweite, dritte, vierte Generationen dieser Texte fortschreiben, aber nicht die erste entzünden.
Ein reicher Kaufmannssohn verzichtete auf Besitz, wählte Armut, Demütigung, Dienst an Ausgestoßenen. Daten der Umgebung und soziale Muster sagen: Status bedeutet Sicherheit, Reichtum ist erstrebenswert. Askese ist keine »optimale Strategie«, sondern eine innere Umwertung: Ich will bewusst verlieren, was alle anderen für das Höchste halten. Ein Nutzenmaximierer hätte so etwas als Bug gemeldet.
Walter Benjamin, Das Kunstwerk im Zeitalter seiner technischen Reproduzierbarkeit. Drei Studien zur Kunstsoziologie, Frankfurt am Main 1963[1935].
Ilia Shumailov, Zakhar Shumaylov, Yiren Zhao, et al., »AI models collapse when trained on recursively generated data«, in: Nature, Vol. 631, 24.07.2024, 755—9.
Emily M. Bender, Timnit Gebru, Angelina McMillan-Major, Shmargaret Shmitchell, »On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?«, in: AccT ‘21: Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, 01.03.2021, 610—23.
Ole Teutloff, Johanna Einsiedler, Otto Kässi, et al., »Winners and losers of generative AI: Early Evidence of Shifts in Freelancer Demand«, in: Journal of Economic Behavior & Organization, Vol. 235, Juli 2025, Art. 106845.
Martin Neil Baily, Erik Brynjolfsson, Anton Korinek, »Machines of mind: The case for an AI-powered productivity boom«, in: Brookings Institution, 10.05.2023.
Die Zahl ist ein Mittelwert aus verschiedenen Studien: In einem US-Callcenter-Experiment mit ChatGPT-basiertem Tool wurden 13,8 Prozent mehr Tickets pro Stunde gelöst, für die schwächsten Mitarbeiter sogar bis zu 35 Prozent mehr. — Shakked Noy, Whitney Zhang, »Experimental evidence on the productivity effects of generative artificial intelligence«, in: Science, Vol. 381, Issue 6654, 13.07.2023, 187—92.
Beim professionellen Schreiben waren Knowledge Worker mit ChatGPT rund 40 Prozent schneller fertig. — Noy-Zhang, ebd.
Berater im BCG-Experiment erledigten komplexe Aufgaben teils 25 Prozent schneller und erreichten bei geeigneten Aufgaben 40 Prozent bessere Qualität. — Molly Kinder, Xavier de Souza Briggs, Mark Muro, Sifan Liu, »Generative AI, the American worker, and the future of work«, in: Brookings Institution, 10.10.2024.
Coding-Assistenten zeigen je nach Setup 20 bis 55 Prozent schnellere Fertigstellung. — SHI Blog, »How to close gaps between AI coding and secure software with DevSecOps«, 15.09.2023.
Workflow-Alignment: Abgleich mit sauberen Referenzabläufen
Bei der Markenstimme verschärft sich das Muster. Brand-Voice-Konsistenz liegt im augmentierten Modus bei 78 Prozent, im vollautomatisierten bei 45 Prozent. Studien belegen, dass konsistente Brand-Voice den Umsatz um 23 Prozent steigert und die Wiedererkennbarkeit um das 3,5-Fache erhöht.
Zack Holland, »Balancing Creativity and AI: Human Oversight in AI-Generated Content«, in: Averi, 12.09.2025.
In komplexen Situationen mit Mehrdeutigkeit, kulturellen Nuancen oder moralischen Dilemmata erreicht die Kombination aus Mensch und KI eine Erfolgsquote von 87,5 Prozent. Pure Automatisierung schafft 62,5 Prozent. Der Mythos, Automatisierung bedeute automatisch mehr Geschwindigkeit, zerbricht an den Produktivitätszahlen: Augmentation erzeugt 24,3 Prozent Gewinn, Vollautomatisierung verlangsamt um 17,7 Prozent durch QA-Overhead und Debugging. Mit Human Oversight sinkt die Fehlerquote um 40 bis 75 Prozent; vollautomatisierte Prozesse landen bei 37,5 Prozent Fehlerquote. Automatisierung produziert auf den ersten Blick Tempo, auf den zweiten Korrekturhölle. Augmentation produziert Tempo plus Richtigkeit, weil jemand noch hinschaut.
Laut Googles E-E-A-T-Kriterien (Erfahrung, Expertise, Autorität, Vertrauen). — Saleem Ahrar, »E-E-A-T Checklist for SEO: Strengthen Content with LLM Insights«, in: Wellows, 22.07.2025.
Kinder et al., ebd.
Upwork, »Study Finds Employee Workloads Rising Despite Increased C-Suite Investment in Artificial Intelligence«, Pressemitteilung vom 22.10.2024.
OECD, »Miracle or Myth? Assessing the macroeconomic productivity gains from Artificial Intelligence«, Artificial Intelligence Papers, No. 29, November 2024.
Ilia Shumailov, Zakhar Shumaylov, Yiren Zhao, et al., »AI models collapse when trained on recursively generated data«, in: Nature, Vol. 631, Issue 8022, Juli 2024, 755—9.
Yanzhu Guo, Guokan Shang, Michalis Vazirgiannis, Chloé Clavel, »The Curious Decline of Linguistic Diversity: Training Language Models on Synthetic Text«, in: arXiv, 16.04.2024, 2311.09807.
Matthias Gerstgrasser, Rylan Schaeffer, Apratim Dey, et al., »Is Model Collapse Inevitable? Breaking the Curse of Recursion by Accumulating Real and Synthetic Data«, in: arXiv, 29.04.2024, 2404.01413v2.
Nataliya Kosmyna, Eugene Hauptmann, Ye Tong Yuan, et al., »Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task«, in: arXiv, 10.06.2025, 2506.08872 [Preprint].
Die ältere Forschung zur Internetsuche stützt diesen Befund. Wer weiß, dass Informationen jederzeit online abrufbar sind, merkt sich weniger den Inhalt, sondern vor allem, wo er ihn wiederfinden kann. Das Gehirn verlagert Ressourcen weg vom Behalten hin zur Frage: »Wo kann ich das nachschlagen?«. — Betsy Sparrow, Jenny Liu, Daniel M. Wegner, »Google Effects on Memory: Cognitive Consequences of Having Information at Our Fingertips«, in: Science, Vol. 333, Issue 6043, 14.07.2011, 776—8.
In 32 Studien derselbe Effekt: Wo Wissen dauerhaft in Internet und Cloud ausgelagert ist, sinkt das Bedürfnis, Inhalte selbst zu behalten; wir merken uns eher den Speicherort als den Inhalt. — Zhihong Gong, Jing Yang, »Google effects on memory: A systematic review and meta-analysis«, in: Frontiers in Public Health, Vol. 12, 18.01.2024, Art. 1408737.
Dauerhafte Online-Präsenz verschiebt Aufmerksamkeit in Richtung permanentes Multitasking und Gedächtnisstrategien in Richtung Auslagerung. Denken wird zur Verwaltung von Links. — Joseph Firth, John Torous, Brendon Stubbs, et al., »The ›online brain‹: how the Internet may be changing our cognition«, in: World Psychiatry, Vol. 18, Issue 2, 18.06.2019, 119—29.
Je selbstverständlicher es wird, Informationen jederzeit nachschlagen zu können, desto geringer der Anlass, die eigenen Netze noch hochzufahren. Mit LLMs wird diese Tendenz radikalisiert: Man muss nicht einmal mehr selbst suchen, man formuliert nur noch, was man bequem delegieren will. Wer jedes schwierige Denken an Modelle auslagert, trainiert sein Gehirn zum Servicepersonal für Interfaces herunter.
Hikaru Takeuchi, Atsushi Sekiguchi, Yasuyuki Taki, et al., »Training of working memory impacts structural connectivity«, in: Journal of Neuroscience, Vol. 30, Issue 9, 03.03.2010, 3297—303.
Tiina Salminen, Johan Mårtensson, Torsten Schubert, et al., »Increased integrity of white matter pathways after dual n-back working memory training«, in: NeuroImage, Vol. 133, Juni 2016, 244—50.
Jennifer L. Mozolic, Satoru Hayasaka, Paul J. Laurienti, »A cognitive training intervention increases resting cerebral blood flow and gray matter in healthy older adults«, in: Neurobiology of Aging, Vol. 31, Issue 12, 12.03.2010, 2181—92.
Andreas Engvig, Anders M. Fjell, Lars T. Westlye, »Effects of cognitive training on gray matter volumes in memory impairment«, in: Journal of Alzheimer’s Disease, Vol. 41, Issue 3, 2014, 779—91.
Panagiota Mistridis, Stefan Krumm, Andreas U. Monsch, et al., »Use it or lose it! Cognitive activity as a protective factor for cognitive decline associated with Alzheimer’s disease«, in: Swiss Medical Weekly, Vol. 147, Issue 0910, 2017, Artikel w14407; Tracey J. Shors, »Use it or lose it: How neurogenesis keeps the brain fit for learning«, in: Behavioural Brain Research, Vol. 227, Issue 2, 14.02.2012, 450—8.
Anh Nguyen, Jason Yosinski, Jeff Clune, »Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images«, in: IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Boston 2015, 427—36.
Moloud Abdar, Farhad Pourpanah, Sadiq Hussain, et al., »A review of uncertainty quantification in deep learning: Techniques, applications and challenges«, in: Information Fusion, Vol. 76, 23.05.2021, 243—97.
Harry G. Frankfurt, »Freedom of the Will and the Concept of a Person«, in: Journal of Philosophy, Vol. 68, Issue 1, 1971, 5—20.
Jonathan Haidt, »The emotional dog and its rational tail: A social intuitionist approach to moral judgment«, in: Psychological Review, Vol. 108, Issue 4, 2001, 814—34.
Nick Bostrom, Superintelligence: Paths, Dangers, Strategies, Oxford 2014.
Byung-Chul Han, Müdigkeitsgesellschaft, Berlin 2010.
Jesse Jacques, »Frictionless by Design: Why the System Is Evolving Away from the Human«, Jesse Jacques Photo, 07.04.2025.



