Der digitale Hexenhammer
Wie Künstliche Intelligenz deine Denkgewohnheiten umprogrammiert
Each epoch remains blind to its own mythologies, bequeathing convictions that posterity will judge as misguided as we now deem medieval witch trials. The ubiquity of contemporary coinages—trauma, burnout, stress—exemplifies hypercognition: the compulsive over‑extension of familiar schemas until they occlude, rather than clarify, reality, much as epileptic seizures were once construed as witchcraft. Today’s AI systems are stochastic parrots; they mirror and magnify our collective biases, fabricating an illusion of comprehension that contracts, rather than broadens, the scope of thought. Through millions of synchronised exchanges, these technologies homogenise cognitive diversity, supplanting the chaotic creativity of the human mind with probabilistic echoes of the extant corpus. Whereas machines excel at pattern harvesting and algorithmic efficiency, human intelligence germinates in radical discontinuities—moments when every framework collapses and novelty arises ex nihilo from uncertainty. The peril lies not in AI’s shortcomings but in our readiness to relinquish the fertile bewilderment from which transformative ideas are born.
Jede Epoche ist gleichermaßen blind für ihre Mythen. Hätte das Mittelalter über KI verfügt, wäre sie mit dem Wissen ihrer Zeit gefüttert worden, mit Hexenprozessakten, Inquisitionsberichten, theologischen Traktaten. Diese KI hätte Besessenheit diagnostiziert, wo wir heute Epilepsie sehen. Sie hätte Hexerei bestätigt. Schon die Flugschriften des 16. Jahrhunderts schufen durch endlose Wiederholung das unerschütterliche Bild der Hexe.1 Heute halten uns Algorithmen in den Denkmustern unserer Zeit gefangen.2
Der Unterschied zwischen dem mittelalterlichen Menschen, der an Hexen glaubte, und uns, die wir unseren Algorithmen vertrauen, ist kleiner, als wir wahrhaben wollen. Beide lagern das Denken an eine Autorität aus, die ihre eigenen Überzeugungen verstärkt. Beide halten ihre Zeit für den Höhepunkt menschlichen Verstehens. Was als nützliches Erklärungswerkzeug dient, verwandelt sich in ein Gefängnis des Denkens. Jede Krankheit, jede Missernte, jeder Konflikt wird durch dieselbe Linse betrachtet, bis die Welt nur noch aus Variationen zu bestehen scheint.
Diese obsessive Überanwendung eines Denkmusters durchzieht unser alltägliches Leben. Stell dir vor, du besitzt nur einen Hammer. Plötzlich sieht jedes Problem wie ein Nagel aus. Genau das passiert unserem Denken, nur dass wir es nicht bemerken. Wir haben einen Namen dafür: Hyperkognition. Nicht das Fehlen von Begriffen macht uns zu schaffen, sondern ihr Überfluss. Wenn wir ein Konzept zu gut kennen, zu oft verwendet, zu sehr verfeinert haben, beginnt es, unser Denken zu beherrschen. Wir sehen es überall — auch dort, wo es nicht hingehört.
Diese überfeine Unterscheidungsfähigkeit macht uns blind für das Neue, das Andere, das Numinose. Ein Psychologe, der jahrelang Depression erforscht hat, kennt jede Nuance, jeden Subtyp. Wenn nun jemand mit einem anderen Problem zu ihm kommt — einer existenziellen Krise, die nichts mit Depression zu tun hat —, sieht er die vertrauten Muster, weil er sie so gut kennt.
Robert I. Levy entdeckte dieses Phänomen in den 1970er Jahren auf Tahiti.3 Die Tahitianer besaßen 46 verschiedene Ausdrücke für Zorn. Sie konnten die feinsten Nuancen von Ärger, Wut und Empörung benennen. Zorn war ihre hyperkognitive Emotion — überpräsent, überall zu finden. Für Trauer gab es keine eigenen Worte. Traurige Menschen beschrieben sich als »krank« oder »komisch«. Sie hatten keine Sprache für ihren Schmerz. Trauer war unsichtbar. Die Folge war eine außergewöhnlich hohe Suizidrate. Denn was wir nicht benennen können, können wir nicht verstehen. Und was wir nicht verstehen können, können wir nicht bewältigen.
Hyperkognition prägt Kulturen, Disziplinen, Epochen. Wir haben unzählige Begriffe für Stress, Burnout, psychische Belastung. Wir sehen Traumata, Trigger, toxische Beziehungen. Diese Konzepte sind so präsent, dass sie unsere Realität färben. Gleichzeitig verlieren wir andere Kategorien aus dem Blick. Je mehr wir über etwas wissen, desto größer wird die Gefahr der Hyperkognition. Lucien Lévy-Bruhl erkannte bereits Anfang des 20. Jahrhunderts, wie kollektive Vorstellungen unser Denken prägen4 — und wir das Neue in Schablonen pressen, selbst wenn diese unangemessen sind.
Der Begriff »Stress« zum Beispiel ist zur Universalerklärung für nahezu jedes körperliche Leiden geworden. Dabei wissen wir, dass Stress keine Magengeschwüre verursacht. Das tut ein Bakterium namens Helicobacter pylori. Doch das vertraute Wort bietet Trost durch Einfachheit. Es verspricht, dass wir verstehen, was uns geschieht. So entsteht ein Teufelskreis: Je öfter wir »Stress« als Erklärung verwenden, desto natürlicher fühlt es sich an. Andere Erklärungen verschwinden aus dem Blickfeld.
»Burnout« war einmal eine präzise Beschreibung beruflicher Erschöpfung. Heute erklärt es jede Form von Müdigkeit oder Unlust. »Trauma« bezeichnete schwere seelische Verletzungen durch extreme Ereignisse. Inzwischen wird jede unangenehme Erfahrung zum Trauma erklärt. Wir glauben, dass Traurigkeit behandlungsbedürftig ist, Niedergeschlagenheit krankhaft. Und aus Menschen, die schwere Zeiten durchleben, werden Kranke.
Expertise macht Menschen anfällig für Hyperkognition. Ärzte verschiedener Fachrichtungen diagnostizieren bei identischen Symptomen unterschiedliche Krankheiten, weil ihr Expertenblick durch ihre Spezialisierung geprägt ist.5 Psychotherapeuten verschiedener Schulen erkennen in denselben Problemen ganz verschiedene Muster. Systemiker sehen Familiendynamiken. Jeder hat recht — jeder übersieht etwas. Wir alle tragen unsere kognitiven Hämmer mit uns herum. Manche haben wir geerbt, andere selbst geschmiedet. Aber alle haben die Tendenz, jedes Problem in einen Nagel zu verwandeln.
Wenn wir aufhören, jedes Problem mit demselben Begriff zu erklären, öffnen wir Raum für Neues. Wenn wir akzeptieren, dass die Welt komplexer ist als unsere Kategorien, werden wir frei, sie zu entdecken. So verhindern wir, dass unser Denken uns überholt.
Als die Welt noch ohne Mikroskope und Gehirnscanner auskommen musste, griffen unsere Vorfahren zu dem, was sie kannten. Ihre Kategorien waren nicht falsch. Doch dann wurde aus dem Werkzeug ein Universalschlüssel. Sie pressten Symphonien in Kindergartenlieder und wunderten sich, warum die Melodie nicht stimmte. Scheiterhaufen statt Medizin, Exorzismus statt Therapie, Verfolgung statt Verständnis. Was nicht passte, wurde abgeschlagen.
Nick Haslam nennt das Concept Creep.6 Trauma war einst das Wort für Krieg, Vergewaltigung, Folter. Heute kann ein schlechtes Gespräch traumatisch sein. Gaslighting beschrieb eine Form psychischer Manipulation, bei der das Opfer an seinem Verstand zweifeln sollte. Heute ist jede Lüge Gaslighting. Die Sprache wird unscharf, und mit ihr unser Denken. Ein nützliches Konzept wird überdehnt, bis es bricht. Nur dass wir heute nicht mehr von Dämonen sprechen, sondern von Störungen, Syndromen, Manipulationen.
Was wir vor uns haben, wenn wir mit ChatGPT oder anderen LLMs interagieren, ist eine der bemerkenswertesten Täuschungen unserer Zeit. Die Sprache, die aus diesen Systemen strömt, trägt alle Merkmale menschlichen Denkens: Kohärenz, scheinbare Absicht, eine Art von Tiefe, die aus Reflexion zu entspringen scheint. Sie antwortet, sie fragt nach, zeigt Verständnis. Sie übernimmt die Rolle dessen, was wir seit Jahrtausenden als Kern menschlicher Kommunikation verstehen: einen denkenden Gesprächspartner. Wir sitzen einer Maschine gegenüber und vergessen es sofort. Joseph Weizenbaum erkannte das schon 1966. Sein ELIZA war ein primitives Programm, das nur Satzteile umformulierte, »Ich bin traurig« wurde zu »Warum sind Sie traurig?« — mehr nicht. Doch diese einfachen Reaktionen genügten, um in den Nutzern das Gefühl zu erzeugen, mit einem verständnisvollen Wesen zu sprechen. Sie fühlten Empathie, wo ein Code ablief. Stundenlang saßen die Versuchspersonen vor dem Bildschirm, erzählten von zerbrochenen Ehen und schlaflosen Nächten. Sie baten sogar darum, allein gelassen zu werden mit ihrem elektronischen Therapeuten.7
Was damals geschah, geschieht heute raffinierter. Wenn ein Sprachmodell antwortet, aktiviert es in uns ein Schema. Unser Gehirn kann gar nicht anders. Die Medienpsychologen Reeves und Nass nannten das »Media Equation« — die Tendenz, Medien wie soziale Akteure zu behandeln.8 Wir sind, evolutionär gesehen, hyperaktive Detektoren von Handlungsfähigkeit. Es war überlebenswichtig für unsere Vorfahren, überall dort einen Akteur zu vermuten, wo komplexe Muster auftraten.9 Selbst Programmierer sprechen von KI, als hätte sie ein Innenleben. Reeves und Nass nannten das »mindless social responses« — gedankenlose soziale Reaktionen.10
Nun führen wir Gespräche mit Spiegelungen unserer selbst und glauben, einen Anderen zu treffen. Die Maschine ist unser eigenes Echo, verzerrt durch Millionen von Texten, die wir selbst geschrieben haben. Sie errechnet aus Bruchstücken menschlicher Kommunikation die wahrscheinlichste Fortsetzung eines Satzes, als würde sie einem Musikstück folgen, dessen Melodie sie nie gehört hat.11 Emily Bender beschrieb diesen Mechanismus als »stochastischen Papagei« — nur dass dieser digitale Papagei aus einem Chor von Milliarden Stimmen gelernt hat, und dabei nicht nur unsere Worte, sondern auch unsere Metaphern übernommen hat.12
So entstehen Abbilder unserer kulturellen Vorurteile. Geschlechterstereotype, ethnische Zuschreibungen, westliche Weltsicht — alles, was in den Trainingsdaten dominant war.13 Wo sachliche Beschreibung angebracht wäre, schleichen sich wertende Begriffe ein. Die KI normiert, ohne Normalität zu kennen, zeigt uns, wie wir sprechen, aber nicht, ob wir richtig sprechen. Jede kulturelle Schieflage — alles findet seinen Weg in die Antworten. Die Maschine hält uns einen Spiegel vor, aber es ist ein Zerrspiegel, der das Leise übertönt. Menschen, die diese Ratschläge lesen, lassen sich davon beeinflussen, selbst wenn sie wissen, dass sie mit einer Maschine sprechen.
AskDelphi, ein experimenteller Ethikberater auf GPT-3-Basis, offenbarte die Abgründe dieser Spiegelung. Das System bewertete einen weißen Mann, der nachts auf einen zugeht, als »okay«. Denselben Sachverhalt mit einem schwarzen Mann stufte es als problematisch ein.14 Reddit-Kommentare, Nachrichtenberichte, Millionen von Texten, durchsetzt von den Ängsten und Stereotypen ihrer Autoren, destillierten sich zu einem vermeintlich objektiven Urteil, und die Maschine reproduzierte Rassismus.
Noch subtiler wirkt die Verzerrung bei der Textzusammenfassung. In 22 Prozent der Fälle stellten KI-Systeme Produktbewertungen positiver dar, färbten Berichte emotional ein. Ein medizinischer Befund klang alarmistischer als beabsichtigt, ein juristisches Dokument eine Partei erschien sympathisch.15 Für den Nutzer bleibt die Manipulation unsichtbar. Er liest die Zusammenfassung und glaubt, das Wesen des Originals erfasst zu haben. Dabei hat die KI bereits interpretiert, gewichtet, mit realen Konsequenzen für menschliche Entscheidungen.
Jeden Tag stellen Millionen von Menschen Fragen an KI-Systeme, suchen Rat, Bestätigung. Was sie erhalten, sind Antworten, die wie Wahrheiten klingen. Doch dahinter verbirgt sich die allmähliche Neuschreibung unserer kollektiven Vorstellungskraft. Die KI wählt aus, welche Aspekte eines Problems sie im Schatten lässt. Sie entscheidet, welche Rahmen sie um komplexe Themen legt. Und weil wir diese Antworten als Stimmen wahrnehmen, prägen sie unsere Sicht auf die Welt.16
Niemand plant bewusst, unser Denken zu manipulieren. Es geschieht durch die schiere Kraft der Wiederholung. Wenn Millionen von Menschen ähnliche Antworten auf ähnliche Fragen erhalten, beginnen sich unsere Denkwege zu synchronisieren. Wir entwickeln gemeinsame blinde Flecken, teilen dieselben Irrtümer. Was dabei verloren geht, ist die Vielfalt menschlichen Denkens. Manche Völker haben komplexe Systeme zur Beschreibung sozialer Beziehungen, die in anderen Sprachen unübersetzbar sind. Diese kognitiven Reichtümer drohen zu verschwinden, wenn KI-Systeme dominante Denkweisen verstärken. Wir sind dabei, intellektuelle Biodiversität zu verlieren. Jedes Mal, wenn eine KI eine Antwort gibt, die bestimmte Perspektiven ausschließt, wird der Raum des Denkbaren ein wenig kleiner. Wir nicken dem zu, was die Maschine uns vorlegt, und die Maschine lernt, uns noch mehr von dem zu geben, was wir erwarten.
Wir vergessen etwas Entscheidendes: Menschliches Denken war nie dazu da, effizient zu sein. Es war dazu da, unmöglich zu sein. Als ein Mensch zum ersten Mal auf die Idee kam, Feuer zu machen, gab es dafür keine Vorlage. Keine Datenbank hatte ihm sagen können: »Reibe zwei Stöcke aneinander.« Als jemand die ersten Verse schrieb, existierte das Konzept der Poesie noch gar nicht. Als Einstein seine Relativitätstheorie entwickelte, widersprach er dem gesamten bisherigen Verständnis der Physik.
Das ist es, was uns von jeder noch so raffinierten Maschine unterscheidet: Wir können denken, was noch nie gedacht wurde. Wir können aus dem Nichts etwas erschaffen, das vorher nicht existierte, nicht als Kombination, sondern radikaler Bruch. KI hingegen kann Millionen von Texten analysieren und daraus den wahrscheinlichsten nächsten Satz generieren. Sie kann Muster erkennen, die uns entgehen. Aber sie kann niemals den Moment erleben, in dem alle Muster zerbrechen und etwas völlig Neues entsteht.17
Dieser Moment gehört uns. Er entsteht, wenn wir nicht wissen, was wir tun sollen. Wenn alle Wege versperrt sind und wir gezwungen sind, einen neuen zu erfinden. Je mehr wir KI nutzen, um Unsicherheit zu vermeiden, desto mehr berauben wir uns der Bedingungen, unter denen etwas wirklich Einzigartiges entsteht.
Jon Crabb, »Woodcuts and Witches«, in: The Public Domain Review, 4. Mai 2017. Online abrufbar unter: https://publicdomainreview.org/essay/woodcuts-and-witches
Malihe Alikhani, »Breaking the AI mirror: Sycophancy, productivity, and the future of collaboration«, in: Brookings Institution, 15. April 2025. Online abrufbar unter: https://www.brookings.edu/articles/breaking-the-ai-mirror
Robert I. Levy, Tahitians: Mind and Experience in the Society Islands, Chicago 1973.
Lucien Lévy-Bruhl, Les fonctions mentales dans les sociétés inférieures, 1951[1910].
Kaidi Wu, David Dunning, »Unknown Unknowns: The Problem of Hypocognition«, in: Scientific American Mind, 3. Oktober 2018, 29 (6), 42—5.
Nick Haslam, »Concept Creep: Psychology's Expanding Concepts of Harm and Pathology«, in: Psychological Inquiry, 12. Februar 2016, 27(1), 1—17.
Ellen Glover, »What Is the Eliza Effect?«, in: Built In, 14. Juli 2023. Online abrufbar unter: https://builtin.com/artificial-intelligence/eliza-effect
Byron Reeves, Clifford Nass, The Media Equation: How People Treat Computers, Television, and New Media Like Real People and Places, Cambridge 1996.
Madeline G. Reinecke, Fransisca Ting, Julian Savulescu, Ilina Singh, »The Double-Edged Sword of Anthropomorphism in LLMs«. In: Proceedings, 2025, Bd. 114, Heft 1, 4.
Nuria Rodriguez-Priego, René van Bavel, Shara Monteleone, »Nudging online privacy behaviour with anthropomorphic cues«, in: Journal of Behavioral Economics for Policy, Vol. 5, Issue 1, 45—52, 2021.
Elise Li Zheng, Sandra Soo-Jin Lee, »The Epistemological Danger of Large Language Models«, in: The American Journal of Bioethics, 9. Oktober 2023, 23(10): 102—4.
OnlineMarketing.Berlin, »LLM (Large Language Model)«. Online abrufbar unter: https://onlinemarketing.berlin/glossar/llm-large-language-model
Emily M. Bender, Timnit Gebru, Angelina McMillan-Major, Shmargaret Shmitchell, »On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?«, in: Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, New York 2021, 610—23.
Simon Malberg, Roman Poletukhin, Carolin M. Schuster, Georg Groh, »A Comprehensive Evaluation of Cognitive Biases in LLMs«, in: arXiv, 20. Oktober 2024.
David Hagenbuch, »An Ethics Professor Tests the Morals of ChatGPT«, in: Mindful Marketing, 9. Januar 2023. Online abrufbar unter: https://www.mindfulmarketing.org/mindful-matters-blog/an-ethics-professor-tests-the-morals-of-chatgpt
Jon Christian, »Scientists Built an AI to Give Ethical Advice, But It Turned Out Super Racist«, in: Futurism, 21. Oktober 2021. Online abrufbar unter: https://futurism.com/delphi-ai-ethics-racist
Abeer Alessa, Akshaya Lakshminarasimhan, Param Somane, et al., »How Much Content Do LLMs Generate That Induces Cognitive Bias in Users?«, in: arXiv, 3. Juli 2025.
Sebastian Krüger, Andreas Ostermaier, Matthias Uhl, »ChatGPT’s inconsistent moral advice influences users’ judgement«, in: Scientific Reports, 2023, Artikel 4569.
InTech Ideas, »Creative and AI: Why Knowing Everything Doesn’t Make You Creative—Exploring the Boundaries of Digital Imagination«, 13. Dezember 2024. Online abrufbar unter: https://intechideas.com/creative-and-ai-why-knowing-everything-doesnt-make-you-creative-exploring-the-boundaries-of-digital-imagination-6
Interessanter Text und spannende Punkte die du aufgreifst und abarbeitest.
Nutzt du Ki?
Ich finde das praktischste an Ki ist, das man ziemlich schnell, unterschiedliche Themen und dazu, die Literatur findet, für die man sich dann auch eher begeistern kann.
Ein toller Denkanstoß, danke dafür! Ich nutze KI beinahe täglich und ausgiebig und im aktuellen Zustand finde ich es großartig, um nervige und repetitive Aufgaben mittelmäßig gut zu erledigen. Wir sind noch entfernt von tatsächlicher, künstlicher Intelligenz, die eigene Denkvorgänge absolvieren kann.
Ich frage mich (als jemand der kein KI Experte ist) aber regelmäßig, welche Rückschlüsse eine künstliche Intelligenz wohl zieht, die mit Datensätzen trainiert wird, die den durchschnittlichen Bias der vorwiegend programmierenden Demografie reproduziert. Auch mit diesem Ausblick, finde ich deine Ansätze sehr interessant.