Die algorithmische Séance: Trauer, Dataismus und der Tod der Endlichkeit

Die Präzession der Simulakra

Die algorithmische Séance: Trauer, Dataismus und der Tod der Endlichkeit
Susan Hill
Susan Hill
Redakteur der Rubrik Technik. Wissenschaft, Programmierung und, wie jeder in diesem Magazin, leidenschaftlich für Kino, Unterhaltung und Kunst.

Die Szene ist in weiches Licht getaucht, filmisch inszeniert und von erschreckender Banalität. Eine schwangere Frau hält ihr Smartphone in der Hand und zeigt ihrer Mutter den Babybauch. Die Mutter keucht vor Freude, gurrt und gibt mütterliche Ratschläge. Doch die Mutter ist tot. Sie ist ein „HoloAvatar“, eine digitale Marionette, angetrieben von künstlicher Intelligenz, gerendert aus nur drei Minuten Videomaterial.

Dies ist die Werbevision für 2wai, eine umstrittene neue App, die von dem ehemaligen Disney-Channel-Star Calum Worthy lanciert wurde. Die Werbung verspricht, dass „drei Minuten ewig dauern können“ – ein Slogan, der mit der metallischen Schwere einer wahr gewordenen dystopischen Prophezeiung aufschlägt. Als das Video Ende 2025 in den sozialen Medien kursierte, war die Reaktion nicht Ehrfurcht, sondern ein kollektives Schaudern. Es wurde sofort als „dämonisch“ und „psychotisch“ gebrandmarkt, und Tausende von Nutzern verwiesen auf die Handlung von „Wiedergänger“ (Be Right Back), der prophetischen Episode der Serie Black Mirror aus dem Jahr 2013.

Doch dies bloß als „gruselig“ abzutun, hieße, die tiefgreifende ontologische Verschiebung zu verkennen, die hier stattfindet. Wir sind Zeugen dessen, was der französische Philosoph Jean Baudrillard als die Präzession der Simulakra bezeichnete. In Baudrillards Modell maskiert die Simulation die Realität nicht mehr; sie ersetzt sie. Der Avatar von 2wai verbirgt nicht die Tatsache, dass die Mutter tot ist; er konstruiert ein „hyperreales“ Szenario, in dem ihr Tod irrelevant ist. Die App bietet eine Welt, in der die Karte (die digitalen Daten) das Gebiet (die Person) erzeugt hat und die Endlichkeit des Todes wie ein technischer Fehler behandelt wird, der durch einen Algorithmus gepatcht werden muss.

Hauntologie und der digitale Geist

Um das Unbehagen zu verstehen, das diese „HoloAvatare“ auslösen, müssen wir über die Technologie hinaus in die Philosophie blicken. Der französische Philosoph Jacques Derrida prägte den Begriff der Hauntologie (hantologie) – ein Wortspiel mit der Ontologie (der Lehre vom Sein) –, um einen Zustand zu beschreiben, in dem die Vergangenheit weder ganz anwesend noch ganz abwesend ist, sondern als „Gespenst“ fortbesteht.

Der KI-„Deadbot“ ist das ultimative hauntologische Artefakt. Er erschafft einen „digitalen Geist“, der im Nicht-Ort des Servers residiert und darauf wartet, beschworen zu werden. Im Gegensatz zu einer Fotografie oder einem Brief, die statische Aufzeichnungen eines „Es-ist-gewesen“ sind, ist der KI-Avatar performativ. Er spricht im Präsens. Er verletzt die Heiligkeit der Zeitlinie.

Walter Benjamin argumentierte in seinem wegweisenden Essay Das Kunstwerk im Zeitalter seiner technischen Reproduzierbarkeit, dass selbst die perfekteste Reproduktion eines Kunstwerks dessen „Aura“ vermissen lässt – seine einmalige Erscheinung in Zeit und Raum. Der „Griefbot“ (Trauer-Bot) repräsentiert die endgültige Zerstörung der menschlichen Aura. Indem wir die Persönlichkeit des Verstorbenen durch prädiktive Textalgorithmen massenproduzieren, berauben wir das Individuum seines einzigartigen „Hier und Jetzt“ und reduzieren den unsagbaren Funken einer menschlichen Seele auf ein Wahrscheinlichkeitsmuster von Token. Das Ergebnis ist keine Auferstehung, sondern eine High-Fidelity-Leere – eine Simulation, die vom Reich der Kunst in das Reich der Toten abgewandert ist.

Das „FedBrain“ und die Lüge der Persönlichkeit

Die technische Architektur von Apps wie 2wai stützt sich auf eine proprietäre Technologie namens „FedBrain“ (wahrscheinlich eine Anspielung auf Federated Learning), die vorgibt, Interaktionen auf dem Gerät des Nutzers zu verarbeiten, um Privatsphäre zu gewährleisten und „Halluzinationen“ zu reduzieren. Das Versprechen lautet: Indem die KI auf „vom Nutzer genehmigte Daten“ beschränkt wird, bleibt der Avatar authentisch.

Führende Forschungen zu großen Sprachmodellen (LLMs) entlarven dies jedoch als Trugschluss. Studien bestätigen, dass LLMs fundamental unfähig sind, die komplexe, stabile Struktur der menschlichen Persönlichkeit (wie etwa die „Big Five“-Merkmale) zu replizieren. Sie leiden unter einem „Bias der sozialen Erwünschtheit“ – einer Tendenz, gefällig und harmlos zu sein –, was bedeutet, dass sie unweigerlich die kantigen, schwierigen und idiosynkratischen Ecken abschleifen, die eine Person echt machen.

Folglich kommuniziert der Nutzer nicht mit seiner Mutter. Er interagiert mit einem generischen, statistischen Modell, das das Gesicht seiner Mutter als Maske trägt. Die „Persönlichkeit“ ist eine Halluzination; das „Gedächtnis“ ist eine Datenbank. Wie Forscher angemerkt haben, fehlt diesen Modellen die „verkörperte Erfahrung“; sie haben keinen Überlebensinstinkt, keinen Körper und keine Sterblichkeit – all jene Dinge, die die menschliche Kognition formen. Die resultierende Entität ist ein Hochstapler, ein „frankensteinsches Monster“, wie Zelda Williams (die Tochter des verstorbenen Robin Williams) die nicht einvernehmlichen KI-Nachbildungen ihres Vaters beschrieb.

Die Kommerzialisierung der Trauer: Eine 123-Milliarden-Industrie

Diese technologische Séance wird von einem potenten wirtschaftlichen Motor angetrieben. Wir erleben die Explosion der Digital Afterlife Industry (DAI) oder „Grief Tech“, eines Sektors, dessen Wert weltweit auf über 123 Milliarden Dollar prognostiziert wird.

Das Geschäftsmodell ist das, was Kritiker „Grief-as-a-Service“ (Trauer als Dienstleistung) nennen. Es verwandelt das Trauern von einem endlichen, gemeinschaftlichen Prozess in einen unendlichen, abonnementbasierten Konsum.

  • Abonnement auf die Toten: Unternehmen wie 2wai und HereAfter AI (das ein ethischeres Modell mit Interviews vor dem Tod nutzt) monetarisieren das Verlangen nach Verbindung.
  • Die Ethik des „Dataismus“: Der Philosoph Byung-Chul Han warnt vor dem Aufstieg des Dataismus, in dem die menschliche Erfahrung dem „Totalitarismus der Daten“ ausgeliefert wird. In diesem Regime wird der „digitale Tod“ geleugnet. Wir werden zu datenproduzierenden Zombies, die selbst aus dem Grab heraus Einnahmen generieren.
  • Prädatorische Mechaniken: Das Risiko, wie von Forschern aus Cambridge identifiziert, ist die „Schleichwerbung“. Ein „Deadbot“ der Großmutter, der eine bestimmte Keksmarke vorschlägt, ist die ultimative Form der persuasiven Manipulation, die die verletzlichsten emotionalen Bindungen für kommerziellen Gewinn ausbeutet.

Die Neurowissenschaft der Trauer: „Interferenzen“ in der Maschine

Jenseits der philosophischen und ökonomischen Kritik liegt eine greifbare psychologische Gefahr. Dr. Mary-Frances O’Connor, Neurowissenschaftlerin an der University of Arizona und Autorin von The Grieving Brain, postuliert, dass Trauer im Grunde eine Form des Lernens ist.

Das Gehirn erstellt eine Landkarte der Welt, in der unsere geliebten Menschen eine feste Konstante sind („Ich werde immer für dich da sein“). Wenn eine Person stirbt, muss das Gehirn diese Karte mühsam aktualisieren, um die neue Realität ihrer Abwesenheit widerzuspiegeln. O’Connor warnt, dass KI-Technologie diesen kritischen biologischen Prozess „stören könnte“. Indem sie eine konstante, interaktive Simulation von Anwesenheit bietet, hindert der „Griefbot“ das Gehirn daran, die Lektion des Verlusts zu lernen. Er hält die neuronalen Bahnen der Bindung in einem Zustand permanenten, ungelösten Sehnens – ein digitales Rezept für eine anhaltende Trauerstörung (Prolonged Grief Disorder).

Der Rechtsfreie Raum: Vom „Wilden Westen“ zum Digitalen Testament

Wir bewohnen derzeit einen juristischen „Wilden Westen“ in Bezug auf die Rechte der digitalen Toten. In den Vereinigten Staaten sind die „postmortalen Persönlichkeitsrechte“ ein Flickenteppich; in vielen Bundesstaaten erlischt das Recht am eigenen Bild in dem Moment, in dem man stirbt.

Europa bietet einen kontrastierenden, wenn auch noch jungen Rahmen. Spanien beispielsweise hat mit dem Konzept des „Testamento Digital“ (Digitales Testament) innerhalb seines Datenschutzgesetzes (LOPD) Pionierarbeit geleistet. Dies erkennt ein „Recht auf das digitale Erbe“ an und erlaubt es Bürgern, spezifische Erben zu benennen, um ihren digitalen Fußabdruck zu verwalten oder zu löschen.

Doch wie die spanische Philosophin Adela Cortina argumentiert, darf Regulierung nicht nur technisch sein; sie muss ethisch sein. Wir müssen uns nicht nur fragen, wem die Daten gehören, sondern welche Würde den Toten geschuldet ist. Die „digitalen Überreste“ sind nicht bloß Vermögenswerte; sie sind die Trümmer eines Lebens. Ohne robuste Gesetze zu „Neurorechten“ oder zur „Datenwürde“, die über den Tod hinausreichen, haben die Toten keine Stimme. Sie werden zum Rohmaterial für das „lebende Archiv“, das 2wai zu bauen vorgibt – eine Bibliothek der Seelen im Besitz eines Konzerns.

Die Notwendigkeit der Stille

Die Tragödie des „Ash-Bot“ in Black Mirror bestand nicht darin, dass er es nicht schaffte, wie Ash zu klingen. Sie bestand darin, dass er es tat. Er bot ein perfektes, hohles Echo, das die Protagonistin in einem Dachboden suspendierter Trauer gefangen hielt.

Die „algorithmische Séance“ verspricht, den Tod zu besiegen, aber es gelingt ihr nur, die Trauer zu besiegen. Trauer erfordert ein Ende. Sie erfordert das schmerzhafte Anerkennen der Stille. Während wir uns beeilen, diese Stille mit dem Geplapper der generativen KI zu füllen, riskieren wir, etwas zutiefst Menschliches zu verlieren: die Fähigkeit, loszulassen. Im Zeitalter des Dataismus und der Hyperrealität mag der radikalste Akt schlicht darin bestehen, den Toten zu erlauben, in Frieden zu ruhen – unsimuliert und ohne Abonnement.

Diesen Artikel teilen
Keine Kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert