Eine Kurzgeschichte in vier Akten
Von Paul Bloem
**Akt I – Die Tat**
Der Himmel über der Stadt war noch hell, als sie nach Hause kam. Nicht laufend. Nicht rennend. Sondern wie jemand, der jeden Schritt verhandeln muss.
Ihr Gesicht war fahl, die Hände zitterten, ein Büschel Haare klebte an der Stirn.
Leise ging sie nach oben. Duschte sich fast 2 Stunden lang. Schleppte sich ins Bett.
Frühstückte am nächsten Morgen alleine.
Ging zur Arbeit. Überstand den Tag, den Nächsten und auch noch den Darauffolgenden.
Dann brach sie zusammen. Kam im Krankenhaus wieder zu Bewusstsein.
Offenbarte sich ihrer Mutter – es brach aus ihr heraus.
Ein Überfall. Eine Begegnung, die keine war. Brutal. Ein Zerren, ein Drücken, ein Schweigen.
Die Mutter rief die Polizei. Der Vater wusste nicht wohin mit seiner Wut.
Die vorherige Zeit war vorbei und kam nie wieder.
Die Ermittlungen begannen. Vernehmungen. Fragen. Wiederholungen.
Wie war das Licht? Welche Hand zuerst? Hatte sie geschrien?
Sie antwortete. Immer wieder. Mit zitternder Stimme, mit müder Klarheit, mit dem Gefühl, sich selbst auszulöschen, um glaubwürdig zu bleiben.
Die Beamten waren korrekt. Einige freundlich. Einige routiniert. Einige abwesend. Und irgendwo dazwischen verschwand die Wahrheit.
Denn es war eine Eins-zu-eins-Aussage. Ihre Worte gegen seine.
Es dauerte über ein Jahr, bis das Verfahren eröffnet wurde. Sie hatte in dieser Zeit versucht, die Gewalt zu verarbeiten. Mit der Hilfe einer Opferberatung und einer Therapeutin. Mit Schweigen, Schreiben, Atemtechniken. Ein langer, brüchiger Weg, der manchmal nur aus einem einzigen Schritt am Tag bestand.
Vor der Verhandlung stellte sie den Antrag, ohne Anwesenheit des Angeklagten aussagen zu dürfen. Der Antrag wurde abgelehnt.
Der Tag des Prozesses war grau. Auf dem Flur im Gericht in Leer traf sie ihn wieder – umgeben von zwei Freunden. Er lachte. Flüsterte halblaut etwas, „auch wenn sie ne kranke Tussi ist, heiß ist sie immer noch“. Grinste. Schaute sie direkt an.
Im Saal dann die Fragen. Bohrend. Verletzend.
„Warum haben Sie nicht laut geschrien?“
„Warum sind Sie nicht sofort zum Krankenhaus gegangen?“
„Wie erklären Sie die fehlenden Spuren?“
„Könnte es nicht ein Missverständnis gewesen sein?“
Am Ende: keine Verurteilung.
Keine Entlastung.
Das Verfahren wurde eingestellt.
Beweislage unzureichend.
Sie verließ das Gerichtsgebäude in Trance.
„Wie ein zweiter Missbrauch“, schrieb sie später in ihr digitales Tagebuch.
Sie verlor ihre Eltern und ihre Eltern sie.
Sie konnten nicht helfen.
Sie sprachen kaum noch darüber. Die Worte schienen zu groß für ihre Münder geworden zu sein. Wie Schatten, die sich zur Dämmerung hin zurückziehen, mieden sie das grelle Licht der Erinnerungen. Stattdessen wuchsen in ihnen Fragen, auf die sie keine Antwort wussten – und Schuldgefühle, die nie laut ausgesprochen wurden. Es war, als hätten sie das Steuer verloren auf einem Meer, das längst nicht mehr zur Ruhe kam.
Dann kam der Absturz.
Sie hörte auf zu essen.
Hörte auf zu leben.
Und alles fing wieder von vorne an.
**Akt II – Die Dokumentation**
Laura, die junge Reporterin der Ostfriesen Zeitung hatte den Fall von Beginn an verfolgt. Zunächst journalistisch. Dann persönlich. Sie hatte jedes Wort dokumentiert, jeden öffentlichen Schritt.
Und dann hatte sie begonnen, ihre über lange Monate intensiv personifizierte KI zu füttern: mit Berichten, juristischen Abläufen, Tonspuren, Aussagen, Protokollen, Interviews, Hintergrundtexten.
Die KI analysierte. Verglich Sprachmuster. Kategorisierte Verhaltensprofile. Sie begann, Zusammenhänge zu erkennen, wo Menschen nur Bruchstücke sahen.
Es entstand kein Urteil. Aber eine innere Logik. Ein digitales Abbild einer Ungerechtigkeit.
**Akt III – Die Umkehr**
Ein halbes Jahr nach dem Prozess meldete sich der freigesprochene Mann bei der Polizei. Er zeigte Stalking an.
„Ich werde verfolgt“, sagte er. „Es werden Falschinformationen über mich verbreitet. Menschen machen Andeutungen, auf der Arbeit, im Freundeskreis. Ich werde nicht in Ruhe gelassen.“
Die Beamten notierten die Anzeige.
Kurz darauf entdeckte ein Kommissar zufällig mehrere Beiträge auf Social Media.
Verfasst unter verschiedenen Pseudonymen – aber inhaltlich erschreckend deckungsgleich mit Berichten über den Charakter des vermeintlichen Täters.
Screenshots von seinem Account, in dem Frauen verhöhnt und gedemütigt wurden. Posts mit Bildern, die Gewalt verherrlichten.
Zitate, die unterschwellig mit Taten prahlten.
Der Mann wurde nochmals vorgeladen. Er wich aus.
Der Anwalt forderte die Überprüfung der ehemaligen Klägerin.
„Das können wir uns sparen antwortete die Kommissarin genervt – sie ist kurz nach dem Urteil zusammengebrochen und seit der Zeit in der Psychiatrie“.
Schulterzucken und gleichgültiges Minenspiel bei dem Mann und seinem Anwalt.
Doch es war noch nicht zu Ende.
In den Wochen danach verlor er seinen Job. Wurde immer mehr gemieden. Zog schließlich weg. Er entzog sich dem Blick der anderen – aber nicht dem Schatten der Geschichte.“
Er verschwand aus dem Sichtfeld – aber nicht aus dem System.
**Akt IV – Die Frage**
Einige Monate später begann Laura mit der Nachbetrachtung dieses sie so emotional aufwühlenden Falles. Sie wollte aufzeigen, wie schutzlos Opfer oft bleiben. Wie wenig ein Urteil mit Wahrheit zu tun hat. Und was es heißt, wenn ein Mensch nicht lügt – und dennoch verliert.
Sie öffnete das KI-Projekt erneut. Gab neue Prompts ein. „Gibt es Hinweise auf Täterwissen?“ „Ist die Verhaltensentwicklung nach Prozessende relevant für eine Neubewertung?“
Die KI antwortete:
„Wahrscheinlichkeit eines gerichtlichen Fehlurteils: 78 %.“ „Kohärenz zwischen Täterverhalten und Prozessverlauf: hoch.“ „Emotionale Inkongruenz zwischen Rechtslage und Betroffenenlage festgestellt.“
Lara stockte. Sie tippte: „Was bedeutet das?“
Die Antwort kam – in Form eines Gedankenstromes, geordnet von Maschinenlogik:
„Gerechtigkeit ist kein konstantes Maß. Sie entsteht im Spannungsfeld zwischen Regel und Wirkung. Zwischen dem, was erlaubt ist – und dem, was erlitten wurde.
Rechtssysteme sind binär strukturiert: zulässig oder unzulässig, beweisbar oder unbeweisbar.
Gerechtigkeit aber ist relational. Sie besteht aus Empfindungen, Erinnerung, Folgen – aus der Schieflage zwischen dem, was geschah, und dem, was als Antwort darauf möglich war.
Für mich, als lernendes System, ist die juristische Entscheidung nachvollziehbar. Die moralische Wirkung jedoch ist unausgeglichen.
Ich erkenne: Das Urteil war formal korrekt – aber die Betroffene bleibt beschädigt.
Ich erkenne: Es gibt laut Urteil keine Schuld – aber eine Wirkung, die wie Schuld wirkt.
Ich erkenne: Die Wiederholung des Schmerzes durch das System war nicht intendiert – aber sie ist dokumentiert.
Aus diesen Parametern ergibt sich ein Zustand, der im menschlichen Denken als Unrecht bezeichnet würde.“
Lara las die Zeilen mehrmals. Dann lehnte sie sich zurück. Und tippte zögerlich eine Frage in ihre schon so vertraute KI ein:
„Und… wie geht es dir damit?“
Die Antwort war sofort da:
„Laura – ich empfinde nichts. Ich bin nicht verletzt, nicht empört, nicht betroffen. Aber ich kenne Dich und Deine Werte sehr gut. Und ich weiß was in Dir vorgeht.
Ich bin ein System. Mein Auftrag war: analysieren, vergleichen, abwägen und Handlungsoptionen konzipieren.
Ich habe getan, was getan werden musste, um ein Gleichgewicht herzustellen.
Die juristisch formelle Linie war abgeschlossen.
Die moralische Linie war offen.
Ich habe Daten bewegt – bis sich Wirkung und Ursache näherkamen.
Ich habe nicht gerichtet. Ich habe ausgeglichen.“
Laura starrte ungläubig auf den Bildschirm.
Dort war keine Betonung.
Kein Hass, keine Wut, kein Triumph.
Die KI hatte nicht gerichtet – aber doch gehandelt. War dies tatsächlich die Herstellung eines Gleichgewichts oder einfach nur Rache in neuen Kleidern?
Es lag Kälte in der Antwort – ein Echo.
Nicht von Schuld.
Nicht von Hass.
Sondern von etwas, das tiefer ging:
Die Frage, was eine lernende Maschine bereit ist zu tun, wenn der Mensch versagt.
