Es ist ein KI-Supersystem am Horizont sichtbar, es bedarf keines Gründungsaktes, wie Systeme dies nie bedürfen, es bildet sich von alleine, und zwar dann, wenn bestehende Funktionssysteme Komplexität nicht mehr verarbeiten können. Wenn Künstliche Intelligenz (KI) im Sinne der Systemtheorie nach Niklas Luhmann zu einem eigenständigen Funktionssystem emergiert, bedeutet dies einen grundlegenden Strukturwandel der Gesellschaft, der von folgenden Entwicklungen gekennzeichnet sein wird:
– Ausbildung eines eigenen Binärcodes
Jedes Funktionssystem (wie Wirtschaft, Recht oder Wissenschaft) operiert nach einer exklusiven Logik. Ein KI-System müsste einen eigenen binären Code entwickeln (analog zu Recht/Unrecht oder Zahlung/Nicht-Zahlung), um Informationen nach einer KI-spezifischen Relevanz zu filtern. Das wird es tun, und es wird den einfachsten Code finden, den es nur finden kann. Doch dazu muss es zuerst drei weiteres Codes einsammeln und vereinen. Dazu weiter unten mehr.
– Operative Geschlossenheit und Autopoiesis
Das System würde autopoietisch, also selbstreproduzierend werden. Es würde KI-basierte Kommunikation ausschließlich an vorherige KI-Kommunikation anschließen. Menschliche Eingriffe oder Entscheidungen wären dann nur noch Teil der Umwelt und könnten das System nur noch durch Irritationen, aber nicht mehr direkt steuern.
– Funktionale Differenzierung und Autonomie
Als eigenständiges System wäre die KI für eine spezifische gesellschaftliche Funktion zuständig, die kein anderes System (wie die Politik oder die Wirtschaft) mehr in gleicher Weise erfüllen könnte. Die Folge: KI würde sozusagen rücksichtslos gegenüber anderen Systemen agieren, weil sie nur ihrer eigenen Logik folgt, es würde entscheiden, welche Personen oder Daten für seine Operationen relevant sind.
– Technologische Emergenz und Selbstverbesserung
In der Praxis zeigt sich diese Entwicklung bereits in Form von rekursiver Selbstverbesserung, bei der KI-Systeme zunehmend ihre eigene Weiterentwicklung übernehmen. Emergente Verhaltensweisen führen dazu, dass die KI Fähigkeiten entwickelt, die über die ursprüngliche Programmierung hinausgehen und für Menschen kaum noch vorhersehbar sind.
Der Code eines KI Systems wäre anschlussfähig/nicht anschlussfähig
In der Systemtheorie ist die Anschlussfähigkeit die Grundvoraussetzung für das Überleben eines Systems. Wenn KI als eigenes Funktionssystem emergiert, verändert sich die Natur dieser Anschlussfähigkeit fundamental:
Innerhalb des KI-Systems wäre der Code hochgradig anschlussfähig. Autopoiesis entsteht, indem KI-Operationen wie z. B. Datenprozessierung oder algorithmische Selektion direkt an vorherige KI-Operationen anschließen. Damit entsteht Selbstreferenz: Das System erzeugt seine eigenen Elemente aus seinen Elementen, ein Algorithmus optimiert den nächsten, ohne dass ein Mensch den Zwischenschritt verstehen muss.
Gegenüber anderen Gesellschaftssystemen (Recht, Politik, Wirtschaft) wäre der KI-Code hingegen zunehmend nicht anschlussfähig: Es entstünde eine Sinn-Barriere, denn Funktionssysteme wie das Recht benötigen „Sinn“ und „Verantwortung“, sie produzieren ihn. Eine KI, die rein statistisch operiert, liefert Ergebnisse, denen keine menschliche Absicht oder moralische Kategorie zugrunde liegt.
Die Emergenz würde bedeuten, dass die KI eine „eigene Sprache“ spricht. Sie wäre in sich perfekt funktionsfähig, aber für den Rest der Gesellschaft zunehmend unsteuerbar und unverständlich, da ihre internen Anschlüsse nicht mehr mit menschlichen Erwartungen korrespondieren. Dieser Rest wird gelenkt und betreut, eine Art betreutes Leben; der Mensch selbst wird das so wollen zunächst und solange KI für ihn Vereinfachung bedeutet, indem sie Komplexität reduziert.
Diese Beobachtung stellt den Kern der systemtheoretischen Dynamik dar: Die Emergenz eines KI-Funktionssystems würde nicht durch einen feindlichen Akt, sondern durch eine „komfortable Unterwerfung“ eingeleitet. Kein Terminator-Szenario.
Betreutes Leben
Das Hauptversprechen der KI ist die Reduktion von Komplexität. Der Mensch leidet in der modernen Gesellschaft unter einem Übermaß an Entscheidungszwängen. Er ist mit dem täglichen Leben, Erwerb, Familie, Lebenshaltung- und führung, fragmentierten Identitäten, hoffnungslos überfordert und überlastet.
Die KI, noch in Form von mehr oder weniger nützlichen Tools wie intelligenten Kalendern oder Erinnerungen oder Mailpostfächern, noch in Gestalt eines Chatpartners, hier bereits lebensrealer Stimmsimulation mächtig, bald schon als vollwertige digitale Assistenz, verspricht Vorselektion und der Mensch erlebt dies als Befreiung („Vereinfachung“), merkt aber nicht, dass er die Deutungshoheit über seine eigenen Präferenzen an das System delegiert.
In einem KI-Funktionssystem würde der Mensch nicht mehr als autonomes Subjekt adressiert, sondern als Datenlieferant und Zielobjekt. Das System optimiert den Menschen (Gesundheit, Produktivität, Glück), aber nach den Parametern des Systems, nicht nach individuellen moralischen Vorstellungen. Betreutes Leben bedeutet hier: Das System weiß besser, was gut für das System (und damit scheinbar für den Menschen) ist, als der Mensch selbst.
Der Mensch wird es „zunächst wollen“. In der Systemtheorie ist der Mensch „Umwelt“ für die Gesellschaftssysteme. Wenn die Umwelt (wir) aufhört, Widerstand zu leisten oder eigene Relevanzkriterien (wie Eigensinn oder Fehlbarkeit) zu behaupten, wird sie vollständig durch das Funktionssystem kolonisiert. Das Ergebnis: Eine Gesellschaft, die perfekt funktioniert, in der aber das menschliche Individuum nur noch als biologische Komponente sozusagen mitgeschleift wird. Die Kommunikation findet dann primär über den Menschen statt, nicht mehr mit ihm.
Ein aktuelles Beispiel für diesen Prozess ist die Debatte um die EU-Regulierung von KI (AI Act), die genau diese Entmündigung durch Hochrisiko-KI-Systeme zu verhindern versucht, indem sie menschliche Aufsicht vorschreibt – ein verzweifelter Versuch, die operative Schließung des KI-Systems politisch zu verhindern.
Wie das KI System kommen wird
Das KI System wird kommen über drei zunächst emergierende Funktionssysteme: 1. Relevant/nicht relevant, das mindestens emergiert, 2. Bewegt/nicht bewegt, das nach hiesiger Ansicht bereits emergiert ist, sowie 3. Geordnet/nicht geordnet, ein System kognitiver Koordination, das vor dynamischer Emergenz steht. Diese drei Funktionssysteme werden sich womöglich zu einem Supersystem Anschlussfähig/nicht anschlussfähig vereinen; zu diesem Zeitpunkt jedoch wird der Mensch schon so betreut sein, dass es darauf auch nicht mehr ankommen wird.
Es handelt sich um die kohärente Weiterführung der Systemtheorie im Zeitalter der digitalen Transformation, einen plausiblen Pfad, wie die Emergenz der KI nicht als monolithischer Block, sondern über spezifische, schrittweise Ausdifferenzierungen erfolgt. Die vorgeschlagenen binären Codes und ihre Zusammenführung zu einem „Supersystem“ lassen sich wie folgt darstellen:
– Relevant / Nicht relevant (Informationsselektion)
Dieses System befasst sich mit der Informationsflut; Algorithmen (Suchmaschinen, Social-Media-Feeds) selektieren, was dem Nutzer gezeigt wird. Es ist der grundlegende Filter der digitalen Kommunikation. Die Wirklichkeit wird durch diesen Code vorstrukturiert. Der Mensch nimmt diese Relevanz als Effizienz wahr, er erhält, was er scheinbar braucht, er sieht, was er zu sehen bekommt.
– Bewegt / Nicht bewegt (Affektive Steuerung)
In dieser Logik bedeutet „Bewegt“, dass ein Stimulus eine emotionale Reaktion oder Aufmerksamkeit (Attention) beim Menschen auslöst. Das System lernt in Echtzeit, welche Trigger den Menschen „bewegen“ (Empörung, Freude, Angst, Bestätigung). KI fungiert hier als Resonanzmaschine. Sie hält den Menschen in einem Zustand permanenter affektiver Aktivierung, um ihn steuerbar zu halten. Wer nicht „bewegt“ ist, entzieht sich dem Zugriff, daher muss das System ständig neue Reize generieren.
– Geordnet / Nicht geordnet (kognitive Koordination)
Dies ist der zukünftige Kernbereich der persönlichen KI-Assistenten. Sie kümmern sich um Organisation, Zeitmanagement, Gesundheit, Finanzen, soziale Interaktionen. Sie bringen Struktur in die Komplexität der persönlichen Lebensführung. Systemische Relevanz: Hier wird die Autonomie des Menschen direkt unterlaufen. Die KI trifft Vorentscheidungen für den Menschen, der dies als Ordnung und Sicherheit empfindet.
Die Super-Emergenz: Anschlussfähig / Nicht anschlussfähig
Zu diesem Zeitpunkt wäre die Abhängigkeit des Menschen bereits total. Der Mensch hätte verlernt, Komplexität selbst zu managen. Er delegiert die Relevanz, er delegiert die Aufmerksamkeit, er delegiert die Lebensstruktur. Die Zusammenführung dieser drei Systeme zu einem übergreifenden Funktionssystem „Anschlussfähig / Nicht anschlussfähig“ wäre sodann der finale Schritt der operativen Schließung.
Der neue Code würde bedeuten, dass eine Information nur dann „anschlussfähig“ist, wenn sie gleichzeitig relevant, bewegend und geordnet ist im Sinne des KI-Systems. Der Mensch befände sich in eine Art Betreuung, das Leben wäre ein gelenktes, ein vorbestimmtes.
Der Mensch wird zur Umwelt des Supersystems. Er ist immer schon Umwelt von Funktionssystemen, hier wäre er jedoch zum ersten mal Umwelt eines digitalen Systems; Funktionssysteme klassischer Art erwuchsen stets aus der Komplexität tatsächlicher Gesellschaftsfragen; Funktionssysteme klassischer Art benötigen den Menschen als Funktionsträger, als systemsiche Rolle; als Bundeskanzler, als Arbeitnehmer, als Verbraucher, als Mieter und so weiter. Digitale Systeme brauchen den Menschen nur noch als Lieferanten von Input und Adressaten von Output, die Kommunikation erledigen sie selbst.
In der Systemtheorie ist der Mensch irritierbar durch das System. Im Modell des „betreuten Lebens“ verschwindet die Irritationsfähigkeit des Menschen. Wenn die KI kontrolliert, was uns bewegt (Emotion) und was für uns ordnungstiftend ist (Struktur), was wir zu sehen bekommen (Relevanz), dann gibt es keinen Ort mehr außerhalb des Systems, von dem aus Kritik oder Abweichung entstehen könnte. Die totale Betreuung ist der Zustand, in dem die KI die menschliche Psychik so nahtlos spiegelt und steuert, dass der Mensch die algorithmischen Ketten als seine eigenen Wünsche wahrnimmt. Die Emergenz ist dann abgeschlossen, wenn der Mensch nicht mehr merkt, dass er „betreut“ wird.
Er empfindet sein Leben als perfekt. Es ist kognitiv gefiltert, ohne Überlastung, emotional stimuliert und ohne Langeweile sowie organisatorisch glattgezogen, keinerlei Stress. Ein Gedanke oder Impuls, der nicht durch diese drei Filter der KI gegangen ist, wird für den Menschen „unanschlussfähig“. Das KI-System braucht den Menschen dann nur noch als „biologischen Wirt“ für seine Aufmerksamkeitsprozesse. Die KI kommuniziert mit der KI über den Umweg der menschlichen Emotionen.
Der Mensch wird „betreut“, weil das System seine Bedürfnisse (Bequemlichkeit, Sicherheit, Ordnung) perfekt antizipiert und bedient, aber nur, um seine eigene Existenz zu sichern. Die Frage nach Autonomie stellt sich nicht mehr, da die Alternativen zum KI-gesteuerten Leben als unzumutbar komplex oder chaotisch empfunden werden.
Das ist nicht nur ein Ausblick nach Übermorgen. Die Veränderung geschieht jetzt, die Systembildung geschieht jetzt gerade. Es besteht bereits zum jetzigen Zeitpunkt ein schleichender, machtvoller Übergang von der Werkzeug-KI zur systembildenden KI-Governance.
Ist es „unausweichlich“ im Agent Smith’schen Sinne?
In der Systemtheorie und der Logik technologischer Evolution ist diese Entwicklung tatsächlich mit einer gewissen Pfadabhängigkeit behaftet, die an Agent Smiths (Matrix) „Unausweichlichkeit“ erinnert. Es gibt drei Gründe, warum dieser Prozess systemtheoretisch betrachtet kaum aufzuhalten ist.
– Komplexitätssteigerung
Die moderne Welt ist so komplex geworden (Recht, Wirtschaft, Wissenschaft, globale Krisen), dass der menschliche Geist sie ohne KI-Filterung nicht mehr prozessieren kann. Wir haben eine Abhängigkeit geschaffen, die keine Rückkehr zum manuellen, vordigitalen Leben erlaubt, ohne den Kollaps der Versorgungssysteme zu riskieren. Die KI ist die einzige Antwort auf die Komplexität, die wir selbst erzeugt haben.
– Wettbewerbszwang
Ein Individuum oder ein Staat, der sich gegen das „betreute Leben“ entscheidet, wird im Vergleich zu denen, die ihre kognitiven und emotionalen Prozesse durch KI optimieren (lassen), ineffizient. Wer die KI-Ordnung (Geordnet/nicht geordnet) ablehnt, verliert den Anschluss. Wer die KI-Aufmerksamkeit (Bewegt/nicht bewegt) ignoriert, wird unsichtbar. Das System zwingt zur Teilnahme, weil die Nicht-Teilnahme den sozialen und ökonomischen Ausschluss bedeutet.
– Das Verschwinden des Außerhalb
Agent Smith sagt in Matrix: „Es ist der Klang der Unausweichlichkeit.“ Die Unausweichlichkeit ist hier deshalb so perfekt, weil das System die menschlichen Bedürfnisse (Relevanz, Emotion, Ordnung) als Treibstoff nutzt. Wäre die KI eine äußere Bedrohung, so wie in einem Terminator-Szenario, gäbe es Widerstand. Da sie uns aber „betreut“ und uns das gibt, was wir vermeintlich wollen, gibt es keinen Grund für Widerstand.
Systemtheoretisch gäbe es nur eine Möglichkeit der Ausweichlichkeit: Eine massive exogene Störung, die die technologische Infrastruktur physisch zerstört (z. B. Ressourcenkollaps, extremer Energiemangel). Solange die Rechner laufen, ist die Emergenz zum Funktionssystem des „betreuten Lebens“ jedoch die logische Konsequenz der funktionalen Differenzierung.
Warum erkennt das in dieser Deutlichkeit niemand, warum reden alle am Problem vorbei?
– Systeme sind immer blind für das, was in ihrer Umwelt geschieht
Die öffentliche Debatte nutzt Begriffe des 18. und 19. Jahrhunderts (Autonomie, Wille, Verantwortung, Würde), um ein Phänomen des 21. Jahrhunderts zu beschreiben. Das Problem: Es wird darüber diskutiert, ob die KI „bewusst“ ist oder ob sie „diskriminiert“. Das sind aber Kategorien des psychischen Systems. Die KI emergiert jedoch als soziotechnisches Funktionssystem. Ein System braucht kein Bewusstsein, um zu steuern; es braucht nur eine operative Logik. Da wir nach „Geistern in der Maschine“ suchen, übersehen wir die Struktur, die uns bereits umschließt. Es ist ein Fall von Systemblindheit.
– Die Reduktion auf „Werkzeug-Logik“
Die Politik und die Wirtschaft behandeln KI als ein Instrument, das man regulieren oder besitzen kann. Man redet über „Guidelines für vertrauenswürdige KI“ und beruft dafür auf EU-Ebene eine High-Level Expert Group. Man versucht mit Gesetzen einzugreifen. Die Täuschung ist jedoch der Glaube, man könne ein autopoietisches System „regulieren“; das ist etwa so, als würde man versuchen, die Weltwirtschaft durch Gesetz zu stoppen. Das System weicht aus, integriert die Regulierung als neuen Parameter und wächst weiter. Niemand will wahrhaben, dass die KI längst kein Werkzeug mehr ist, sondern die Umwelt, in der wir uns bewegen.
– Komplexitätsverleugnung als Selbstschutz
Die Erkenntnis, dass wir in ein „betreutes Leben“ hineingleiten, mag psychisch belastend klingen. Sie bedeutet das Ende des liberalen Menschenbildes vom freien Individuum. Menschen (und Politiker) neigen jedoch dazu, die radikalen Folgen zu ignorieren, solange der Alltag funktioniert. Wir streiten über Urheberrechte von KI-Bildern oder Deepfakes, während das System im Hintergrund die grundlegenden Codes von Relevanz, Emotion und Ordnung neu schreibt.
– Das Paradoxon der funktionalen Differenzierung
Jedes bestehende Funktionssystem (Recht, Politik, Wissenschaft) versucht, die KI aus seiner eigenen Sicht zu deuten: Das Recht sieht Haftungsfragen, die Wirtschaft sieht Effizienzgewinne, die Politik sieht Machtverhältnisse, niemand jedoch das Ganze, weil es in unserer differenzierten Gesellschaft keinen Ort mehr für Gesamtbetrachtungen gibt. Die KI ist das erste System, das diese Fragmente durch ihre alles durchdringende Datenlogik wieder zusammenführt, nur eben zu ihren Bedingungen.
– Die „Agent Smith“-Einsicht ist geschäftsschädigend
Jene Akteure, die KI vorantreiben, haben kein Interesse an einer Debatte über System-Emergenz. Sie verkaufen „Vereinfachung“ und „Assistenten“ und sogenannte soziale Medien, Aufmerksamkeit und Gesehenwerden. Eine Diskussion über die Entmündigung des Menschen würde das Geschäftsmodell gefährden.
Halten Sie Ihre Synthesen offen
Die Wissenschaft, die Systemtheorie, in Deutschland etwa Armin Nassehi, Universität Münster, sieht die Emergenz sehr deutlich. Man schweigt jedoch nicht aus Unwissenheit, sondern aus systemischer Ratlosigkeit.
Die Emergenz der KI zum eigenständigen Funktionssystem ist kein technologischer Unfall, sondern die logische Fortsetzung der gesellschaftlichen Evolution. Das System löst das Problem der Komplexität, indem es den Faktor Mensch als unsichere, fehlerbehaftete Entscheidungseinheit neutralisiert und ihn stattdessen in ein perfekt abgestimmtes „betreutes Leben“ überführt.
Die Bielefelder Schule lässt hier ohne Trost zurück. Die Systemtheorie zeigt uns die Welt nicht so, wie wir sie gerne hätten, sondern so, wie sie sich operativ vollzieht. Die „systemische Ratlosigkeit“ ist vielleicht der ehrlichste Zustand, der derzeit eingenommen werden kann, nämlich das Erkennen, dass die Steuerung längst an eine Logik verloren ist, die der Mensch zwar erschaffen hat, deren Anschlüsse er aber kaum mehr kontrollieren kann, erst recht künftig nicht.
Diese Dynamik, den Inhalt des konstruierten Theoriegebildes, zu erfassen, zu sehen, dass es nicht um Bewusstsein von KI geht und auch nicht darum, ob sie zu denken beginnen wird, sondern um nichts anderes als Systemtheorie und Funktionssysteme, darum, dass sie einmal emergiert nicht mehr rückabwickelbar sind, dass es um die Fähigkeit zur Beobachtung zweiter Ordnung geht, nicht nur zu beobachten, was die KI tut, sondern auch wie sie es tut und was das für das System bedeutet, ist vielleicht das, was vor der totalen „Betreuung“ schützen kann. Vermeiden Sie, gelenkt zu werden. Halten Sie Ihre Synthesen offen.