Einleitung: Zwischen Faszination und Verunsicherung
Kaum ein Thema bewegt derzeit so sehr wie die Künstliche Intelligenz. In Verwaltungen, Bildungsstätten und sozialen Organisationen stellt sich die Frage: Wie können wir KI sinnvoll nutzen, ohne das Menschliche zu verlieren?
Die meisten Antworten drehen sich um Tools, Datenschutz und Effizienz. Aber vielleicht müssen wir die Frage anders stellen: Was beobachtet eigentlich die KI, wenn sie uns beobachtet?
Der neue Sammelband „Künstliche Intelligenz in der Sozialen Arbeit – Grundlagen für Theorie und Praxis“ (Beltz Juventa, 2025) zeigt eindrucksvoll, dass die Debatte längst in der Fachwelt angekommen ist. Doch vieles bleibt auf der Ebene der Anwendung: Wie kann KI helfen, Texte zu schreiben, Daten auszuwerten oder Fälle zu dokumentieren?
Mich interessiert etwas anderes: Was macht die KI mit unserem Denken – und was machen wir mit ihr?
Vom Werkzeug zur Beziehung
In der Sozialen Arbeit sind wir es gewohnt, in Beziehungen zu denken. Wir verstehen Situationen nicht als lineare Ketten von Ursache und Wirkung, sondern als Netze von Bedeutungen. Genau darin liegt die Parallele zur Künstlichen Intelligenz: Auch sie funktioniert nicht durch eine einzelne Regel, sondern durch Muster, Wahrscheinlichkeiten, Kontexte.
Wenn wir KI nur als Werkzeug betrachten, bleibt sie ein Gegenstand. Wenn wir sie jedoch als Bezugssystem verstehen, also als System, das selbst Bezüge herstellt, dann entsteht etwas Neues:
KI wird zu einer zweiten Beobachterin. Sie zeigt uns, wie wir selbst beobachten.
Das ist kein technischer, sondern ein epistemologischer Gedanke – einer, den Heinz von Foerster sicher mit einem verschmitzten Lächeln kommentiert hätte. Denn er wusste: „Der Beobachter ist Teil der Beobachtung.“
Und genau das gilt auch für die KI. Sie ist nicht außerhalb, sie ist Teil unseres Kommunikationsraumes.
KI als Spiegel sozialer Wahrnehmung
In Organisationen der Sozialen Arbeit werden täglich unzählige Beobachtungen produziert: Fallnotizen, Hilfepläne, Teamsitzungen, Evaluationen. Wenn wir KI in diese Prozesse einführen, tritt sie in dieses Netzwerk als neuer Resonanzkörper ein.
Sie spiegelt unsere Sprache, unsere Zuschreibungen, unsere Muster.
Das kann unbequem sein.
Eine Textanalyse kann zeigen, dass wir häufiger über Defizite als über Ressourcen schreiben.
Ein Chatbot kann Gesprächsformen übernehmen, die Distanz statt Vertrauen erzeugen.
KI hält uns den Spiegel hin – aber nicht, um uns zu korrigieren, sondern um uns zu zeigen, wie wir Wirklichkeit konstruieren.
In diesem Sinne ist KI nicht neutral, aber sie kann nützlich sein, wenn wir sie als Spiegel und nicht als Richter verstehen.
Das künstliche Bezugssystem
Ich spreche in diesem Zusammenhang von einem künstlichen Bezugssystem.
Ein Bezugssystem ist ein Rahmen, in dem Beobachtungen Sinn ergeben.
In der Physik ist es der Koordinatenraum, in der Soziologie das System, in dem Kommunikation geschieht.
Ein künstliches Bezugssystem entsteht, wenn Maschinen Bedeutungen generieren – nicht, weil sie „verstehen“, sondern weil sie Muster wiedergeben, auf die wir reagieren.
KI produziert also nicht Wahrheit, sondern Anschlüsse an unser eigenes Denken.
Das hat zwei Konsequenzen:
-
KI kann uns nichts abnehmen, was wir nicht selbst verstehen wollen.
-
Sie kann aber zeigen, wo wir uns selbst missverstehen.
Damit wird KI zur kybernetischen Partnerin: eine zweite Ordnung von Wahrnehmung.
Sie beobachtet unsere Beobachtung – und ermöglicht so Selbstreflexion in Echtzeit.
Vom Gebrauch zur Gestaltung
Wer KI in Organisationen der Sozialen Arbeit einführt, steht vor einer Entscheidung:
Will ich Systeme, die Prozesse beschleunigen?
Oder will ich Systeme, die Wahrnehmung erweitern?
Erstere entlasten, zweitere bilden ab, wie wir denken, fühlen, entscheiden.
Ein „künstliches Bezugssystem“ ließe sich daher so gestalten, dass es nicht vorgibt, was richtig ist, sondern zeigt, was möglich ist – im Sinne Foersters ethischem Imperativ:
Handle stets so, dass die Anzahl der Wahlmöglichkeiten größer wird.
Das bedeutet praktisch:
-
KI kann Fallnotizen nicht nur zusammenfassen, sondern Reflexionsfragen generieren.
-
Ein CustomGPT kann so programmiert sein, dass es nicht antwortet, sondern spiegelt: „Du sprichst oft von Kontrolle – was wäre eine Formulierung aus Vertrauen?“
-
Ein RAG-System kann Wissen nicht nur abrufen, sondern Perspektiven nebeneinanderstellen: „Diese Quelle betont Sicherheit, jene Teilhabe – was willst du gewichten?“
So entsteht eine dialogische KI, die uns nicht ersetzt, sondern begleitet.
KI als Praxis der Selbstbeobachtung
Wenn wir KI als künstliches Bezugssystem verstehen, verändert sich auch unsere Haltung:
Wir sind nicht mehr „Nutzer:innen“ einer Technologie, sondern Teilnehmer:innen eines Beobachtungssystems.
Das ist kein philosophischer Luxus, sondern eine praktische Notwendigkeit:
-
Es schützt vor Automation Bias – der Versuchung, algorithmische Ergebnisse ungeprüft zu übernehmen.
-
Es stärkt die Fachlichkeit, weil Reflexion wieder ins Zentrum rückt.
-
Es fördert Lernfähigkeit, weil Organisationen beginnen, ihre eigenen Muster wahrzunehmen.
Damit wird KI nicht zur Gefahr, sondern zur Gelegenheit:
zur Gelegenheit, sich selbst besser zu verstehen.
Ein kleiner Perspektivwechsel zum Schluss
Vielleicht liegt der größte Fehler im Satz: „Wir müssen KI lernen zu nutzen.“
Vielleicht sollten wir sagen: „Wir müssen lernen, mit KI in Beziehung zu treten.“
Denn Beziehungen verändern uns – immer.
Sie fordern uns heraus, machen uns aufmerksam, manchmal auch verletzlich.
Aber sie eröffnen Räume für Neues.
Wenn KI ein künstliches Bezugssystem ist, dann ist sie kein Werkzeug der Kontrolle, sondern eine Einladung zur Reflexion.
Und vielleicht ist genau das die wichtigste Kompetenz der Zukunft:
die Fähigkeit, sich selbst beim Denken zuzusehen – gemeinsam mit einer Maschine.
Weiterführend:
Der Beitrag ist inspiriert von aktuellen Diskussionen im Sammelband
„Künstliche Intelligenz in der Sozialen Arbeit – Grundlagen für Theorie und Praxis“ (Gesa Linnemann, Julian Löhe, Beate Rottkemper, Beltz Juventa 2025).
Zum Buch