Getting your Trinity Audio player ready...
|
Von Ralf Keuper
Institutionen, ursprünglich für Stabilität und Kontinuität geschaffen, stehen angesichts des technologischen Fortschritts und gesellschaftlicher Veränderungen vor einer grundlegenden Transformation. KI übernimmt zunehmend Aufgaben wie Denken, Koordination und Entscheidungsfindung, wodurch traditionelle Modelle mit zentralisierter Expertise und starren Hierarchien an ihre Grenzen stoßen. Zusätzlich verschärfen Vertrauensverlust, Ungleichheit und Legitimitätsprobleme den Druck auf Institutionen.
Um relevant zu bleiben, müssen, so Gary Grossman in Institutionen Like humans, AI is forcing institutions to rethink their purpose Institutionen eine „kognitive Migration“ durchlaufen. Dabei geht es nicht nur um die Integration neuer Technologien, sondern um die Neudefinition ihres Zwecks und ihrer Werte. Wesentliche Prinzipien sind:
- Reaktionsfähigkeit fördern: Hierarchien abbauen und Agilität sowie moralische Klarheit stärken.
- KI als unterstützendes Werkzeug nutzen: Automatisierung repetitiver Aufgaben, um menschliche Kreativität, Vertrauen und Fürsorge zu fördern.
- Menschliches Urteilsvermögen bewahren: Menschen bei ethisch bedeutsamen Entscheidungen einbinden.
- Langfristig müssen Institutionen ihre Strukturen und Kernwerte anpassen, um der Menschheit mit ethischer Verantwortung, Vision und einem einzigartigen menschlichen Beitrag in einer KI-geprägten Welt zu dienen.
Inwieweit passt dieser Ansatz zu den Gedanken von Peter Berger und Thomas Luckmann aus ihrem Klassiker “Die gesellschaftliche Konstruktion der Wirklichkeit” und zur Stückwerk-Sozialtechnik von Karl Popper? Wo liegen die Grenzen?
Institutionalisierung ist jedoch kein unwiderruflicher Prozess, obwohl Institutionen, sind sie erst einmal entstanden, eine Neigung zur Dauerhaftigkeit zeigen. Aus einer Vielzahl historischer Gründe kann der Spielraum für institutionalisierte Tätigkeiten auch kleiner werden. Entinstitutionalisierung gewisser Bereiche des gesellschaftlichen Lebens kann um sich greifen. (ebd.)
Jede symbolische Sinnwelt ist potentiell problematisch. Die Frage ist also, bis zu welchem Grade sie problematisch geworden ist. Das Auftauchen einer alternativen symbolischen Sinnwelt ist eine Gefahr, weil ihr bloßes Vorhandensein empirisch demonstriert, dass die eigene Sinnwelt nicht wirklich zwingend ist (ebd).
Nach Berger/Luckmann entstehen Legitimationsprobleme, wenn etablierte institutionelle Ordnungen an neue Generationen weitergegeben werden müssen. KI verstärkt diese Herausforderung dramatisch: Sie stellt eine “alternative symbolische Sinnwelt” dar, die empirisch demon…