Generative KI-Systeme werden nicht nur mit menschlichem Wissen trainiert – sie werden zunehmend mit Wissen trainiert, das sie selbst mitgeformt haben. Eine wegweisende Studie von Daron Acemoglu und Mitautoren zeigt, dass dieser scheinbar technische Sachverhalt tiefgreifende strukturelle Konsequenzen für die kollektive Erkenntnisbildung hat. Die Frage lautet nicht mehr, ob KI-Systeme Verzerrungen erzeugen, sondern unter welchen Bedingungen sie diese systematisch verstärken – und wie eine robuste Architektur dagegen angelegt sein müsste.
Es gibt Probleme, die unsichtbar bleiben, weil sie sich in genau dem Medium abspielen, mit dem wir sie wahrnehmen würden. Die Feedback-Schleife zwischen KI-Ausgaben und KI-Training gehört dazu. Wir nutzen generative Systeme, um Sachverhalte zu sondieren, Texte zu verfassen, Positionen zu schärfen. Diese Texte fließen ins Netz, werden indexiert, und bilden die Trainingsgrundlage der nächsten Modellgeneration. Was dabei entsteht, ist keine neutrale Aggregation von Wissen – es ist eine endogen verzerrte Rückkopplung, in der das System seine eigenen früheren Ausgaben als Evidenz behandelt.
Daron Acemoglu, Tianyi Lin, Asuman Ozdaglar und James Siderius analysieren diesen Prozess in ihrer 2026 erschienenen Studie „How AI Aggregation Affects Knowledge” auf der Grundlage des DeGroot-Modells für soziales Lernen. Ihre zentrale Messgröße ist der Learning Gap (Δ): die Abweichung des langfristigen gesellschaftlichen Konsenses vom effizienten Benchmark, der einer verlustfreien Aggregation aller privaten Signale entspräche. Je größer Δ, desto mehr epistemische Substanz geht im Aggregationsprozess verloren.
Schnelligkeit als Fragilisierungsprinzip
Die erste überraschende Erkenntnis betrifft das Tempo der Modellaktualisierung. Intuitiv scheint ein häufig aktualisiertes System dem Wissensstand der Gegenwart näher…
