Nvidia baut derzeit das, was manche bereits als „Agenten-Betriebssystem” für den Enterprise-Bereich bezeichnen: eine Plattform, die offene Modelle, NIM-Microservices, Orchestrierungs-Tooling und Sicherheits-Frameworks bündelt. Adobe, Salesforce und SAP haben angekündigt, auf dieser Basis eigene Agenten zu entwickeln. Die Botschaft lautet: komplexe KI-Agenten – mit Werkzeugnutzung, Gedächtnis und Ablaufsteuerung – lassen sich nun industriell auf Nvidia-Infrastruktur betreiben.
Das ist technisch bemerkenswert. Strategisch ist es ein folgerichtiger Schritt: Nvidia versucht, von der Hardware-Schicht in eine Middleware-Position aufzusteigen – zwischen Rechenzentrum und SaaS-Anwendung. Aber genau diese Verschiebung legt einen blinden Fleck frei, der in keiner der Partnerschaftsankündigungen adressiert wird.
Was NIM-Microservices tatsächlich standardisieren
Die NIM-Microservices (Nvidia Inference Microservices) sind containerisierte Inferenz-Bausteine: standardisiert, portabel, für unterschiedliche Infrastrukturen deployfähig. Sie legen fest, welche Entscheidungsoperationen ein Agent ausführen kann – welche Modelle er aufruft, welche Werkzeuge ihm zur Verfügung stehen, in welchem Rahmen er antwortet.
Das ist, systemtheoretisch gesprochen, eine regelentwerfende Infrastruktur. Sie definiert den Möglichkeitsraum des Agenten. Aber sie beantwortet eine vorgelagerte Frage nicht: nach welchen Regeln entscheidet ein Agent, ob er eine Entscheidung überhaupt treffen soll?
Luhmann unterscheidet Entscheidungen von bloßen Operationen. Eine Entscheidung ist eine Selektion, die eine Alternative sichtbar macht und damit eine Verantwortungszurechnung erzeugt. Ein Agent, der einen Prozessschritt ausführt, operiert. Ein Agent, der zwischen Eskalation und Nicht-Eskalation wählt, entscheidet. Der Unterschied ist nicht technisch – er ist institutionell.
Die eigentliche Governance-Lücke
Plattformen wie Nvidias Agenten-Stack adressieren die technische Ebene der Entscheidungsausführung mit wachsender Reife: Sicherheits-Frameworks wie OpenShell, Logging, Zugriffskontrolle. Was sie strukturell nicht leisten können, ist die Beantwortung der Frage: Wer ist für die Entscheidung des Agenten institutionell verantwortlich?
Das ist keine Frage, die sich durch bessere Observability lösen lässt. Sie stellt sich auf einer anderen Ebene – der organisationalen. In regulierten Industrien (Finanzdienstleistungen unter DORA, Gesundheitswesen, kritische Infrastruktur) ist die Erklärbarkeit einer Entscheidung keine optionale Qualitätseigenschaft, sondern eine rechtliche Voraussetzung für deren Geltung.
Nvidia verkauft Enterprise-Grade-Governance als technisches Merkmal. Aber Governance im institutionellen Sinne ist kein Feature – sie ist ein Strukturproblem der Organisation, das durch Toolkits lediglich verlagert, nicht gelöst wird. Die IT-Abteilung deployt den Agenten. Wer zeichnet für seine Entscheidungen?
Warum die Partnerschafts-Ankündigungen diesen Punkt verschleiern
Salesforce koppelt seine Agentforce-Plattform mit Nvidias KI-Enterprise-Stack, um – so die Ankündigung – Milliarden von Agenten über CRM-Workflows skalieren zu können. Das klingt nach einer technischen Aussage. Es ist aber vor allem eine wirtschaftliche: Salesforce benötigt Nvidias Infrastruktur für Performance, Nvidia benötigt Salesforces Domänenkompetenz für Relevanz.
Was dabei entsteht, ist eine Opportunitätskoalition unter Kostendruck. Kein strategisches Bekenntnis, sondern ein temporäres Interessenüberlappen. Historisch zeigen Komplementor-Beziehungen in der Plattformökonomie eine bekannte Dynamik: Der Komplementor baut Kompetenz auf, bis er den Plattformanbieter entweder umgehen oder ersetzen kann. Microsoft hat das mit IBM gemacht. Google hat es mit dem offenen Web gemacht.
Für SAP und Adobe ist die Nvidia-Partnerschaft attraktiv, weil sie Zugang zu optimierter Inferenz-Infrastruktur ohne eigene Entwicklungslast bietet. Aber SAP trägt erhebliche Legacy-Integrationsschulden: Prozessmodelle, die über Jahrzehnte gewachsen sind, fügen sich nicht bruchlos in eine Agent-first-Architektur. Die Governance-Frage verschärft sich hier, weil die organisationale Bedeutung eines Prozessschritts häufig nicht formalisiert ist – und ein Agent, der diesen Schritt ausführt, diese Bedeutung auch nicht rekonstruieren kann.
Der institutionell situierte Agent als konzeptuelle Antwort
Was fehlt, ist ein Konzept des Agenten, das seine institutionelle Einbettung nicht als nachträgliches Compliance-Problem behandelt, sondern als konstitutives Merkmal seiner Architektur.
Ein institutionell situierter Agent wäre ein Agent, der nicht nur regelausführend oder regeloptimierend ist, sondern dessen Entscheidungsarchitektur die Frage einschließt: In welchem institutionellen Kontext operiere ich, welche Entscheidungen sind mir delegiert, und welche Rückfragen muss ich generieren, bevor ich handele?
Das ist keine Frage der Modellstärke. Es ist eine Frage des Agenten-Designs auf Systemebene. NIM-Microservices können dafür eine technische Basis liefern – aber sie ersetzen nicht die konzeptuelle Arbeit, die Organisationen leisten müssen, bevor sie Agenten in entscheidungsrelevante Workflows integrieren.
Implikationen für Unternehmen
Wer Nvidias Plattform evaluiert, sollte drei Fragen getrennt halten:
Technisch: Wie portabel sind Agenten-Workloads gegenüber anderen Clouds und Stacks? Die NIM-Standardisierung suggeriert Offenheit – aber Offenheit auf Infrastrukturebene schließt Lock-in auf Governance- und Tooling-Ebene nicht aus.
Organisational: Welche Entscheidungen werden an Agenten delegiert, und durch welchen Prozess wird diese Delegation explizit gemacht? Ohne formalisierte Delegationsstrukturen entstehen Agenten-Deployments, die niemand verantwortet – und das ist kein technisches, sondern ein institutionelles Risiko.
Regulatorisch: Der EU AI Act klassifiziert bestimmte Agenten-Anwendungen als hochriskant. DORA verpflichtet Finanzdienstleister zu nachweisbarer Resilienz auch in automatisierten Entscheidungsprozessen. Nvidias Plattform adressiert diese Anforderungen auf Infrastrukturebene – die organisationale Antwort darauf kann kein externer Anbieter liefern.
Nvidias Agenten-Plattform ist ein beachtlicher Schritt in der Transformation vom Chip-Lieferanten zum Ökosystem-Akteur. Aber der Software-Moat, den Nvidia aufzubauen versucht, stützt sich auf Standards und Partnerschaften – nicht auf eine genuine Softwarekultur. CUDA war ein technisches Monopol durch überlegene Compiler-Kompetenz. Agenten-Orchestrierung ist ein anderes epistemisches Terrain: Es geht nicht um Recheneffizienz, sondern um Entscheidungsarchitektur in komplexen organisationalen Kontexten.
Genau dort liegt die Grenze dessen, was eine Plattform leisten kann – und der Anfang dessen, was Organisationen selbst denken müssen.
Ralf Keuper
Quellen:
Nvidia‑Plattform und NIM
-
Übersicht zu NVIDIA NIM (Inference Microservices) – technische Basis der Microservice‑Architektur für Modelle und Agenten.
https://developer.nvidia.com/nim -
Hintergrundbericht zu Nvidias geplanter/aufgebauter Enterprise‑AI‑Agent‑Plattform.
https://thenextweb.com/news/nvidia-is-reportedly-building-an-enterprise-ai-agent-platform -
Bericht über Nvidias neuen AI‑Agent‑Ansatz („claw craze“) und Einordnung im Markt.
https://sg.news.yahoo.com/nvidia-rides-claw-craze-ai-203330119.html
Partnerschaften mit Salesforce, Adobe, SAP
-
Salesforce: „Bringing AI Agents to Enterprise Workflows“ – Einordnung von Agentforce/Agents und Zusammenarbeit mit Nvidia.
https://www.salesforce.com/news/stories/Nvidia-nemotron-regulated-industries-announcement -
Salesforce und NVIDIA: Strategische Zusammenarbeit zu AI‑Agent‑Innovation im Enterprise‑Kontext.
https://investor.salesforce.com/news/news-details/2024/Salesforce-and-NVIDIA-Forge-Strategic-Collaboration-to-Advance-AI-Agent‑I -
Adobe und NVIDIA: Strategische Partnerschaft für kreative und Marketing‑Agenten‑Workflows.
http://nvidianews.nvidia.com/news/adobe-and-nvidia-partnership-creative-marketing-agentic-workflows
VentureBeat
- „Nvidia launches enterprise AI agent platform with Adobe …“
https://x.com/VentureBeat/status/2033641990189895936
